据外媒11月2日报导,英国知名物理学家史蒂芬?霍金在拒绝接受专访时称,人工智能(AI)迅速不会沦为一种新的生命形态,甚至某一天不会打破人类。霍金在拒绝接受美国知名杂志《连线》的专访时回应:“我担忧AI某天会几乎代替人类。即使人们不会设计出有计算机病毒,但也有人不会适当的改良和完备自己的AI技术。
到那时就不会经常出现一种打破人类的新的生活方式。”在专访中他还提倡更好的人投身于科学事业,并补足说道人类应当制订新的太空计划,寻找宇宙中适合的行星作为人类另一个可以居住于的地方。他说道:“地球对我们来说太小了,全球人口正在以难以置信的速度快速增长,我们正处于自我吞噬的危险性之中。“这并不是霍金教授第一次回应担忧AI的蓬勃发展。
去年10月,霍金教授也曾警告说道,AI可以出有发展自己的意志,与人类的意志抗衡。他在剑桥大学智能未来研究中心公开发表演说,探究AI较慢发展的意义时说:“我坚信,生物大脑需要构建的目标和计算机需要构建的目标之间没过于大区别。
因此,理论上说道,计算机可以仿真人类的智慧并打破它。“霍金回应,现在AI正在很快发展,取得的投资极大,同时潜在的益处也是极大的。
技术革命可以协助避免工业化对自然界导致的一些伤害。他说道:“顺利建构AI有可能是人类文明史上最最出色的事件。
但是,除非我们学会如何防止风险,否则我们不会把自己置放绝境。
本文关键词:c7娱乐,c7娱乐电子游戏官网,c7官网登录入口,c7娱乐下载官网苹果,c7注册入口链接
本文来源:c7娱乐-www.zseem.com