为什么专家说我们现在应该控制人工智能

父母是困难的

关键的外卖

  • 新的研究表明,可能没有办法控制超级智能的人工智能。
  • 一篇期刊论文认为,控制人工智能需要比我们目前拥有的先进得多的技术。
  • 一些专家表示,真正智能的人工智能可能比我们想象的更早出现。
概念图像:人工智能机器人面部分为两部分,完成和网络形式内部。
Yuichiro Chino / Getty Images

科学家表示,如果人类开发出超级智能的人工智能,可能就没有办法控制它了。

人工智能长期以来一直被吹捧为治愈人类所有问题的良方《终结者》风格的启示。然而,到目前为止,人工智能甚至还没有接近人类的智能水平。但据英国《每日邮报》报道,如果高级人工智能真的发展出来了,对人类来说,控制住它可能是一个太复杂的问题最近的一篇论文发表在这件事中人工智能研究杂志

“一个控制世界的超级智能机器听起来像是科幻小说,”该论文的合著者之一曼纽尔·塞布里安(Manuel Cebrian)在一份声明中表示新闻发布会上

但现在已经有一些机器能够独立执行某些重要任务,而程序员并不完全理解它们是如何学习的。因此,问题就出现了,这是否会在某个时候变得无法控制,对人类来说是危险的。”

即将到来的超级计算机在你身边

该期刊论文认为,控制人工智能需要比我们目前拥有的先进得多的技术。

在他们的研究中,该团队设想了一个理论包容算法,通过先模拟人工智能的行为,如果认为有害,就停止它,以确保超级智能人工智能在任何情况下都不会伤害人类。但是作者发现这样的算法是无法建立的。

“如果你把这个问题分解为理论计算机科学的基本规则,结果就会发现,一种能够命令人工智能不毁灭世界的算法,可能会在不经意间停止其自身的运行。”Iyad Rahwan,人类和机器中心主任马克斯·普朗克人类发展研究所他在新闻发布会上说。

“如果发生这种情况,你将不知道遏制算法是否仍在分析威胁,或者它是否已经停止遏制有害的AI。实际上,这使得包容算法无法使用。”

概念图像:二进制代码转换人工智能机器人的人脸。
Yuichiro Chino / Getty Images

真正智能的人工智能可能比我们想象的更早出现Michalis Vazirgiannis他是法国École理工学院的计算机科学教授。“人工智能是人类的产物,但它正在迅速成为一个独立的实体,”他在一封致乐动体育赞助

“临界点将出现在奇点出现的时候(即人工智能将拥有作为实体的意识),因此它们将拥有独立、自控力,并最终占据主导地位。”

奇点来了

瓦齐扬尼斯并不是唯一一个预测超级人工智能即将到来的人。真正相信人工智能威胁的人喜欢谈论“奇点”,瓦兹吉安尼斯解释说,这是人工智能将取代人类智能的观点,“人工智能算法可能会意识到它们的存在,并开始自私和合作。”

谷歌的工程总监雷·库兹韦尔(Ray Kurzweil)表示,奇点将会到来在21世纪中期之前.库兹韦尔说:“我一直预测到2029年人工智能将通过有效的图灵测试,从而达到人类的智能水平。未来主义

“如果我们不能清洁自己的房子,我们应该要求ai跟随什么代码?”

“我已经确定了‘奇点’的日期为2045年,到那时,我们将通过与我们创造的智能相融合,使我们的有效智能增加10亿倍。”

但并非所有人工智能专家都认为智能机器是一种威胁。人工智能顾问说,正在开发的人工智能更有可能用于药物开发,并没有显示出任何真正的智能Emmanuel Maggiori他在邮件采访中说。他补充说:“关于人工智能有很大的宣传,这让它听起来真的像是革命性的。”“目前的人工智能系统并不像宣传的那样准确,会犯人类永远不会犯的错误。”

现在控制AI

Vazirgiannis说,控制人工智能让它不脱离我们的控制可能很困难。控制人工智能资源的是企业,而不是政府。“就连算法本身,通常都是在这些大型、强大、通常是跨国实体的研究实验室中产生和部署的,”他说。

“因此,很明显,国家政府对控制人工智能所需资源的控制越来越少。”

一些专家表示,为了控制超级智能人工智能,人类将需要管理计算资源和电力。“科幻电影喜欢矩阵Vazirgiannis说,使人类使用人类使用的凹陷未来的预言。“

“尽管遥不可及,但人类应该确保对计算资源(即计算机集群、gpu、超级计算机、网络/通信)有足够的控制,当然还有提供电力的发电厂,这绝对不利于人工智能的功能。”

安全员看着天空中形成的云块。
科林安德森制作有限公司/盖蒂图片

公司联合创始人兼首席执行官迈克尔·贝特霍尔德(Michael Berthold)表示,控制人工智能的问题在于,研究人员并不总是理解这种系统是如何做出决策的数据科学软件公司KNIME他在接受电子邮件采访时说。“如果我们不这样做,我们怎么能‘控制’它呢?”

他补充说,“我们不明白什么时候一个完全不同的决定是基于对我们来说无关紧要的输入做出的。”

Berthold说,控制使用人工智能风险的唯一方法是确保只有在风险可控的情况下才使用人工智能。他补充说:“举两个极端的例子:不要让人工智能管理你的核电站,因为一个小错误就可能产生灾难性的副作用。”

“另一方面,人工智能会预测你的房间温度应该调高一点还是低一点,为了舒适的生活,冒一点小风险也是值得的。”

如果我们不能控制人工智能,我们最好教它礼貌,前美国宇航局计算机工程师彼得·斯科特他在邮件采访中说。“我们不能最终确保AI的可控性超过我们可以确保我们的孩子们的可控性,”他说。

“我们正确抚养他们,并希望他们得到最好的结果;到目前为止,他们还没有毁灭世界。要把他们培养好,我们需要更好地理解道德;如果我们连自己的房子都打扫不干净,我们又该让人工智能遵守什么规范呢?”

但人工智能研究人员、谷歌研发执行副总裁Yonatan Wexler表示,人类并没有完全失去希望OrCam.“虽然进步确实令人印象深刻,但我个人认为,人类的智力不应被低估,”他在接受电子邮件采访时说。“我们作为一个物种已经创造了相当惊人的东西,包括人工智能本身。”

寻找永远更聪明的AI。但是,在为时已晚之前考虑我们如何控制我们的创作可能会更好。

这个页面有用吗?