“人工智能教父”警告超级智能机器可以用生物战杀死人类

阅读量8665

发布时间 : 2025-06-17 15:10:20

x
译文声明

本文是翻译文章,文章原作者 Jason Nelson,文章来源:Decrypt

原文地址:https://decrypt.co/325397/ai-godfather-warns-superintelligent-machines-kill-off-humans-biowarfare

译文仅供参考,具体内容表达以及含义原文为准。

来源: 解密

简述

  • Geoffrey Hinton 警告说,人工智能可能会超越人类智能并变得无法控制。
  • 他概述了来自人类滥用和自主 AI 的威胁,包括网络攻击、错误信息和生物武器。
  • Hinton 称利润动机是 AI 发展不会放缓的关键原因之一。

被广泛称为“人工智能教父”的杰弗里·辛顿 (Geoffrey Hinton) 在一次新的采访中发出了他迄今为止最严厉的警告,他警告说,随着世界竞相发展超级智能机器,人工智能不仅对就业构成威胁,而且对整个人类的生存构成威胁。

在“首席执行官日记”播客上,Hinton 概述了对未来的严峻愿景,表明人工智能最终可能会决定人类本身已经过时。

“如果它想摆脱我们,我们就无法阻止它摆脱我们,”Hinton 说。“我们不习惯比我们更聪明地思考事情。如果你想知道当你不是顶级智能时的生活是什么样子,就问一只鸡吧。

Hinton 表示,威胁将采取两种不同的形式:一种是源于人类滥用的威胁,例如网络攻击、错误信息的传播和自主武器的制造;以及那些由变得完全自主和不可控的 AI 系统产生的错误。

“他们现在可以制造致命的自主武器,我认为所有大型国防部门都在忙于制造它们,”他说。“即使他们不比人聪明,他们仍然是非常令人讨厌、可怕的东西。”

2023 年 5 月,神经网络先驱 Hinton 在人工智能领域工作了十多年后离开了谷歌和多伦多大学,以便他可以自由地谈论这项技术的危险。

Hinton 的警告是在人工智能的军事应用激增之际发出的。最近的事态发展凸显了技术迅速融入国防行动,美国在资金和伙伴关系方面引领了增长。

11 月,为了用人工智能和自主武器增强军队,美国国防部在向国会提交的 2025 年预算提案中要求拨款 1430 亿美元用于研发,其中 18 亿美元专门用于人工智能。那年早些时候,软件开发商 Palantir 与美国陆军签订了一份价值 1.75 亿美元的合同,以开发人工智能驱动的瞄准系统。3 月,五角大楼与 Scale AI 合作,推出了一款名为 Thunderforge 的 AI 特工战场模拟器。

Hinton 将当前时刻比作核武器的出现,不同之处在于 AI 更难控制,并且在更多领域都有用。

“原子弹只对一件事有好处,而且它的工作原理非常明显,”他说。“有了 AI,它对很多很多事情都有好处。”

Hinton 解释说,企业利润动机和国际竞争的这种结合是 AI 发展不会放缓的原因。

“利润动机是说:向他们展示任何能让他们点击的东西,而让他们点击的是越来越极端的东西,证实了他们现有的偏见,”他说。所以你的偏见一直在得到证实。

AI 将如何杀死人类?Hinton 表示,超级智能 AI 可以设计新的生物威胁来杀死人类。

“显而易见的方法是制造一种令人讨厌的病毒——传染性很强,非常致命,而且速度非常慢——这样每个人都会在意识到之前就感染它,”他说。“如果超级智能想摆脱我们,它可能会选择不会影响它的东西。”

尽管前景黯淡,但 Hinton 并非完全没有希望。

“我们只是不知道我们是否能让他们不想接管,也不想伤害我们。我认为我们是否能做到并不清楚,所以我认为这可能是没有希望的,“Hinton 说。“但我也认为我们也许能够做到,如果人们因为懒得尝试而灭绝,那将有点疯狂。”

本文翻译自Decrypt 原文链接。如若转载请注明出处。
分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66