简述
- Geoffrey Hinton 警告说,人工智能可能会超越人类智能并变得无法控制。
- 他概述了来自人类滥用和自主 AI 的威胁,包括网络攻击、错误信息和生物武器。
- Hinton 称利润动机是 AI 发展不会放缓的关键原因之一。
被广泛称为“人工智能教父”的杰弗里·辛顿 (Geoffrey Hinton) 在一次新的采访中发出了他迄今为止最严厉的警告,他警告说,随着世界竞相发展超级智能机器,人工智能不仅对就业构成威胁,而且对整个人类的生存构成威胁。
在“首席执行官日记”播客上,Hinton 概述了对未来的严峻愿景,表明人工智能最终可能会决定人类本身已经过时。
“如果它想摆脱我们,我们就无法阻止它摆脱我们,”Hinton 说。“我们不习惯比我们更聪明地思考事情。如果你想知道当你不是顶级智能时的生活是什么样子,就问一只鸡吧。
Hinton 表示,威胁将采取两种不同的形式:一种是源于人类滥用的威胁,例如网络攻击、错误信息的传播和自主武器的制造;以及那些由变得完全自主和不可控的 AI 系统产生的错误。
“他们现在可以制造致命的自主武器,我认为所有大型国防部门都在忙于制造它们,”他说。“即使他们不比人聪明,他们仍然是非常令人讨厌、可怕的东西。”
2023 年 5 月,神经网络先驱 Hinton 在人工智能领域工作了十多年后离开了谷歌和多伦多大学,以便他可以自由地谈论这项技术的危险。
Hinton 的警告是在人工智能的军事应用激增之际发出的。最近的事态发展凸显了技术迅速融入国防行动,美国在资金和伙伴关系方面引领了增长。
11 月,为了用人工智能和自主武器增强军队,美国国防部在向国会提交的 2025 年预算提案中要求拨款 1430 亿美元用于研发,其中 18 亿美元专门用于人工智能。那年早些时候,软件开发商 Palantir 与美国陆军签订了一份价值 1.75 亿美元的合同,以开发人工智能驱动的瞄准系统。3 月,五角大楼与 Scale AI 合作,推出了一款名为 Thunderforge 的 AI 特工战场模拟器。
Hinton 将当前时刻比作核武器的出现,不同之处在于 AI 更难控制,并且在更多领域都有用。
“原子弹只对一件事有好处,而且它的工作原理非常明显,”他说。“有了 AI,它对很多很多事情都有好处。”
Hinton 解释说,企业利润动机和国际竞争的这种结合是 AI 发展不会放缓的原因。
“利润动机是说:向他们展示任何能让他们点击的东西,而让他们点击的是越来越极端的东西,证实了他们现有的偏见,”他说。所以你的偏见一直在得到证实。
AI 将如何杀死人类?Hinton 表示,超级智能 AI 可以设计新的生物威胁来杀死人类。
“显而易见的方法是制造一种令人讨厌的病毒——传染性很强,非常致命,而且速度非常慢——这样每个人都会在意识到之前就感染它,”他说。“如果超级智能想摆脱我们,它可能会选择不会影响它的东西。”
尽管前景黯淡,但 Hinton 并非完全没有希望。
“我们只是不知道我们是否能让他们不想接管,也不想伤害我们。我认为我们是否能做到并不清楚,所以我认为这可能是没有希望的,“Hinton 说。“但我也认为我们也许能够做到,如果人们因为懒得尝试而灭绝,那将有点疯狂。”
发表评论
您还未登录,请先登录。
登录