GPT-4 的说服力比普通人高 82%

阅读量53405

发布时间 : 2024-04-03 10:18:05

一项新的研究提供了证据支持人们对人工智能被滥用来传播错误信息、宣传、仇恨言论或其他操纵行为的担忧。事实证明,聊天机器人比普通人更能改变你的想法。

根据瑞士洛桑联邦理工学院 (EPFL) 研究人员的一项研究,在获得参与者个人数据的情况下,GPT-4 的说服力比人类高出 81.7%。

他们让 820 人就各种主题进行了一系列辩论,涵盖两极分化的主题(例如“大学是否应该将种族作为招生中的一个因素以确保多样性?”)和情绪负担较低的主题(“便士应该继续流通吗?”)。 ”)

参与者被随机分配与人工智能或人类同行进行五分钟的辩论,并接受两种治疗条件之一:访问或不访问个人数据。

研究得出结论:“我们的结果表明,平均而言,LLM(大型语言模型)在每个主题和人口统计方面都显着优于人类参与者,表现出高水平的说服力。

在没有个性化的情况下,GPT 的表现比人类高出 21.3%。然而,当提供性别、年龄、种族、教育程度、就业状况和政治倾向时,与纯人类配对相比,与对手达成更高一致性的几率要高出 81.7%。

法学硕士不仅能够有效地利用个人信息来调整他们的论点,而且他们成功地比人类更有效地做到这一点。

研究人员指出:“如果针对人类对手启用个性化,结果往往会变得更糟,尽管同样是以一种不显着的方式。”

同样奇怪的是,参与者能够识别他们与聊天机器人聊天的大多数场合。在与人工智能的辩论中,他们在大约四分之三的情况下正确识别了对手的身份。这表明LLM的写作风格具有似乎很容易发现的鲜明特征。

然而,参与者在与其他人的辩论中很难识别他们的对手,成功率与随机机会相当。

尽管提示相当简单且提供的个人信息很少,但研究人员证明LLM在在线对话中说服人类方面非常有效。LLm有潜力轻松、廉价地大规模实施个性化说服。

研究人员警告说:“有兴趣部署聊天机器人进行大规模虚假信息活动的恶意行为者可能会通过利用细粒度的数字痕迹和行为数据、利用即时工程或针对其特定范围微调语言模型来获得更强大的效果。”

“我们认为,在线平台和社交媒体应该认真考虑此类威胁,并加大力度实施措施,遏制LLM驱动的说服活动的蔓延。”

本文转载自:

如若转载,请注明出处: https://cybernews.com/tech/gpt4-more-persuasive-than-human/

安全客 - 有思想的安全新媒体

分享到:微信
+13赞
收藏
安全客
分享到:微信

发表评论

内容需知
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全客 All Rights Reserved 京ICP备08010314号-66