Cisco Talos 的新研究表明,滥用大型语言模型 (LLM) 来增强其非法活动的网络犯罪分子有所增加。据报道,这些强大的 AI 工具以生成文本、解决问题和编写代码而闻名,它们正在纵以发起更复杂和更广泛的攻击。
供您参考,LLM 设计有内置的安全功能,包括对齐(训练以最大限度地减少偏见)和护栏(防止有害输出的实时机制)。例如,像 ChatGPT 这样的合法 LLM 会拒绝生成网络钓鱼电子邮件。但是,网络犯罪分子正在积极寻找绕过这些保护的方法。
Talos 与 Hackread.com 分享的调查强调了对手使用的三种主要方法:
未经审查的 LLM:这些模型缺乏安全约束,很容易产生敏感或有害的内容。示例包括 OnionGPT 和 WhiteRabbitNeo,它们可以生成攻击性安全工具或网络钓鱼电子邮件。像 Ollama 这样的框架允许用户在自己的机器上运行未经审查的模型,例如 Llama 2 Uncensored。
定制的刑事 LLM:一些有进取心的网络犯罪分子正在开发他们自己的 LLM,专门用于恶意目的。GhostGPT、WormGPT、DarkGPT、DarkestGPT 和 FraudGPT 等名称在暗网上做广告,拥有创建恶意软件、网络钓鱼页面和黑客工具等功能。
越狱合法 LLM:这涉及通过巧妙的提示注入技术欺骗现有的 LLM 忽略其安全协议。观察到的方法包括使用编码语言(如 Base64)、附加随机文本(对抗性后缀)、角色扮演场景(例如,DAN 或 Grandma 越狱),甚至利用模型的自我意识(元提示)。
暗网已成为这些恶意 LLM 的市场。例如,FraudGPT 宣传的功能范围从编写恶意代码和创建无法检测到的恶意软件到查找易受攻击的网站和生成网络钓鱼内容。
然而,这个市场本身并非没有犯罪分子的风险;Talos 研究人员发现,据称是 FraudGPT 的开发者 CanadianKingpin12 通过承诺不存在的产品来骗取潜在买家的加密货币。
除了直接生成非法内容外,网络犯罪分子还利用 LLM 执行类似于合法用户的任务,但带有恶意成分。2024 年 12 月,Claude LLM 的开发人员 Anthropic 指出,编程、内容创建和研究是其模型的主要用途。同样,刑事 LLM 用于:
- 编程:制作勒索软件、远程访问木马、擦除程序和代码混淆。
- 内容创建:生成令人信服的网络钓鱼电子邮件、登录页面和配置文件。
- 研究:验证被盗的信用卡号,扫描漏洞,甚至集思广益新的犯罪计划。
LLM 本身也正在成为目标。攻击者在 Hugging Face 等平台上分发后门模型,嵌入下载后运行的恶意代码。此外,使用外部数据源(Retrieval Augmented Generation 或 RAG)的 LLM 可能容易受到数据中毒的影响,攻击者会纵数据以影响 LLM 的响应。
Cisco Talos 预计,随着 AI 技术的不断进步,网络犯罪分子将越来越多地采用 LLM 来简化他们的作,有效地充当现有攻击方法的“力量倍增器”,而不是创造全新的“网络武器”。
发表评论
您还未登录,请先登录。
登录