苹果的 AI 与 ChatGPT 集成:它将如何处理数据,以及它有多安全?

阅读量65158

发布时间 : 2024-06-17 12:04:52

在人工智能竞赛中落后一年之后,苹果终于宣布了其人工智能发展情况。今年秋天,它将开始在 iOS、MacOS 和 iPadOS 平台上推出由 Apple Intelligence 提供支持的新功能。

正如苹果在全球开发者大会上宣布的那样,苹果的设备将能够转录和总结录音、协助写作以及确定哪些通知很重要。Siri 将能够理解上下文信息等。

这些新功能以及 ChatGPT 集成引发了人们对该公司将如何处理用户数据的疑问。在 WWDC 主题演讲中,苹果的代表花时间向观众保证这些数据将受到保护。

尽管网络安全专家一致认为苹果的方法符合最高安全标准,但在向大众发布 AI 功能之前,该公司可能仍需要解决潜在的漏洞和问题。

苹果的做法
一般来说,苹果会尽可能地使用设备内处理。正如该公司所说,这样数据就会被分解,不会受到任何集中攻击点的影响。

苹果的大部分人工智能查询都将在设备上使用自己的语言和传播模型进行处理。该公司还将使用设备上的语义索引,可以跨应用程序搜索信息。

然而,有时,数据需要发送到云端进行处理。通常,这意味着数据会流向第三方提供商,从而为各种漏洞打开大门。

为了降低这些风险,苹果推出了多项措施。它只会将与任务相关的信息发送到服务器——服务器上不会存储任何数据,苹果也无法访问这些数据,服务器的硬件将由 Apple 芯片制成。

此外,该公司表示,它将通过加密技术确保其设备只有在经过公开检查后才能与服务器通信。它还将使用独立的安全研究人员来保证隐私和安全。

OpenAI 的整合带来了额外的风险

Apple 的 Intelligence 不会处理所有用户的询问。部分询问将被导向 OpeanAI 的聊天机器人 ChatGPT。

特斯拉创始人兼首席执行官、OpenAi on X 联合创始人之一埃隆·马斯克称这是一个不可接受的安全风险,并威胁要禁止其公司使用苹果的设备。

 

如果苹果在操作系统层面整合 OpenAI,那么苹果设备将被我的公司禁止使用。这是不可接受的安全违规行为。

-伊隆·马斯克(@elonmusk)2024 年 6 月 10 日

苹果公司还不够聪明,无法开发自己的人工智能,却能够确保 OpenAI 保护你的安全和隐私,这显然是荒谬的!

一旦将你的数据交给 OpenAI,苹果公司就不知道到底发生了什么。他们在出卖你。

-伊隆·马斯克(@elonmusk)2024 年 6 月 10 日

然而,正如马斯克有时所做的那样,他在不了解全部事实的情况下发表了这些评论。X 的众包社区笔记系统甚至纠正了他的帖子,称马斯克的评论歪曲了实际宣布的内容。

AppOmni 首席人工智能工程师兼安全研究员 Joseph Thacker 表示,马斯克可能并没有完全了解苹果如何在本地和私有云中使用自己的模型。

苹果的人工智能将决定哪些查询应该从 Siri 发送到 ChatGPT,它不会记录信息,但会选择加入 ChatGPT 集成。

然而,专家也看到了一些额外的风险。

“使用 OpenAI 等 SaaS 提供商的风险在于存在一个全新的攻击媒介。像 OpenAI 这样的初创公司没有多年的专业知识和大型团队,这使得他们有时间正确地建立威胁模型,并确保一切达到最高标准,”他说。

不过,ChatGPT 集成到 Siri 的风险非常小,因为 Apple 确认在调用 ChatGPT 时不会将任何用户数据传递给 Open Ai。

塔克解释说,即使 OpenAI 违背了不记录数据的承诺,除非有人说“我的名字是 X,我想了解 Y”,否则 OpenAI 也不可能知道谁在问什么问题。

研究人员将苹果的私有云计算描述为“非常安全、复杂且经过深思熟虑的基础设施”。

“如果发布的架构正确实施,则需要多个复杂的零日漏洞才能破坏 Apple 的私有云。它基于零信任。甚至他们的工程师也无法访问解密正在处理的数据所需的密钥。利用漏洞的可能性极小,”Thacker 补充道。

一切都归结为数据管理
网络安全专家、Live Proxies 联合创始人兼首席执行官雅各布·卡尔沃 (Jacob Kalvo) 表示,OpenAI 的集成,即使在可验证来源的情况下,也可能会增加更多复杂性,并可能增加攻击媒介。

他表示,尽管苹果声称不会捕获任何信息,但集成过程可能会暴露新的攻击面,例如 API 漏洞或无意中泄露的数据。

卡尔沃表示:“尽管苹果长期以来被视为隐私和安全的标准之一,但人工智能和机器学习的本质是处理大量数据,而不良的数据管理实践可能会造成数据被黑客入​​侵和泄露。”

他强调了私有云计算的几个潜在风险。私有云计算很容易受到旁道攻击,攻击者可以利用设备的物理属性或针对硬件层的高级恶意软件推断出信息。

“其他危险包括利用零日漏洞,导致未经授权的信息访问。这些攻击的成功率会有所不同,因为它取决于攻击者的先进程度以及苹果在系统中加强的安全保护措施,”他补充道。

人工智能的漏洞

HostingAdvice 的安全和技术专家 Joe Warnimont 表示,将数据发送到云端总是会带来额外的风险。

“私有云计算仍然使用云。这是一个漏洞。第二数据离开你的本地设备;不法分子可以获取它。这些威胁通常以管理云服务器的公司的承包商或员工的形式出现,”专家说。

他提醒我们,苹果曾经遇到过第三方承包商窃听 Siri 录音的问题。这些录音都是加密的,除了质量控制之外——而这正是承包商利用的漏洞。

“人工智能也必然存在漏洞——比如人工智能模型(在某些时候)需要未加密的数据来处理请求,”Warnimont 说。

不过,研究人员称赞苹果采用了与竞争对手不同的方法。

其他大型科技公司存储大量客户数据,并经常与语音助手、在线搜索和家庭自动化共享这些数据。Warnimont 表示,他们对人工智能的态度也是一样的。

与此同时,苹果至少以更强大的隐私和安全措施以及可靠的基础设施而闻名。

潜在的即时注入攻击漏洞
在苹果发布声明后,一些专家在社交媒体上分享了他们对苹果私有云计算的看法。

约翰霍普金斯大学教授密码学的马修格林表示,如果你给一个优秀的团队一大笔钱,并告诉他们打造世界上最好的“私有”云,它很可能就是这个样子。

“请记住,超级间谍并不是你最大的对手。对很多人来说,你最大的对手是向你出售设备/软件的公司。这个 PCC 系统代表了苹果真正承诺不会‘偷看’你的数据,”研究人员在 X 和 Threads 的一系列帖子中说道。

然而,他也看到,这样的系统可能存在许多看不见的漏洞,包括硬件缺陷、加密衰减框架问题和巧妙的软件漏洞。

格林发文称:“其中许多对于安全研究人员来说很难检测到。”

最后,在这样的系统中可能存在很多看不见的尖锐边缘。硬件缺陷。加密衰减框架的问题。巧妙的软件漏洞。其中许多对于安全研究人员来说很难检测到。这也让我很担心。18/

undefined Matthew Green (@matthew_d_green) 2024 年 6 月 10 日
工程师西蒙·威利森 (Simon Willison) 表示,Siri 能够访问设备上的数据并根据您的指令触发操作,这可能会使其容易受到提示注入攻击。

威利森写道:“如果有人给你发短信,诱使 Siri 将密码重置邮件转发给他们,而你要求提供该短信的摘要,会发生什么情况?我很想知道苹果公司为降低这种风险做了哪些努力。”

本文转载自:

如若转载,请注明出处: https://cybernews.com/editorial/how-will-apple-ai-handle-data/

安全客 - 有思想的安全新媒体

分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

内容需知
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全客 All Rights Reserved 京ICP备08010314号-66