Verax推出Protect以应对公司人工智能数据泄露风险

阅读量7962

发布时间 : 2025-06-30 18:19:20

x
译文声明

本文是翻译文章,文章原作者 Kaleah Salmon,文章来源: securitybrief

原文地址:https://securitybrief.asia/author/kaleah-salmon

译文仅供参考,具体内容表达以及含义原文为准。

 

Verax AI 宣布在全球推出 Verax Protect,这是一种专为企业使用而设计的解决方案,用于发现和减轻与生成式 AI 相关的风险,特别关注防止敏感数据的意外泄露。

生成式 AI 在工作场所的采用率持续上升,许多企业转向此类技术来提高生产力。然而,这种快速集成使我们面临许多重大风险,尤其是数据泄露的风险。一个关键问题是员工可能会将敏感数据或专有信息输入到 AI 提示中,无意中与外部第三方平台共享。

最近的数据显示,超过 40% 的美国企业现在已经付费订阅了 AI 模型、平台和工具,比 2023 年的 5% 大幅增加。与此同时,30% 使用 AI 的组织已经经历过与 AI 安全相关的事件。这些事件的成本也越来越高;2024 年,全球数据泄露的平均成本达到 488 万美元的历史新高,比上一年增长 10%。

Verax Protect 旨在帮助企业(包括在金融、医疗保健和国防等受到高度监管的行业运营的企业)利用 AI 的优势,同时保持对数据隐私和网络安全标准的合规性。该解决方案旨在支持这些组织在扩大 AI 的使用时避免在其严格的数据保护制度中妥协。

核心功能

Verax Protect 具有几个核心组件,旨在解决企业的关键问题。该解决方案旨在防止专有数据和敏感数据无意中泄露到第三方 AI 工具中。由于 AI 平台鼓励用户输入尽可能多的信息以获得最佳结果,这有时会导致员工将机密信息暴露给其组织未完全审查的提供商。

另一个关键功能是防止 AI 工具向无权访问信息的员工披露信息。AI 越来越多地用于生成报告和总结公司文档等任务,这增加了内部数据可能被过度共享的风险,使敏感材料面临被未经授权的人员查看的风险。

Verax Protect 还通过自动化合规措施来促进组织 AI 策略的执行。传统上,公司依靠员工培训课程和提醒弹出窗口等方法来确保合规性,尽管这些方法已被证明在很大程度上是无效的。自动化方法旨在减少意外和故意违反内部政策的机会。

除了这些控制措施之外,该解决方案还旨在帮助组织满足安全和数据保护认证要求。许多监管框架,例如欧洲的通用数据保护条例 (GDPR) 或美国的特定行业法律,例如医疗保健的 HIPAA 和金融服务的 GLBA,都要求采取明显的措施来保护敏感数据。生成式 AI 的采用为实施和演示此类保护带来了新的挑战。Verax Protect 提供工具来支持合规性计划和记录数据保护活动,即使 AI 使用量增加也是如此。

高管见解

Verax Protect 的推出是该公司的最新举措,该公司由联合创始人兼首席执行官 Leo Feinberg 和首席技术官 Oren Gev 于 2023 年创立。两人之前创立了 CloudEndure,这是一家云迁移和灾难恢复公司,后来被 Amazon Web Services 以 2.5 亿美元的价格收购。

Leo Feinberg 评论道:

“生成式 AI 是一把双刃剑。它有望带来前所未有的生产力提升,但也带来了前所未有的风险。借助 Verax Protect,我们使企业能够利用 AI 的强大功能保持竞争力,而不会损害其最敏感数据的安全性、隐私性和合规性。

Verax AI 还提供其他旨在管理 AI 使用的产品,包括 Verax Explore 和 Verax Control。这些工具旨在帮助组织监控和管理其内部和外部对 AI 技术的使用情况。

据该公司称,Verax Protect 作为实时监督和风险缓解工具运行,专为现代企业的要求量身定制。该系统与内部业务系统集成,并提供反映技术和组织策略要求的可调整控制。

人工智能在受监管行业中的日益普及凸显了有效风险管理和监督的必要性。Verax Protect 在设计时充分考虑了这些要求,旨在帮助企业从 AI 的生产力增强中受益,同时继续满足监管和安全期望。

本文翻译自 securitybrief 原文链接。如若转载请注明出处。
分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66