谷歌最近宣布了一系列旨在提高生成人工智能(AI)安全性的措施,标志着在保护这一新兴技术方面迈出了重要一步。这些举措包括扩大针对生成人工智能攻击场景的漏洞赏金计划(VRP),以及为开源人工智能供应链实施新的安全工具。
网络威胁的演变和谷歌的应对
网络威胁迅速演变,一些最严重的漏洞不是由公司而是由第三方安全研究人员发现的。认识到这一点,谷歌有着通过漏洞奖励计划 (VRP) 和零项目等计划支持集体安全的悠久传统。通过扩展 VRP 以包含针对生成式 AI 的攻击场景,Google 希望激励安全研究并揭示潜在问题,最终使 AI 对每个人来说都更安全。
这种积极 能的安全性 主动的方法符合谷歌以及其他领先人工智能公司向白宫做出的承诺,即推进人工智能系统漏洞的检测。 8 月,谷歌参加了 DEF CON 上历史上规模最大的公共生成 AI 红队活动,数千名安全研究人员在活动中搜索了潜在的漏洞。现在,随着赏金计划的扩大以及人工智能安全研究新指南的发布,谷歌旨在加速该领域问题的识别和解决。
生成人工智能安全新指南
与传统数字安全相比,生成式人工智能引发了独特的担忧,例如不公平偏见、模型操纵或数据“幻觉”。谷歌正在利用数十年的安全经验,采取全面的方法来预测和测试这些风险。然而,该公司认识到外部研究人员可以帮助识别新的漏洞,这将进一步增强其生成式人工智能产品。
随着 VRP 能的安全性 的扩展,Google 发布了新的漏洞分类和报告指南,专门针对生成式 AI。通过分享这些指南,该公司希望鼓励更多研究人员提交报告,加速实现更安全、更强大的人工智能的目标。
强化AI供应链
除了生成式人 能的安全性 工智能 手机号数据库列表 安全之外,谷歌还在扩大开源安全方面的工作,以保护人工智能供应链。通过安全人工智能框架(SAIF),谷歌寻求确保人工智能生态系统拥有坚实的安全基础,保护供应链的关键组成部分免受模型操纵、数据中毒和生产有害内容等威胁。
为了应对这些挑战,Google 宣布推出首批 Sigstore 模型签名原型和 SLSA 证明验证原型。这些努力建立在之前与开源安全基金会的合作基础上,是迈向安全可靠的生成式人工智能开发的第一步。
人工智能的安全未来
扩大漏洞赏金计划和 能的 营销清单 安全性 加强人工智能供应链仅仅是开始。谷歌希望这些举措能够促进与开源安全社区和其他行业参与者的更广泛合作,确保人工智能开发对每个人来说都是安全且有益的。
结论
谷歌正在通过扩大其漏洞 利益相关者:如何寻找和管理业务利益相关者 赏金计划和加强人工智能供应链的安全性,在生成人工智能安全方面迈出重要一步。这些举措不仅旨在 能的安全性 识别和减轻新出现的风险,而且还促进安全研究界和技术行业之间更广泛的合作。