与微软一样,谷歌希望您帮助修复人工智能并使其更加安全

谷歌人工智能漏洞赏金计划

微软人工智能赏金计划推出仅几周时间,现在谷歌也推出了自己的专门针对生成式人工智能的错误赏金计划。

谷歌宣布扩大其现有的漏洞奖励计划,以奖励与生成人工智能相关的攻击场景。该公司表示,希望激励围绕人工智能安全和安保的研究,突出潜在问题,让人工智能对每个人来说都更安全。

作为扩展的一部分,谷歌表示正在重新评估如何报告和分类错误。该公司信任与安全副总裁 Laurie Richardson 和隐私、安全与安保工程副总裁 Royal Hansen 在解释这意味着什么时表示:“与传统数字安全相比,生成式人工智能引发了新的、不同的担忧,例如潜在的不公平偏见、模型操纵或数据误解(幻觉)”。

他们继续补充

随着我们不断将生成式人工智能集成到更多产品和功能中,我们的信任和安全团队正在利用数十年的经验,并采取全面的方法来更好地预测和测试这些潜在风险。但我们知道,外部安全研究人员可以帮助我们发现并解决新的漏洞,从而使我们的生成式人工智能产品更加安全。

谷歌为安全研究人员发布了新的指南,以便他们准确地了解该计划涵盖的内容。

该公司还宣布了希望能够防范机器学习供应链攻击的计划:

我们正在扩展我们的开源安全工作,并以我们之前与开源安全基金会的合作为基础。Google 开源安全团队 (GOSST) 正在利用 SLSA 和 Sigstore 来保护 AI 供应链的整体完整性。SLSA 涉及一套标准和控制措施,以提高供应链的弹性,而 Sigstore 则有助于验证供应链中的软件是否如其所声称的那样。首先,我们今天宣布推出第一个原型,用于使用 Sigstore 进行模型签名并使用 SLSA 进行证明验证。

更多详细信息请参见此处

类似文章

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注