我们正在启动一个人工智能安全赏金计划,专注于发现最先进语言模型中的漏洞。
我们的使命是通过识别新颖的越狱方法和模型漏洞,在它们被利用于现实场景之前,测试和改善人工智能安全保护措施。
该计划旨在加强我们语言模型的安全性,确保它们对用户是安全的。
该计划的结构是基于表现的,奖励与发现漏洞的严重性和新颖性直接相关。
赏金奖励范围从 $100 到 $5,000,总赏金池为 $50,000。
我们鼓励研究人员参与此计划,共同识别漏洞并改善我们的人工智能系统的安全性。
• 伦理研究实践:所有研究必须以道德和负责任的方式进行。这包括不在我们的安全报告系统之外分享漏洞,避免出于有害目的利用已发现的漏洞,以及尊重用户隐私和数据保护原则。
好处:通过参与该计划,您将有机会为人工智能安全的进步做出贡献,获得漏洞发现的经验,并为您的努力获得财务奖励。