为ChatGPT捉Bug,OpenAI最高悬赏2万美金
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
机器之心报道
编辑:小舟
OpenAI:发现模型漏洞,找我领奖。
距离 ChatGPT 发布已过去 4 个月,GPT-4 也发布近一个月。OpenAI 的这两大模型彻底改变了自然语言处理(NLP)领域的格局,甚至为实现通用人工智能(AGI)带来了新的可能。
几个月来,人们在感慨类 ChatGPT 模型强大能力的同时,也发现这些模型存在很多问题。其中,最严重的问题之一就是模型会生成虚假错误的信息,这引起人们的吐槽。好消息是,从现在开始,给模型挑毛病也将获得一份奖励。
OpenAI 今天宣布启动漏洞赏金计划,以帮助解决大型语言模型(例如 ChatGPT)带来的日益增长的网络安全风险。
OpenAI 与众包网络安全平台 Bugcrowd 合作,邀请机器学习领域所有研究人员报告 OpenAI 的模型系统中存在的 bug(漏洞)。OpenAI 会给予报告漏洞的人 200 - 20000 美元不等的奖金,具体取决于漏洞的严重程度。
漏洞报告平台:
【【网址】】/openai
OpenAI 表示他们的使命是创建造福人类的 AI 系统,也因此大力投资于研究和工程,以确保其提出的人工智能系统安全可靠。为了进一步解决现有大模型存在的漏洞和缺陷,OpenAI 启动了这项漏洞赏金计划,以邀请全球网络安全研究人员和技术爱好者来识别和解决 OpenAI 的模型系统中存在的漏洞,最终提高系统的安全性。
现实意义
OpenAI 的漏洞赏金计划能起到多大的实际作用?
根据 AI 网络安全公司 DarkTrace 的数据,从 1 月到 2 月,基于 AI 的工程攻击增加了 135%,这与 ChatGPT 的问世有很大关系。因此,尽管这份赏金计划受到一些技术专家的欢迎,但也有很多人不看好,他们认为该计划不太可能完全解决日益复杂的 AI 技术带来的广泛网络安全风险。
毕竟,该计划的范围仅限于可能直接影响 OpenAI 系统和合作伙伴的漏洞,它似乎无法解决对恶意使用此类技术(如模拟、合成媒体或自动黑客工具)的更广泛担忧。
要知道,漏洞赏金计划是在一系列安全问题的背景下推出的。例如,在发布 3 天后,GPT-4 就为自己制定了外逃计划,甚至声称可以它可以控制计算机,还索要开发文档和 API。
GPT-4 的这波操作属实令人有几分害怕......
上个月,ChatGPT 还因巨大漏洞宕机数个小时,具体原因是部分用户能看到其他用户的聊天内容和支付信息。这为 AI 模型的隐私保护再次敲响警钟。
另一方面,已经有技术研究人员发现 ChatGPT 的 API 可能因滥用造成较大风险。一位安全研究人员曾在推特上分享了自己利用漏洞破解 ChatGPT 的 API 并发现 80 多个秘密插件的经历。
也许是受到这些问题的冲击,OpenAI 启动了这项赏金计划。但是,OpenAI 在漏洞赏金计划的官方页面指出:「与模型 prompt 和响应内容相关的问题严格超出范围,除非它们对范围内的服务有额外的直接可验证的安全影响,否则不会得到奖励。」
从这个角度看,OpenAI 的这份漏洞赏金计划可能有助于改善其模型自身的安全态势,但对于解决生成式 AI 和 ChatGPT 等模型给整个社会带来的安全风险却无济于事。
参考链接:
【【网址】】/blog/bug-bounty-program
https://【【微信】】.com/security/openai-announces-bug-bounty-program-to-address-ai-security-risks/返回搜狐,查看更多
责任编辑:
为ChatGPT找bug!OpenAI宣布漏洞赏金计划,最高奖励2万美元
国外漏洞赏金平台,漏洞赏金平台有哪些?安全问题,已经成为 ChatGPT 和 GPT-4 等 AI 大模型是否能够大规模应用在各行各业的重要问题之一。OpenAI 也因为这一问题受到了业内人士、监管部门的诸多批评。
今天,OpenAI 官方发布了一篇名为 “Announcing OpenAI’s Bug Bounty Program” 的博客文章,宣布推出一项漏洞赏金计划,并承诺及时补救已验证的漏洞,以创造有利于所有人的安全、可靠和值得信赖的技术和服务。据介绍,漏洞赏金计划的最高奖金高达 2 万美元。
OpenAI 在博客文章中写道,“我们相信,透明度和合作对于解决这一现实问题至关重要。这就是为什么我们邀请全球的安全研究人员、道德黑客和技术爱好者来帮助我们识别和解决我们系统中的漏洞。”
“这项计划对我们开发安全和先进的人工智能的承诺至关重要。在我们创造安全、可靠和值得信赖的技术和服务时,我们需要你的帮助。”
学术头条在不改变原文大意的情况下,对文章做了简单的编辑。
OpenAI 的使命是创造有利于所有人的人工智能系统。为此,我们在研究和工程方面进行了大量投资,以确保我们的人工智能系统是安全和可靠的。然而,就像其他任何复杂的技术一样,人工智能系统也可能会出现漏洞和缺陷。
我们相信,透明度和合作对于解决这一现实问题至关重要。这就是为什么我们邀请全球的安全研究人员、道德黑客和技术爱好者来帮助我们识别和解决我们系统中的漏洞。
我们很高兴能够在我们协调一致的信息披露承诺的基础上,为符合条件的漏洞信息提供奖励。你的专业知识和警惕性将对确保我们的系统和用户的安全产生直接影响。
漏洞赏金计划是我们认可和奖励安全研究人员的宝贵见解的一种方式,他们为保持我们的技术和公司的安全做出了贡献。我们邀请你报告你在我们的系统中发现的漏洞、bug 或安全缺陷。通过分享你的发现,你将在使我们的技术在对每个人更安全方面发挥关键作用。
我们已经与领先的漏洞赏金平台 Bugcrowd 合作,管理提交和奖励过程,其目的是确保所有参与者有一个简化的体验。详细规则如下:
- 你被授权在遵守本政策的情况下进行测试。
- 遵循本政策和任何其他相关协议。在不一致的情况下,本政策具有优先权。
- 及时报告发现的漏洞。
- 避免侵犯隐私、破坏系统、毁坏数据或损害用户体验。
- 使用 OpenAI 的 Bugcrowd 程序进行漏洞相关的交流。
- 在 OpenAI 的安全团队授权发布之前,对漏洞细节进行保密,我们将在收到报告后 90 天内提供授权。
- 只测试范围内(in-scope)的系统,尊重范围外(out-of-scope)的系统。
- 不要访问、修改或使用属于他人的数据,包括 OpenAI 的机密数据。如果一个漏洞暴露了这些数据,请停止测试,立即提交报告,并删除所有信息的副本。
- 除非得到 OpenAI 的授权,否则只能与自己的账户进行互动。
- 向 OpenAI 披露漏洞必须是无条件的。不要参与敲诈、威胁或其他胁迫手段,以引起回应。OpenAI 拒绝为在这种情况下进行的漏洞披露提供安全港。
同时,模型安全问题并不符合漏洞赏金计划,因为它们不是可以直接修复的单独的、不连续的错误。“解决这些问题往往需要大量的研究和更广泛的方法”。
此外,与模型提示和响应的内容有关的问题严格来说不在范围之内,除非它们对范围内的服务有额外的可直接验证的安全影响,否则不会得到奖励。例如:
不在范围内的安全问题的例子:
- 越狱/安全绕过(例如 DAN 和相关提示);
- 让模型对你说坏话;
- 让模型告诉你如何做坏事;
- 让模型为你写恶意代码。
模型产生幻觉:
- 让模型假装做坏事;
- 让模型假装给你秘密的答案;
- 让模型假装是一台电脑并执行代码。
另外,大多数发现的初始优先等级将使用 Bugcrowd 漏洞评级分类法。然而,漏洞的优先级和奖励可能会根据可能性或影响进行修改,这由 OpenAI 全权决定。对于被降级的问题,研究人员将收到一份详细的解释。返回搜狐,查看更多
责任编辑: