商汤ai人工智能 商汤世界人工智能大会直播
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
全中国最懂人工智能的公司之一(商汤,静默期结束,4月10号发布大模型),1个半小时,近3万字实录,解答你所有关于人工智能的困惑。由最具话语权的人解答真实的AI行业是怎么样的,颠覆掉A股很多认知。
关于光模块的幻想、关于国产芯片的能力,训练用的谁的芯片,各大公司有多少算力,国内大模型和ChatGPT的对比,答案都在里面。
一定是先要有一个通用的基模型,必须是全修的,各种各样的数据它都见过,有了一个比较全修的这样一个通用的防地去磨好之后,你再用垂直领域的数据再去做一个垂直领域的模型,这样你垂直领域的这个模型的效果它才会足够的好。
算力还是关键中的关键,大模型参数不代表好坏,文心2600亿参数效果不如1750亿的ChatGPT3.5,主要是训练的不够,打磨的不够。训练100次千亿参数模型,可能能解决这些问题。
感慨一句,A股炒算力的标的都是非常远期的,真正能马上、立刻提供算力的还是商汤,训练也是商汤给做的。单任务并行使用1000张A100以上不是容易的事情,在训练用的还是英伟达的A100芯片。在短期内国产芯片并不能胜任大模型训练任务,做做小模型可以,新一代芯片可能可以胜任推理。
包括很多应用,一句话,没有谁可以高枕无忧。第三次流量分配到来,未来并不是一马平川。
大模型:4月10日发布,画图功能超过Midjourney V4接近V5
之前没有披露大模型是因为处于香港的静默期(意味着后续的交流会增加),4月10号,商汤会发布自己的大模型(之前就已经训练好了,因为静默期一直不能披露),努力追赶GPT4,对于垂直用户,必须有一个通用型大模型作为基础训练的垂直大模型效果才会好。垂直应用面临巨大洗牌,但是洗牌的基础是你得有一个底层好的大模型。商汤希望成为这样的持续迭代的底层大模型。
GPT4 是 8 个月之前训练好的(在微软投资之前),只用了1万张V100,400号人。GPT4 是目前世界上唯一一个模型,可以去打败90%大学生的比例,而且是通修的大学生,其他模型连高中都考不上。国内这方面落后了,很多岗位的就业最基础要求是大学生。但是手里有1万张GPU很快就能考上大学了。
商汤是最早把人工智能大模型写入招股说明书的公司,2020年就有相关的研究。但是大部分人不知道怎么实现大模型,目前行业知道了,只需要基于大量数据去训练,可以产生涌现,这是一个重大发现。目前商汤的模型也出现了涌现(涌现不局限在语言,图片等领域也一致)。
商汤的大语言模型,不需要把中文翻译成英文做训练,再翻译回来。是原生的训练。作图能力超过到 midjourney 第四代版本的能力,接近第五代的能力。
将发布虚拟人生产数字平台,能够直播卖货、生成视频等等,中标四大行的数字平台。
参数量不是号称越多越好,需要解决很多问题,很多参数都是凑的。怎么样达到比较好的效果。训练 100 次,千亿参数量就行。训 100 次你才能够把这里面所有的这些需要解决的问题,工程上的一些点,优化上的一些点,所有的一些这个技术的这个边边角角的一些细节都能做好 100 次,中国和美国。
流量重新分配,大家要知道这件事情可能每 10 年才会发生一次流量重新分配,第一次。第一次就是互联网出来泡沫之后。第二次就是移动互联网头条出来,流量分配今年开始第三次流量分配,你的互联网 APP 如果有很强的 BGM 能力,那用户就会用它用的越来越多,没有任何人在当下是可以高枕无忧的,所有的公司在当下都不能够高枕,巨头都不能,谷歌都不能告诉你
大装置:国内主要大模型训练的来源
商汤科技历史融资60亿美金,30亿投入了“大装置”(人工智能训练平台),训练出来的视觉大模型是全球第一的。公司是真正的AIDC,目前大装置一期有5000个机柜,90%在使用,二期建完共有1万个机柜,总算力超过 10X false,10000 P 的一个算力。
商汤A100充足,在停售前拥有1万张A100芯片。训练一个百亿参数量的视觉模型,对于算力的消耗是等同于训练一个千亿参数量的语言模型。
为什么商汤对外开放“大装置”,训练模型需求是波动的,只训练自己的模型,成本和风险会非常高,后面还有4、5、6代模型要训练,投入越来越大,绑定更多的合作伙伴,成为平台本身――“众筹”算力,获得长期长跑的能力
临港大装置有2.7万张显卡,已经用了海光和寒武纪,并做了国产适配,商汤是寒武纪的第一大客户。坦白讲就是这一波的大模型训练,确实是目前只有 A100 和 A800 能够真的跑得起来。目前国产GPU只能做小规模和中规模的训练和推理。
商汤训练大模型已经5年了,调动上千张GPU卡,需要非常难的架构,商汤在这方面技术非常领先。目前可以做到7天不断点,OpenAi两三天就会断点一次,因此商汤准备输出训练能力。
A股的上市公司,大部分没有GPU,或者买不到A100和A800,算力来源基本上是商汤。拥有5年的单任务并行运算1000张卡的经验(还能对外输出,国内独家),能够用 4000 张 A100 卡跑出1万张的A100等效算力。目前有八个大客户在训练,还有n多家客户找过来要训练。
大装置不仅是一个资金的一个投入的问题,卖给客户的是时间,可以让需要训大模型的客户在一个月之内数据搬上来,一个月之内把你的千亿参数的模型去年跑通,然后再过一个月你就可以出结果。
文字记录:
PART 1 大模型常见问题
联合创始人、执行同事徐冰先生来跟大家来做个交流,那下面我把时间交给徐斌先生,大家欢迎。这种现在看得出来大家都非常关注人工智能这个行业。我们前段时间一直处于静默期,因为这个港作为一家港股创始公司,这方面都有一些要求,所以我们一直以来没有对大家披露商汤的这个大模型,以及通用人工智能 AI GC 的一些研发进展。那么我们也是从上周开始业绩公告之后,然后才正式开始路演。
给大家去做一些这些方面的这个情况的一个更新,因为大家也可以看到就是说。这个大模型这件事情,实际上很多公司在历史上可能都是踩空的,因为它确实是一个有极大的一个投入,并且历史的商业回报和商业变现模式都非常不清晰的这样一个状态。
那么我知道我现在全球范围去看,就是说通用人工智能已经变成一个必然的趋势。然后在今年大家也经常听到一些说法,就是今年是通用人工智能的元年,我们这个在上周像 Bille、mask 等一批人开始去呼吁我们暂停一下这个通用人工智能技术的研发,然后担心的这个距离。4 能力已经非常出众了,那如果持续迭代到GPT5、GPT6,那会不会出现一些失控的局面,对吧?就是那这件事情。
我们也有很多的这些这个人来问我们一些问题,那确实我们自己也有一定的这个顾虑,确实是啊,就是因为在去年,去年截止去年是没有人会感觉有通用人工智能具体的实现路径的。那么通用人工智能的定义就是说人工智能的能力强到它可以跟我们每个人去媲美,对吧?你怎么去定义就是人类的这个智能?但现在基本上 GPT 4 达到的能力是说他已经可以媲美90% 以上的这种优秀的大学生的能力了,而且他是一个通修全科的大学生。也就是他不仅仅是在去修某一个咱们修的专业,比如金融或者法律,他是全科所有的东西同时都修,然后他可以在各个领域里面去这个打败 90% 以上的大学生,甚至像法律这样的领域。
我们可以想象有什么样的人可以去做律师?一般来说都是那些比较聪明并且比较努力的,经过 10 年甚至更长时间的一个这个培训,上学、上基地实习,你才能够 【【微信】】 来去做一个律师,通过这个律师资格考试。那现在呢?在这样的一些就是评估人类智能能力的这些考试上面,其实 GPT4 的能力超过了 90% 的人,所以再往上继续去迭代。我们也知道就 GPT4 不是最近训练出来的。
GPT4 是 8 个月之前训练好的,也就是在 openai 拿到微软的这今年 100 亿美金的一个投资,对吧?在拿到他的这个新增的这个 3- 4万张的 A100 的卡之前, openAI 用了相对有限的私有不到 20 亿美金左右的一个资金,再加上这个1万张 V100。就是 A100 的上一个版本就是 V100 的这个计算卡,openai用了少量资源,400号人。
然后能够把这批死这样的能力给做出来。我不知道咱们在座的各位有多少人用过GPT4,我身边已经有非常多的人在去用,天天用它就是他的能力,就是说跟其他的模型是两个物种。GPT4 是目前世界上唯一一个模型,可以去打败90%大学生的比例,而且是通修的大学生。其他的模型的话就通俗的来理解。
其他的模型的话其实这个可能高中都考不上,就是他还是有一些这个实施的这个差别。那么就是说 openAI 用了相对有限的资源,然后在 8 个月前做出来这批次,并且用了这 8 个月时间做好这个lines,对吧?能够让他的能力跟人类的目标去align,尤其是跟这些,这个就是价值观正确的人的目标需要按,而不去跟那些邪恶的人的目标去来是吧?所以他用了 8 个月时间做好了版本才释放给公众去那工作时间之后,也是这个非常的惊讶,那么就是这也是刚刚发生半个月的事情,所以这件事情。
其实是触发了大家很多的这种讨论。就是我们进入了这样一个通用人工智能的时代,那这个时代到底意味着什么,对吧?对我们在座的每个人意味着什么?那其实这个可能我们去看整个律师行业,整个律师行业有可能很快速的发生大的变革,也就是现在整个律师行业,对吧?律所的业务没有扩大一倍,但是律师的工作能力扩大了2、到 3 倍。
那这个结果是什么呢?这个供需不匹配,在需求不变的情况下,你可以产生两三倍更多的这样一个供给,就是法律意见,各种各样的协议。那这个就自然会引发这样的这个行业的一个变革。可能有大量的流失,就需要去转行了。在这样的一个就是竞争之下,所以有句话说,会用 GPT4 的人会用这些通用人工智能工具的人,会把那些不会用主工具的人给取代掉。这里面行业和行业的竞争是非常。
它不是影响了某一个和两个的。那上周有一个统计报告出来,整个欧洲加美国有3亿个工作岗位就是白领,3亿个工作岗位会被通用人工智能技术去影响,那这个影响实际上是非常大的这样一个影响,对吧?但对于中国来看的话,在我看来可能稍微的反应慢了半拍。我们整体国内现在的 cash 是属于落后的一个cash,没有任何一家公司截至目前能够拿得出来一个考上大学的通用人工智能的这个模型。因为考不上大学的这条线是非常重要的一条线。
因为我们很多很多的这个就是生产活动里面对于人的素质的要求,是大学生的要求,尤其是咱们所从事的这个白领行业里,我们对于人的素质要求是大学生是最。
基础的这样一个要求。那如果我们做出来的通用人工智能模型你是达不到大学生的标准的话,那它的这个应用性和实用性都还是相对比较有限的。所以现在就是说据我了解,我们几家手上有超过1万张的 AE 版的GPU很快这样,够考上大学的。
所以我们本身就是说这周开始的实际上是一个业绩路演。但是我在上周在香港的这个四天的时间,我们大概见了不到 30 家机构,几乎没有人问我们业绩了。
没有什么好业绩问题,大家讨论的问题就是都是你们有2万张的 GPU 卡,你们这么早就开始做 foundation model 是吧?因为我们是把 foundation model就是就是人工智能大模型写到招股书里面来,在 2020 年年底上市的时候,就介绍商汤是如何做房地直播的,做大模型,做通用的视觉能力,然后只能够是解决各行各业的,这个就是小模型生产的这样一个大批量生产的问题。但实际上在过往需要就是通用人工智能,基于超大模型能够实现这件事情是并不是一个公式。
大部分人不知道怎么实现通用人工智能。但今年这件事情变成了一个共识,基于通用人工智能,基于这个 foundation model,基于大量的数据去给 foundation model 去训练它,用超大功能的算力去训练它。那么最终你能够实现超大神经网络的能力的涌现,就涌现实际上是个关键词emergent。
大家去看这个方面的一些报告也提到了,就是这件事情是没有人能解释的, openAI 自己的技术人员无法解释为什么会有涌现,所以它实际上就是说非常神奇是一个discovery,它是个明星。discovery 对于一个现象就是超大规模的神经网络,就是这个 artificial neural network,他有能力去,他有这个做到一定规模之后,他就可以把各种能力涌现出来。他不是把design,他不是一个event,他不是一个发明,而是一个发现。就像物理学定律一样,它一直存在在那里,只是以前没有人做到那条规模,所以大家都不知道,就是把这份流量压过来最终只要把它做大。这个 NLP 自然语言领域的这个数据也都是互联网上爬取的。
这些,可能大家也都能够去爬的这样一些公寓的数据为主5000 亿个单词、 5000 亿个 token 给他训练这个 1750 亿的这样一个网络,他能够把这个就是 5000 亿单词所包含的这个对于这个世界的描述,然后进行压缩学习到了这个世界的一个表示之后,然后它展现出来了各种各样大家无法解释的这样一个能力的涌现。像翻译,像多轮对话,我要像长文的这样一个生成等等等等。那这样一个现象的发现其实等同于什么呢?等同于我们把这个窗户纸捅破了,就如何实现 AGI 的这个窗户系统,包括所以现在就是说这个就是美国各大厂商、各大互联网公司都在这个超大模型上面去投入了很多的资源,并且中,当然中国这边也是一样,大家都已经这个投入非常多的资源来去做了,并且我们都验证了涌现这个现象。
就是谷歌的模型也有了涌现这个现象。百度文心一言也有了一定涌现的现象,指定涌现能力还没有那么的强,对吧?我们的模型也出现了这个涌现的一个现象,那这些数字我就不一一去过了,就是说这个整体去看就是确实我们这个历史上就是其实在今年 open AI 拿到这 100 亿美金之前,商汤其实是在全球范围之内融资规模最大的一家人工智能创业公司。好,我们历史上是融了 60 亿美金,其中我们投入了30多亿美金才拥有了咱们在这个图下面看到了我们的这个人工智能基础设施,我们叫大装置,它帮助我们不停地去训练、修炼这些大规模的通用模型,我们是全球第一个把这个视觉能力做到超过人的,并且这个训练的这个就是全球最大的视觉模型, 300 多亿的这个参数量,然后在各种评测标准上都取得了全球第一。比如说这个Imagenet,就大家知道这个openAIDE。
首席科学家之前是做Imagenet,做视觉神经网络Alexnet,对吧?它是那个发明人之一,我们也是在 English 保持了全球第一的这样一个准确率的,这个就是成绩。然后我们在新版的 image 上作用Microsoft。
Coco 上面也是全球第一,我们在这个谷歌的 Vimo 就是自动驾驶的这样一个评测基准,谷歌的 we more challenge 我们在去年是拿到了全球第一,所以我们的这个通用视觉能力已经是展现了,我们讲的就是说在超大模型的这样一个迭代之下,极强的这样一个表现。
这个那训练视觉模型,历史上训练视觉模型其实是机器消耗算力的朋友们,训练一个百亿参数量的视觉模型,对于算力的消耗是等同于训练一个千亿参数量的语言模型。所以这也是为什么我们历史上去训这种超大规模的视觉模型的时候,需要去投很多很多的开盘。所以我们就是说非常幸运的在英伟达对整个中国市场去停止售卖它的这个高端 GPU A100 系列,之前,我们已经有了超过1万张左右的 100 的一个芯片,这也是我们在上海临港的就是咱们的这个大装置,就是投资 50 亿规模建成的这样一个大装置,在那个时间点在去年开业,对吧?去年年初开业,我们为了去建这个大装置,其实过程之中采购了非常多的这个 GPU 卡,那我们一共有 27000 张的这个 QQ 卡,这里面也包含一些国产的。
QQ 卡,比如说寒武纪的,再比如说海光,就这两家公司我想最近可能很多投资人都很关注。那么如果大家在去年有去参观我们的大装置的话,你们就应该看得到我们在大装置里面已经适配了寒武器和海光的这种 GPU 卡,我们是寒武纪最大的客户之一,咱们去这个很早就开始跟他们合作去适配国产的这个 GPU 卡,但坦白讲就是这一波的大模型训练,确实是目前只有 A100 和 A800 能够真的跑得起来。
那么就是国产的GPU 目前仅能去做小模型和中模型的这个训练和推理。那寒武纪有一款最新的GPU,它是能够做得了大模型的推理的,对他训练这件事情,其实这个易用性和性价比没那么好,是吧?但是推理这件事情,寒武纪的最新款的这个可以去比较好的支撑的。对我们还有百度做了解,其实都在跟他们继续对一些大模型推理的这样一件事情。
好的大模型的训练确实是非常消耗算力的,但是大家知道,就接下来其实大模型的推理,也就是等他服务终端用户服务的量非常非常大的时候,对吧?比如说一个query,你问他一个问题,他给你反发这个答案,就这一个query。它对于这个算力的这个成本消耗就已经是很难负担了,就是这个 10 美分接近一块钱人民币的这样,那如果有几千万的用户天天在这里面去,对吧?大模型的这个应用去问各种问题的话,大家对于这个成本的想象可想而知,所以这里面。
最大的成本是什么呢?就是芯片的承诺,所以这是为什么?英伟达也在最近推出来了,就是应用于大模型推理 transformer 推理的这个专门的加速芯片,对吧?H100 系列的这个芯片其实从这个性价比上是有一个蛮显著的一个提高的,那像就是国产的几家 GPU 厂商我们也了解,就是说这个他们也能够用得到,就在他的这个大的 GPU 这件事情上,能够支撑这个大模型的推理。但是如果咱们去考虑性价比的话,依然还是因为咱目前的这个芯片,不管是从训练还是推理上训练都不是最好,这是我们现在可能比较经常会问到的一些问题,提前先抛出来给大家一些比较有用的信息。
PART 2 商汤大模型&大装置
视觉模型领先
就说商汤的话,我们这个一直以来是做视觉的这个大模型做到了最大的这样一个规模,然后大家知道这一波的这个语言的大模型,它的这个技术突破其实本身跟自然语言技术相关性并不大,所以如果大家去访谈过一些专家,或者找一些行业的人聊,所以说可能会有人发现就是所有的做历史上做自然语言的这样一些这个公司,其实它的竞争优势都被抹平了。因为这个大的自然语言模型它其实虽然叫语言模型,但实际上它是更多的基于深度学习和超大规模的这个神经网络相关的这样一些能力来实现的这些群体,那么没有用到什么 NLP 定位这样一些专家知识。我们训练这个 180 亿的这样一个参数量的语言模型,其实在这个业绩攻奥之前就已经训好,那么经过几轮迭代之后,我们这个模型也已经开始对接一些客户,我们做接口的这个测试了,那视觉这一块的话,我们也是历史上一直保持这个全球第一的这样一个位置。像谷歌训练的这个【【微信】】 也是 200 多亿的参数量规模,也小于我们的这个 320 亿参数量规模。这个视觉模型我们也训练了一系列的文森2,模型就是生成出来的图像效果也非常的逼真,一会给大家看一下。
商汤呢?其实训练大模型已经 5 年历史了,就我们是在 2019 年,我们就已经是英伟达的这个中国的大客户之一,然后采购大量的 QQ 卡,我们在 2019 年就实现了 1000 张GPU,是做这个单任务的并行计算上千张 GPU 相连做单任务的这样一个训练计算这件事情,对于系统对于架构的要求其实是非常高的。
对吧?我们在 19 年就创造了一个记录,就是训练 Alex NAP 全球速度最快这样一个世界纪录。当然就是说可能在这一波的大模型突破之前这个确实这样的一些技术成就受到关注这个其实非常的少。但现在如果真的发过去看的话。
我们在 19 年就给我们奠定了一个很好的系统和架构的能力,让我们能够就是在训练这种这个大型的神经网络上,对吧?能够调动上千块的这个GPU,做到一个 90% 以上的加速,做到一个有效并行,并且我们的系统有什么好的一个稳定性,也就是我们可以做到七天以上不断点,就我说七天以上不断点,实际上是我们觉得非常值得骄傲的这样一个技术架构成绩,对吧?因为即使像 openAI,在他们去训模型的时候,他们的这个断点率,他们的断点率也是很高,两三天可能会断一次点,这在很多的这个他们公布的这个技术指标上是有提及的。那当然我相信现在这个就是很多的这个系统能力也已经提升了。那我们的系统呢?应该是在业界,就是说通俗来讲就是非常好用的一套系统,专门用于做大模型的产出训练。
那我们在 2019 年就训练出来了 10 亿参数量的视觉模型,我刚才也讲过,其实 10 亿参数量训练模视觉模型的训练,因为视觉数据的体积比较大相较于语言数据体积表达以读取视觉数据做训练,它对于算力的消耗,训练一个十亿参数量的视觉模型就等效于训练一个百亿参数量的一个语言模型。所以我们到了 2020 年继续扩大,到了 2021 年我们就可以到了百亿参数量的这个视觉模型,就等效是千亿参数量语言模型的这样一个训练能力了,已经实现了。然后同时我们这个。
就是说在招股的时候就已经 claim 了,我们在全球训出了全球参数上最大的视觉模型 32亿参数,并且展现非常强的通用能力,就是这个它可以识别弯路,就是它不只是聚焦在某一个特定的任务上做识别,而是它可以通用性强的去识别各种各样的东西,并且我们在 2021 年也启动了语言模型的这样一个训练的任务。团队就在 2012 年逐渐地做自然语言,并且也获得过一些这个竞赛的这个冠军。然后到了接近今年的时间点,我们这个很快去调动我们的这个他的资源,以及我们历史上积累的这个数据,以及一些合作方这样一些资源。
然后我们迅速就做了一个 1800 亿参数量的这样一个这个语言对话的一个模型。并且在过程之中我们也延伸出来了一个多模态的模型,并且先开源了一个多模态模型三室以参数量不大,但是它的效果非常好,他的视觉能力这个 30 以上的书生 2. 5 模型是我刚刚说的, image net 排第一,Microsoft,Coco 排第一。
然后 Google 的 【【微信】】,自动驾驶的这样一个视觉的challenge,我们也是排第一。那语言模型的话,就是因为它参数量并不大,所以它有,但是并不强。它我们目标是在这个今年接近年底的时候,会推一个性能非常好的这个语言,就多模态模型,迁移参数规模的一个多模态模型。大家知道有 GP4 已经是一个多模态模型,它不仅用这个语言的,它有比较不错的一个视觉能力,加入了这个照片数据作为 token 来去做训练。就为什么照片数据可以作为 token 呢?你大家可以想一想,一张照片你其实可以用文字来去描述它,比如说我们在这里如果拍一张照片的话,我用 1000 个文, 1000 个字其实就可以把这个照片里面几乎所有的细节描述出来,能够实现一个比较好的还原度,所以一同顶千言。其实文字语言是人类的一个发明,人类的进化过程之中最早的时候是没有文字的,我们是考发明的这样一个,就是这个工具来去描述来去描绘它的东西,我感受的东西。
所以人类或者说整个的这个物,动物其实都是视觉动物百分七十的信息,靠,已经过去了,那视觉信息是最原始的。这个信息当然是个非结构化的一个信息语言,实际上是个结构化的信息。
它实际上是总结了一些人类在进化过程之中感受的一些比较高频次的这样一些接触的物体,和获得的这样一些感受高频率的就会变成一些词,比如说太阳,我们今天见到太阳它就变成了一个词。所以语言实际上是对于我们看到的这个非结构化世界的一个抽象表达,对于语言跟视觉实际上是非常贯通的。就在通,在做这个通用人工智能的时候。
那么我们的目标的话就是说既然这层窗户纸已经捅破了,对吧?实现通用人工智能
商机来了!OpenAI“悬赏”找漏洞!奖金最高可达2万美元
商机来了看你能不能抓住的句子,商机来了是什么意思,商机来了平台,商机来了,挡也挡不住【CNMO新闻】ChatGPT作为近期来十分火爆的聊天机器人程序,在全球嫌弃了一阵人工智能热潮。而该行业的发展进度也受到了人们的高度关注。
OpenAI
近日,据CNMO了解,ChatGPT所属公司OpenAI周二表示,将向报告其人工智能系统漏洞的用户提供最高达2万美元的奖金。
消息显示,OpenAI周二在一篇博客文章中公开写道,公司与漏洞奖励平台Bugcrowd合作推出了一项漏洞奖励计划。人们可以通过该计划报告他们在使用其人工智能产品时发现的弱点、漏洞或安全问题。
据了解,这个奖金的规模将取决于漏洞的严重性,起步奖励200美元;最高2万美元,要拿这个奖项需要漏洞寻找者有“不同寻常的发现”。
相关博文
OpenAI表示,推出这一“悬赏”计划的部分原因是,它认为“透明度和协作”是发现其技术漏洞的关键。
OpenAI安全主管Matthew Knight在博文中写道:“这一举措是我们致力于开发安全先进的人工智能的重要组成部分。当我们创造安全、可靠和值得信赖的技术和服务时,我们希望得到你的帮助。”
近期,随着人工智能展现出越来越多的用途,其安全性问题逐渐成为人们的关注焦点,与此同时,该领域的“越狱潮”也开始了。例如,华盛顿大学(Uni【【微信】】)22岁的计算机科学系学生Alex Albert表示,他已经创造了“越狱版”措辞复杂的人工智能提示。
据悉,这是绕过人工智能程序一系列内置限制的一种方式,这些限制可以阻止聊天机器人出现有害举动,例如教唆犯罪或支持仇恨言论。但这种“越狱版”AI聊天机器人却能够摆脱这些“枷锁”。
因此,OpenAI发布这一计划并不出人意料。该公司总裁兼联合创始人Greg Brockman显然早就注意到了这点。他最近在Twitter上转发了Albert的一篇与越狱有关的帖子,并写道,OpenAI正在“考虑启动赏金计划”来发现漏洞。