庆云古诗词

庆云古诗词

ChatGPT需要的芯片 chatgpt用了英伟达多少芯片

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

芯片latch up,芯片 pitch,硬件tcp芯片,chiplet用于哪些芯片

2022年11月30日一定是一个载入人类AI发展史的一天,这一天第一个版本的Chat GPT(全称:Chat Generati【【微信】】rme)发布了。毫不夸张地说,chatGPT的发布和用户体验,将整个AI话题推上了一个前作未有的高度(包括最早的深蓝,AlphaGo,Boston Dynamics 等产品)。这是利用大语言模型(LLM:Large Language Model)完成人类和计算机的类人的模糊交流。包括比尔-盖茨,老黄等众多科技大佬为之点赞,整个科技界都为之狂欢,甚至都逼的Google大佬亲自上阵调教自家Bert来应对ChatGPT的挑战

从ChatGPT发布到第一个一亿用户,只用了短短两个月,这个绝对是前无古人,后鲜有来者的数据。 互联网指数级的增长在这里得到了充分的体现,只要产品过影,火星人马丁叔叔都可能会成为你的忠粉 就在本月,连续三个有关AI的产品发布依次降临:

  • 2023年3月15日 OpenAI 发布ChatGPT4
  • 2023年3月16日 微软发布基于ChatGPT4引擎的Office 365 Copilot
  • 2023年3月16日? 百度才发布“文心一言” 前两个发布应该都是安排好的,微软是OpenAI的大股东,在【【淘密令】】.5发布的时候就有过传言,微软正在全面整合ChatGPT到微软的产品中,第一个整合ChatGPT的微软产品就是新必应(New Bing,2023年2月7号发布),在过去的一个来月,Google的搜索量应声下降了2%!所以整合ChatGPT4的office Copilot就显得水到渠成了。有兴趣的小伙伴可以看一下Office 365 Copilot的发布会,相当震撼。office的体验简直丝滑到没有摩擦力了,半分钟word,10秒PPT,估计以后小朋友都可以直接玩转office了。此外,OpenAI的所有硬件都是运行在微软的Azure云服务器矩阵上的,OpenAI只生成创新,并不买服务器。但是大家要知道,最早的OpenAI可是选择Google的云服务器的。以上种种,可以看到微软这个48岁的老江湖,依然走在真个科技的最前沿,依然意气风发。 第三个发布的百度的文心一言,这里确实要点赞一下!对于世界AI的崛起,中国绝对不能默不作声。虽然当前的文心一言还有很多不足的地方(有up主做过一些测试,有兴趣的小伙伴可以关注一下),但是这不是主要问题,先站出来迎战,才有可能形成挑战!

ChatGPT4 相较于前版本GPT3.5有了更为强大的提升:

提问:请问图片中有什么不寻常的地方 回答:这个图片有点奇怪,一个男的固定在一辆正在行驶中的出租车的车顶,并且在一个熨烫板上熨衣服。

比如,在统一律师考试( Uniform Bar Exam )中,GPT-4 可以超过 90% 的人类考生,而老版本只能超过 10% 的人类考生,相当于一个是考第一名,一个是考倒数第一名。 在 GRE 数学考试中 GPT-4 可以考 163 分( 170 分满 )超过 80% 的考生,老版本只能超过 25% 的考生。 在 GRE 语文( 阅读与填空 )考试中 GPT-4 可以考 169 分( 170 分满 )超过 99% 的考生,而老版本只能超过 63% 的考生。 单从这两门的分数来看,GPT-4 到了可以申请哈佛、麻省理工、斯坦福大学的水平。

汽车已经发动起来了,速度提升只是时间问题,下图展示了ChatGPT4和【【淘密令】】训练参数数量的区别

这么厉害的东东,他是怎么工作的呢?这里一起来看看它的工作原理 首先ChatGPT是一个单字生成迭代器。利用每一个输入的文字(注意是字不是词也不是句子),产生下一个字,中间产生的的过程也会有迭代。可以看到GPT的迭代是单向的,Google都Bert是双向的,这个其实会比较复杂,也会有算力的代价。笔者理解,人类的思维应该是更偏向于ChatGPT的单向迭代,当然如果Bert可以成功,那就会说出超语言(super-word)。 如果需要模型生成单字,就要训练他,就像对小朋友训练类似,不断地训练,小朋友可以表述的字和句子就会越来越丰富。这个还是沿用了传统的教育,引导,奖惩的机制。计算机的算法模型也是可以契合这种训练方式的,这个在上世纪80年代的AI训练中就有提及,这一点一直都没有发生变化,模型训练的简单步骤

  • 第一阶段:训练监督策略模型:对模型提供问题和正确答案的模板,供AI学习
  • 第二阶段:训练奖励模型:让AI尝试回答人类问题,人类对问题的答案进行打分,给出AI指引,这一过程类似于教练或老师辅导。引导AI在未来回答得分较高的答案
  • 第三阶段:使用离线模式强化训练:利用PPO(Proximal Policy Optimization)生成回答,并用第二阶段奖励模型进行打分,再次对AI进行打分迭代,从而强化PPO的模型参数和精准度 不断重复第二和第三阶段,通过迭代,这样会训练出更高质量的ChatGPT模型。

ChatGPT 可以实现和人类对话的前提是有一个及其庞大的硬件运算体系,据估算,ChatGPT的总算力消耗约为3640PF-days (即假如每秒计算一千万亿次,需要计算3640天)。微软使用了一万片NV的A100 超高性能GPU芯片,单颗显卡售价唱过5万人民币,如果是基于A100的小型服务器,售价更是高达100万人民币!微软单在Azure的・A100的运算架构,就给OpenAI投入了上亿美元的云端设备。微软已经在评估NV最新的H100,算力提升明显,NV给出的评估是相较于A100,H100的算力会提高10倍,相信不久的未来ChatGPT的输出就出自H100的运算结果。当然,H100的售价更是超过了惊人的20万人民币(3+万US$,图示为日元报价).

据估算,OpenAI需要的初始硬件成本高达:10亿美金,约合65亿人民币

GPT-3训练成本约为140万美元;对于一些更大的LLM模型,训练成本约达到1120万美元。单日应对13M访客的电费就超过4.7万美金,基于数据的增长,每三到四个月就需要运算一次。一年下来,投入在训练和日常运营的成本就高达:2260万美金, 折合人民币约1.5亿。这个对于一般公司确实是一个不小的开支

架构师技术联盟 ChatGPT发展历程、原理、技术架构详解和产业未来 国盛计算机 ChatGPT需要多少算力 Hassan Mujtaba *** N【【微信】】elerator With Hopper GPU Is Priced Over $30,000 【【微信】】*** OpenAI *** GPT-4 Technical Report ***



登录chatgpt必须用苹果手机吗 手机上的chatgpt界面变了

chatroulette需要登录,chat怎么登陆

从默默无闻到颠覆整个互联网需要多久?OpenAI告诉你,四个月。

自从去年11月ChatGPT正式发布以来,OpenAI团队更新AI产品和技术的速度快到已经突破了人们的想象。就在上周刚刚宣布推出能力更强大的GPT-4之后,不留给竞争对手任何喘息的时间,昨天,联网版的ChatGPT来了。

众所周知,无论是ChatGPT还是GPT-4,此前最大的一个缺陷就是它们的数据只停留在了2021年9月之前。而联网之后,这一层最后的封印将被解除,人工智能的超能力将在互联网的加持下被彻底释放。


【资料图】

不过,如果你仅仅把重点放在了“联网”上,那可能就低估了OpenAI此次更新的意义。除了联网之外,OpenAI这次更重要的其实是发布了ChatGPT Plugins(插件)功能――它将允许 ChatGPT 和其他第三方应用程序的联通,从而彻底改写人们过去和互联网交互的固有模式。

如果说苹果过去这些年的成功是因为把开发者和用户都锁定在了iOS生态系统中,谷歌的成功是因为把用户都留在了搜索引擎和浏览器里,那么,OpenAI现在正在做的事情,就是要打破APP生态,再去创造一个由人工智能驱动的新互联网入口。

ChatGPT:从聊天机器人向超级生态进化

OpenAI表示,目前,ChatGPT的首批插件已经上线,包括旅行软件Expedia、大数据公司FiscalNote、购物软件【【淘密令】】、支付公司Klarna、在线订餐平台OpenTable、电商平台Shopify、工作软件Slack等十余家合作方,类型涵盖人们日常工作和生活的方方面面。

ChatGPT的部分首批插件

那么,拥有插件功能的ChatGPT未来会演化成什么形态?我们或许能从OpenAI这次给出示例中窥见一斑。

在OpenAI博文的开头,它列举了这样一个例子――“这周末,身在旧金山的你想要吃素食。周六,你想找一家口碑好的素食餐厅。周天,你想要找一个好吃又营养均衡、热量低的食谱,然后自己采购一些食材来做。”

在不使用ChatGPT plugins的情况下,完成这整个操作需要多少个步骤呢?你首先需要打开yelp之类的点评网站搜索合适的餐厅,接着,用谷歌或其他食谱软件来搜索食谱,然后再用热量计算器软件来计算选中食谱的卡路里含量,最后打开【【淘密令】】这样的购物软件来下单订购食材。

整个流程至少要跳转好几个App、并且配合搜索引擎来获取信息,需要花费不少时间。但有了ChatGPT plugins之后,一切就变得完全不同了。

你唯一需要做的,只是把你这样一段需求粘贴在文本对话框里,敲击回车,剩下的事情,人工智能就将在一分钟以内为你全部搜索并整理呈现出来。

它不仅能为你找到餐厅,还会给你贴上OpenTable的该餐厅的链接;不仅为你找到食谱,还能快速帮你把食谱的卡路里计算出来;不仅为你列举出你需要的食材,还能把这些食材的【【淘密令】】链接都提供给你,让你能直接点击一站式下单。

看到这里,你还觉得这只是一个插件功能吗?

虽然ChatGPT plugins目前还只是初级形态,但其真正的意义在于它把所有的App都“藏”到了自己身后。也就是说,未来人们不必再自己去下载和使用各种App和网站,互联网的统一入口变成了ChatGPT,每个人都将拥有一个专用的人工智能助手,帮我们连接一切互联网信息。

顺着这个思路再多往下想一步,那就是未来搜索引擎可能不存在了、原有的APP生态也不存在了,未来软件公司的运行模式都可能将随之发生改变。继谷歌之后,ChatGPT的镰刀或许很快也将悬到苹果头上。

不仅能颠覆信息搜素,还要“淘汰”工作

除了插件功能改变人们和互联网的交互模式之外,Open AI发布的联网(Browsing)和代码解释器(Code interpreter)两个新功能也将ChatGPT推向了另一个高度。而在再次大幅度提升打工人效率的同时,ChatGPT也对更多的职位发出了“淘汰”警报。

首先,联网后的ChatGPT的信息获取渠道将指数级扩大,也将能够更好满足用户对于信息的实时、个性化需求。一定程度上,联网后的ChatGPT可以被视为一款升级版的搜索引擎。

比如在Open AI给出的例子中,用户提问今年刚刚出炉的的奥斯卡得奖的结果,同时要求ChatGPT根据这个结果来写一首诗。

在很快处理完这个包含了标准化搜索和个性化需求的问题之后,首先ChatGPT像Bing一样返回了问题答案并提供了可以点击的在线文档、相关新闻报道的链接,供你去验证和拓展阅读,此外,它还立马结合生成结果写了一首诗,提到了《瞬息全宇宙》和获奖者们。

也就是说,现在ChatGPT能在现有的搜索引擎基础上能再帮你在多做一层――个性化处理你所搜索到的信息。

同时,结合各种专业类的插件,信息的时效性和可靠性也比一般单纯由大语言模型驱动的搜索引擎更有保障。

比如OpenAI举例,当你想搜索当前地球和木星之间的距离时,此时并不是由ChatGPT来直接把答案生成给你,而是通过安装的Wolfram插件来执行这个命令,从它们的数据库中利用人工智能来检索信息并给出答案。这时ChatGPT也会明确标明它是在使用Wolfram进行回答,信息准确性的第一责任方也就变成了Wolfram。

在具备实时、可拓展编辑的信息检索能力之后,ChatGPT将允许人们一站式的完成更多的日常的工作。

比如当你有一个出差计划时,只需要在输入目的地和行程,ChatGPT能调用机票预订平台帮你查到最新的航班信息,并帮助你自动下单。当你想要买卖股票时,它能够帮你查询到实时股价并按照你提的需求进行买卖的下单等。

如果说ChatGPT解除联网封印让人们的日常生活将效率加倍,那ChatGPT此次所上线的代码解释器应该会让很多打工人“恐惧”,因为它直接影响到很多人的饭碗。

代码解释器为ChatGPT提供了一个在沙盒、防火墙执行环境中工作的 Python 解释器,以及一些临时磁盘空间,能够直接用户支持上传文件和下载结果。什么意思呢?

就是说,ChatGPT现在不但能把你的问题直接转化为可执行代码,还能够直接运行这些代码来计算和验证结果。此外,你还可以通过直接上传文件来让ChatGPT帮你运行和测试,你再基于返回的结果做出进一步的指令。AI将具备自己撰写、分析、测试代码的能力。

执行逻辑计算的代码解释器插件

OpenAI 表示,代码解释器将对于解决数学问题、进行数据分析和可视化以及在格式之间转换文件特别有用。

在给出的数据可视化例子中,ChatGPT能够轻松的根据数据文件画出可视化图表,如果你对图表不满意,只需用自然语言描述你的需求,比如只截取某部分的数据,ChatGPT就能帮你在几秒之内的执行这个命令再生成新的图表。而过去,同样的工作量,数据工程师们往往要工作好几个小时。

执行数据可视化命令

可以预见的是,代码解释器功能的集成将进一步降低编程和数据分析的门槛,对初级软件工程师、测试工程师、数据分析师等职位造成冲击。

|为巨型平台做准备,OpenAI开始打造护城河

当四个月前ChatGPT横空出世的时候,很多人还只是在调侃它的“废话文学”,并没有意识到它的出现将很快给整个行业带来一场革命。

如今,在收获了大量用户和关注度之后,OpenAI显然已经走向了下一步――拥抱开发者和打造护城河。

或许你还记得16年前苹果宣布开放第三方应用入驻的那一刻,而OpenAI现在正在做同样的事情。同时,在人工智能的加持下,无论是用户还是开发者都在以一种前所未有的模式和速度进入到ChatGPT生态之中。

根据一位名为Mitchell Hashimoto的资深开发者表示,ChatGPT Plugins的插件开放流程极具颠覆性。用他的原话,整个开发界面是他从事计算机生涯见过最疯狂也最让人印象深刻的事。他表示,开发者只需要定义API,然后用自然语言描述清楚这个API是什么、有什么功能,然后ChatGPT就会自己弄清楚身份验证、链调用、数据处理等一系列的工作。整个过程非常简单智能。

图片来自Mitchell Hashimoto推特,版权属于原作者

虽然目前OpenAI还并没有明确开发者盈利模式,但大量的开发者已经迫不及待得涌入ChatGPT的生态中去进行尝试,接下来ChatGPT的插件生态预计会很快迎来第一波繁荣。

然而,生态在加速拓展的同时,OpenAI也肉眼可见得变得越来越不Open。

GPT人工智能模型过去的很长一段时间内始终保持着开源的状态,但自从GPT-3.5开始,OpenAI开始变得谨慎,只是公布了一些技术细节和实现路径,但不再进行开源。到了上周的GPT-4,一切就变得更加神秘,不仅继续不开源,关于GPT-4架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等方面的信息也全都避而不谈。

图片截自于technologyreview

此举一方面是针对模型滥用的担忧,当然,更多的也是对核心竞争力的保护。如今,人工智能的硝烟已经弥漫了整个科技战场,所有人都在盯着OpenAI想要挖去更多的信息或者分一杯羹。GPT成为了OpenAI的杀手锏和护城河,也必然会被保护得越来越严密。

人工智能时代的面纱正在被一点点揭开。ChatGPT未来是会被变成一个新的搜索引擎、一个开发平台还是一个操作系统,我们目前还不得而知。但可以肯定的是,它一定不会只是一个陪你聊聊天的AI机器人。

*参考资料:

注:封面图来自于OpenAI官方,版权属于原作者。如果不同意使用,请尽快联系我们,我们会立即删除。

本文来自微信公众号“硅星人”(ID:guixingren123),作者:Juny,编辑:【【微信】】,36氪经授权发布。