庆云古诗词

庆云古诗词

揭秘chatgpt chatgpt到底有多火

淘文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

揭秘北京冬奥村的黑科技,揭秘中国冬奥首金,揭秘亚速钢铁厂隧道,揭秘亚速钢铁厂背后俄乌博弈

机器之心报道

作者:泽南

「通用人工智能是未来十到二十年国际科技竞争的战略制高点,其影响力相当于信息技术领域的『原子弹』。」3 月 4 日,在全国政协会议上,北京通用人工智能研究院院长朱松纯在一份提案中建议,要将发展通用人工智能提升到当代「两弹一星」的高度,抢占全球科技与产业发展制高点。

过去很长一段时间里,通用人工智能对于大多数 AI 学者来说是个遥不可及的目标,最近 【【微信】】 的出现却让人感觉:通用人工智能似乎已近在眼前。

【【微信】】 可以胜任各种任务,如搜索问答、文本生成甚至代码生成等,完全超越了人们印象中的 AI 智能助手。在使用者看来,它不仅能分辨出提问者的真实诉求,还拥有出乎预料的博识程度。

但在 【【微信】】 引发的全球技术竞赛中,我们剩下的时间可能不多了:上周三,【【微信】】 开放了 【【微信】】 API,开发者现在可以通过程序接口将 【【微信】】 和 Whisper 模型的能力集成到自身应用中。过不了多久,我们就能在各种常用 App 上见到「史上最强 AI」的强大能力了。

【【微信】】 的突破改变了人们对于 AI 的观感,而且技术还在不断进步。【【微信】】 首席执行官 Sam Altman 提出了新的「摩尔定律」:宇宙中的智能每 18 个月翻一倍。

可见现在业界对于 AI 技术发展速度多有信心。

眼见 【【微信】】 和微软的一路领先,国内外科技公司陆续宣布了构建 【【微信】】 类模型的计划,人工智能生成内容(AIGC)领域也进入了一轮爆发式的增长。

目前,国内科技公司正在加速追赶,一批具有商用潜质的类 【【微信】】 技术正逐渐浮出水面。

处于前排的追赶者

【【微信】】 是一个量变引起质变的过程:自 2017 年谷歌提出 transformer 架构以来,人们找到了通过充分利用算力实现 AI 性能提升的方法。2018 年起,【【微信】】 先后迭代推出了 GPT-1、GPT-2、GPT-3 和 InstructGPT,而 【【微信】】 是基于最新版本 InstructGPT(GPT-3.5)的改进。

图源:https://lifearchitect.ai/chatgpt/

在 GPT 系列的发展过程中,「炼大模型」逐渐成为了人们提升 AI 性能的重要方式。短短几年,AI 模型的参数量已经从最初的数亿扩张到千亿,甚至万亿规模。

由于 AI 大模型的复杂程度,要想复制 【【微信】】 的成功,意味着技术团队必须要有足够的技术积淀,能动用大量数据和基础设施。在追赶的竞赛中,国内可能很难出现像 【【微信】】 这样背靠巨头,「拥有无限资金」的创业公司。重任落到了大厂肩上。

从参数规模来看,国内科技公司的实验室里已经诞生过能够比肩最新版 GPT 体量的语言大模型。根据目前的消息,百度、阿里、腾讯等科技大厂,也已经纷纷官宣进入 【【微信】】 风口。

百度是最早针对 【【微信】】 做出明确表态的公司之一,在人工智能技术四层架构中的全栈布局是其应战的底气。2021 年底,百度曾共同发布了全球首个知识增强千亿大模型「鹏城 - 百度?文心」,模型参数达 2600 亿,是当时全球最大中文单体模型,在 60 多项任务上取得了最好效果。

在微软与谷歌争夺 【【微信】】 搜索首发的同时,百度也官宣了将在 3 月 16 日推出类 【【微信】】 产品「文心一言」。

阿里巴巴则通过技术优势实现了参数规模的量级提升。2021 年 6 月,阿里的多模态大模型 M6 参数规模已经突破 10 万亿,规模远超谷歌、微软,成为全球最大的 AI 预训练模型。

阿里旗下的达摩院在大模型等 【【微信】】 所需底层技术上拥有强大技术能力。此前有消息透露,阿里版 【【微信】】 正在研发中,将和钉钉深度结合。

在提升参数量,并通过架构创新提高计算效率之外,人们也在探索 NLP 大模型的多任务统一能力。2021 年以来,国内 AI 科技公司纷纷转向大模型 + 行业 knowhow,致力于在已有大模型基础上搭建配套工具和平台,降低大模型产业化门槛。

腾讯在大模型领域上一直较为低调,在去年 4 月才首次对外披露了混元 AI 大模型的研发进展。混元完整覆盖 NLP(自然语言处理)、CV(计算机视觉)、多模态等基础模型和众多行业 / 领域模型。在去年 12 月,腾讯混元推出了国内首个低成本、可落地的 NLP 万亿大模型,并再次登顶自然语言理解任务榜单 CLUE。

今年 2 月底,腾讯针对类 【【微信】】 对话式产品已成立「混元助手(HunyuanAide)」项目组,将联合腾讯内部多方团队构建大参数语言模型,目标是「通过性能稳定的强化学习算法训练,完善腾讯智能助手工具,打造腾讯智能大助手,并能成为国内的业界标杆」。

在这些大厂之外,还有一个科技领域的重量级玩家总是受人期待,却仍未见出手。对于「华为在类似 【【微信】】 方向上的计划」,有计算产品线相关负责人仅表示,华为 2020 年开始在大模型开始有布局,2021 年基于N腾 AI 与鹏城实验室联合发布了鹏程?盘古大模型,是业界首个千亿级生成和理解中文 NLP 大模型。

盘古模型在预训练阶段学习了 40TB 中文文本数据,并通过行业数据的样本调优提升了模型在场景中的应用性能,在 16 个下游任务中性能指标优于业界 SOTA 模型。在应用方向上,盘古支持丰富的应用场景,在知识问答、知识检索、知识推理、阅读理解等文本生成领域表现突出。

从技术实践、人才合作到落地应用,从国内一众大厂的表态中我们不难看出,【【微信】】 的竞争中,国内在很多领域上拥有相应的实力。

但这并不是全部,造大模型还有算力这个绕不过去的槛。

跨过算力门槛

人工智能先驱 Richard Sutton 在 2019 年曾发表过一篇著名的文章《苦涩的教训》(The Bitter Lesson),其中一句话说道:「70 年的人工智能研究史告诉我们,利用计算能力的一般方法最终是最有效的方法。」

这是一个颇具争议的观点,但他的预见在 2020 年的 GPT-3 上获得了验证,并随着去年 11 月出世的 【【微信】】 再次引发了广泛讨论。在过去几年中,大量研究者和机构在大模型这个方向上进行探索,并收获了成效,但随着模型体量的急剧膨胀,人们已开始面临大模型「算不起」的问题。

根据 【【微信】】 自己的测算,自 2012 年起,全球头部 AI 模型训练算力需求每 3 到 4 个月翻一番,每年先进的模型训练所需算力增长幅度高达 10 倍。

大语言模型的规模和能力在过去四年中呈指数级增长。

图片来源:【【网址】】/blog/large-language-models

到了 【【微信】】 这里,外界普遍估计其参数规模约在 1750 亿左右,它经由微软专门建设的 AI 计算系统训练,总算力消耗约为 3640 PF-days。而在推理阶段,以今年 1 月份独立访客平均数 1300 万计算,【【微信】】 对应的芯片需求为 3 万多块英伟达 A100 GPU,初始投入成本约为 8 亿美元,每天光是花掉的电费就要 5 万美元。

此前在 2022 年 11 月,英伟达在官网的公告中表示,数万颗 A100/H100 高性能芯片已被部署在微软 Azure 上,其成为了第一个使用英伟达高端 GPU 构建的大规模 AI 计算集群。

大模型增加了科技公司对专用 GPU 的需求。财报显示,英伟达 2023 财年 AI(数据中心)业务全年收入达 150.1 亿美元,创下历史新高,同比增长了 41%,其中第四季度 AI 业务收入 36.2 亿美元,同比增速为 11%。英伟达 CEO 黄仁勋表示,【【微信】】 是人工智能领域的 iPhone 时刻,也是计算领域有史以来最伟大的技术之一。

这种投入远超以往 AI 领域的研究:强如微软,在帮 【【微信】】 打造 【【微信】】 时都因为算力不足而面临内部压力,还被迫暂停了一些其他项目。

对于想构建 【【微信】】 级别产品的国内公司来说,目前高性能 GPU 芯片面临短缺问题,硬件、运营成本,快速商业化是肉眼可见的挑战,参与者需要具备强大的硬件基础,丰富的工程经验,以及敢于投入的意志。

在用于大模型的 AI 算力上,国内几家科技公司也有相应的准备。

去年 5 月,百度智能云宣布落地了新一代高性能 AI 计算集群,提供 【【微信】】 级算力支持。据报道,该集群基于 【【微信】】 和 InfiniBand 网络构建,研究人员可基于全新发布的实例组建上千节点规模的超高性能计算集群,成倍缩短超大 AI 模型的训练时间。经过百度 NLP 研究团队的验证,在该集群上提交千亿模型训练作业时,同等规模下整体训练效率是普通 GPU 集群的 3.87 倍。

在国内科技公司行列中,说到算力,华为有着自己的先天优势。从盘古大模型的新闻中,我们经常会看到鹏城云脑、N腾 AI 芯片的字样。

鹏城云脑 II 自 2021 年起正式运行,是一套专为 AI 任务设计的超算系统,曾在国际超算大会上多次刷新世界纪录。它以华为 Atlas AI 集群为底座,通过多样化的异构计算平台、多源算法平台和多态智能应用,支撑了多项 AI 重大应用的模型训练及推理。

更重要的是,鹏城云脑 II 可以提供 1E OPS 智能算力,即不低于每秒 100 亿亿次操作的 AI 计算能力。在盘古大模型的训练上,华为就动用了超过 2000 块N腾 910,以 640P FLOPS 的 FP16 算力训练了两个月。

而鹏城云脑只是体现华为 AI 整体能力的案例之一。宏观的看,在 2022 年的国内云计算市场份额调研中,华为云已位居第二,增速达 67%,是当前国内市场中云增速最快的主流云服务商之一。

为了让 AI 技术更高效地落地,华为还实现了从底层硬件到应用软件的整体打通,通过底层软件、训练框架、ModelArts 平台的协同优化,充分释放了芯片算力,实现了端到端的性能优化。

据介绍,借助 ModelArts 平台的高效处理海量数据能力,在训练盘古大模型时,华为仅用 7 天就完成了 40TB 文本数据的处理工作。而当前的盘古系列超大规模预训练模型,已经包括 NLP 大模型、CV 大模型、多模态大模型和科学计算大模型等多个种类。

新兴的 AI 技术也面临着技术落地的挑战。在很多行业应用中,人们需要针对业务场景开发一系列定制化模型,各自完成数据清洗、数据增强、模型适配等工作,这些模型面临着难以复用的挑战。预训练大模型的逻辑是提前将知识、数据、训练成果沉淀到同一个模型中,再由不同应用的开发者在此基础上进行二次开发和微调,就像一个基础通用的技术底座,可以大幅提升效率。

这让 AI 具备更多的普惠属性,华为基于盘古提出了以大模型为核心的普适 AI 建模工作流,能让一个模型覆盖多个场景,减少专家的干预和人为调优的消耗,大幅提升技术落地效率,也降低了技术门槛。这或许是搜索引擎之外,能让大模型更广泛应用的正确方向。

不难看出,AI 领域发展到了 【【微信】】 时代,早已不再是比某项领先的技术,而是在比整套技术体系,真正具备全栈实力的公司会很快脱颖而出。

那么,【【微信】】 军备竞赛,华为会出手吗?根据最近的消息,在华为内部,有项目已在研发过程中了。


谈谈ChatGPT未来发展思路 关于chatgpt的深度解读

谈谈Chat gpt内容,谈谈check(切克步)和lock(锁步)的区别,谈谈成长中对你影响最大的人,谈谈美食

编辑:阿冒

设计:沐由

2022年12月,AI创业公司OpenAI推出了聊天机器人ChatGPT。作为生成式AI在文本领域的实际应用之一,ChatGPT的问世距今不过百天而已,却已经火爆了全球。

君不见,大学生们用它撰写论文,商业人士用它制定提案,诗人们用它创作诗歌,程序员们用它编写代码……网友们纷纷感叹:“只有你想不到的,没有ChatGPT办不成的。”

口说无凭,让真实的数据来说话――上线不到两个月,ChatGPT的全球活跃用户就突破了一亿大关。如此惊人的增长速度,真的是震碎了一地眼镜。

一时间,大量的企业投入到生成式 AI领域,大有“任彼桑田变沧海,一丸丹药定千春”的架势。有人问,创意创作已经无法阻拦人工智能,以后岂不是万千行业都要被彻底颠覆与重构?

愿望很美好,现实很骨感。很可惜,归根到底还是那句话:没有强大和经济的算力,一切无从谈起。

正如亚马逊云科技首席执行官亚Adam Selipsky所言:“生成式AI有可能会改变整个产业,但是它所需的成本和专业知识,使得除了少数几家公司之外,几乎所有公司都无法使用这项技术。”

始于毫末的伟大突破

我们的世界,正处于算力爆发的时代。

以ChatGPT等AI大模型的发展为例,其算力需求大致是每两个月就会增加一倍。这样的增长要求,即便是实现了翻倍的摩尔定律也难以企及,更不消说巨大的成本需求。

我们看到,像谷歌这样的巨头也正在做类似的技术。不过假如将ChatGPT部署到谷歌搜索中,即便是只考虑服务器和网络的前期开销,其成本也将超过1000亿美元。

此时,我们还没有考虑后期的运营及其他成本。据测算,ChatGPT的单次回复至少要花费1美分。在未成为“爆款”前,满足当时100多万用户的需求,公司每天至少需要10 万美元运行成本。然而当用户数高达数亿之后,每年的成本支出就将超过50亿美元。

显然,如此高昂的成本对任何一家企业来说,基本上都是无法接受的,即便是家里有矿也经不起这样折腾。在这种情况下,想要成百上千倍地提升算力,必然需要全新的算力平台。

2月28日,市场调研机构Counterpoint公布了最新的服务器CPU调查报告。该报告的一大亮点,就是在传统的两家芯片厂商之外,亚马逊云科技的排名来到了第三,3.16%的市场份额较2021年提升了近一倍。

虽然看起来与领先者还有比较大的差距,但是科技领域里所有的伟大突破都是起始于毫末。“星星之火,可以燎原”的例证,实际上在计算领域也是被一再验证过的。

需要指出的是,从第一代Amazon Graviton开始,亚马逊云科技就不对外销售,而是将其完全用于对外提供云服务。这也就是说,通过Graviton,在传统的算力之外,亚马逊云科技为广大客户带来了全新且更为普惠的算力。

在去年底举行的亚马逊云科技2022 re:Invent全球大会上,亚马逊云科技自研的基于Arm架构CPU芯片Graviton发布了增强的第三代版本Gra【【微信】】,并将之用于更多的计算实例。

Graviton不仅用于大名鼎鼎的EC2(Amazon Elastic Compute Cloud),当前亚马逊云科技更多的托管服务,譬如最新的容器等都是基于Graviton打造。事实上,很多客户在使用这些服务的时候,已经明显感受到Graviton带来的性价比提升。

人工智能的落地关键

毫无疑问,机器学习正在深刻影响,并且推动着关乎我们工作和生活方方面面的突破。从传统企业到创新企业,每一家公司都在使用机器学习技术解决生存与发展的相关命题。?

“不管是智能语音、自动驾驶,抑或是最近火热的AI绘画,所有的AI发展都使得机器学习模型变得越来越复杂。”在日前的一场交流中,亚马逊云科技的技术专家这样表示。

诚然如此。过去几年里,模型的规模不断扩充,参数更是从数亿增加到上千亿个之多,训练和部署这些日益复杂的机器学习模型的高成本,正在将很多企业,尤其是小型创新公司拒之门外。

据介绍,从2017年起,亚马逊云科技的工程师团队就注意到这样的趋势。在他们看来,如果不去尽快满足客户的需求,那么机器学习带来的高昂成本,很快就会成为客户不能承受之重。

为此,亚马逊云科技在2019年设计和推出了Amazon 【【微信】】,来为机器学习应用程序提供高性能,让广大客户在尽享AI红利的同时,同样能够负担得起。

在芯片的设计和构建方面,亚马逊云科技拥有业界顶尖的团队,在十多年的发展中已经开发出众多优秀的产品,譬如我们前文提到的Graviton系列、【【微信】】,以及Amazon Nitro系统等。

作为一种专门用于机器学习推理及驱动的服务器芯片,【【微信】】与同类基于 GPU 的服务器相比,提供了更好的性价比、更高的吞吐量和更低的延迟。

同样是在2022 re:Invent全球大会上,亚马逊云科技推出了【【微信】】2芯片和Inf2实例。与前代相比,新的Inf2实例的每瓦性能提升45%,吞吐量提升4倍,延时只有1/10,能够支持多达1750亿个参数的超大型复杂深度学习模型。GPT类型的模型?尽管放马过来吧!

虽然机器学习的芯片性能进步很大,但是仍然难以跟上训练复杂度的提升程度,可行的解决方案就是利用分布式多处理器,通过网络进行协同计算、协同训练。

为此,亚马逊云科技还专门构建了用于机器学习的Amazon Trainum芯片,在搭载了16颗Trainum、512GB加速器内存和800GBps的网络带宽之后,Trn1实例充分诠释了它的强大:

与基于GPU的类似实例相比,训练成本降低了50%。以一个具备万亿级参数的大模型进行两周训练为例,GPU服务器P3dn需要600个实例,最新一代GPU实例P4d需要128个实例,但Trn1只需要用96个实例,经济性由此也可见一斑。

在去年底的大会上,亚马逊云科技还推出了基于Trn1的网络优化型实例Trn1n,将网络带宽从800GBps擢升到1600GBps,能够将超过1万个Trainium芯片构建在一个超大规模集群里……

通过以亲民的成本提供强大的性能,亚马逊云科技为客户的创新开辟出全新的途径。

数字经济比拼的是算力

人工智能的火热出圈,并不只是由于最近的ChatGPT点燃。事实上,去年游戏设计师杰森・艾伦通过Midjourney平台创作的画作赢得艺术类比赛一等奖,更是我们记忆里活色生香的例证之一。

在这幅名为《太空歌剧院》的作品中,阳光透过巨大的圆窗照进整个大厅,在一座巴洛克风格的宫殿内,几位女性身着华贵的古典服饰眺望太空。

然而,《太空歌剧院》却是人工智能的作品。尽管业界不乏“艺术创造性工作不应受到机器影响”这样的声音,但是丝毫也不影响一波AIGC热潮的到来。

AIGC(AI Generated Content,人工智能自动生成内容),是继专业生产内容(PGC, Professional-generated Content)、用户生产内容(UGC, User-generated Content)之后的新型内容创作方式。

在创意、表现力、迭代、传播、个性化等方面,AIGC能够充分发挥技术优势,打造出新的数字内容生成与交互形态,现有的AI 绘画、AI 写作,以及前面所说的ChatGPT等,都属于AIGC的具体表现形式。

当然,AIGC并不是只用于聊天、绘画,必然会在大量的探索和尝试之后,转向更有价值的行业应用领域,从而对经济和社会发展产生巨大的影响力。

某种程度上,AIGC 也不只是技术创新或是应用创新,而是一次全新的商业模式创新。在“木头姐”Cathie Wood所率团队撰写的2023年度报告中,列举了12个前景广阔的投资主题,AIGC就名列其中。

由于AIGC的拉动,企业对高算力的需求出现了新一轮的指数级增长――所有人都明白,强大和经济的算力支撑,已经成为AIGC深入发展的必要前提,能够为新一轮的商业创新提供良机。

“临渊羡鱼,不如退而结网。”其实,面对AIGC带来的巨大商机,企业完全不必去自己“结网”。围绕各种需求,亚马逊云科技早已织就了一张张动力强劲的算力网,让数字时代的红利能够普惠到万千企业。

就这样,通过在芯片、服务等方面的不断创新,亚马逊云科技帮助广大客户更深入了解和探索 AIGC在各个领域的实践,实现AIGC的关键趋势洞察和快速落地。

随着我国数字经济的持续快速发展,类似AIGC这样的新业态、新模式和新应用仍在快速涌现,它们也无一例外地对算力提出更高的要求。通过提供强大、经济且绿色的通用与智能算力,亚马逊云科技致力于更多客户的商业成功,全力支持和推动中国数字经济的高质量发展。

点击“阅读原文”,下载《下一代云基础架构白皮书》