英伟达gpu2018 英伟达gpu发布意味着什么
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
编者按:1956年,人工智能(AI,Artificial Intelligence)的概念首次提出,迄今已逾六十载。60年来,AI历经了从爆发到寒冬、再到野蛮生长的历程,伴随着人机交互、机器学习等技术的提升,AI成为了技术时代的新趋势。
2022年,AI行业再度迎来新的节点,人工智能生成内容(AIGC,AI Generated Content)后来居上,以超出人们预期的速度成为科技革命历史上的重大事件。无论是“AI画师”DALL-E2,还是“万能陪聊”对话机器人ChatGPT,生成式AI正在迅速催生全新的科技革命系统、格局与生态。
时针转至2023年,由AIGC引发的热度不减反增,而全新的智能创作时代在带来深刻生产力变革的同时,也将进而改变人类的思想演进模式。就此,21世纪经济报道数字经济课题组策划了“逐浪AIGC”系列报道,多维解读AIGC带来的技术可能和商业图景。
21世纪经济报道记者骆轶琪 广州报道
“我们正处于AI的‘iPhone时刻’。”78分钟的GTC演讲过程中,NVIDIA(英伟达)创始人兼首席执行官黄仁勋提了三次这一观点。
正当一些行业人士感慨跑一次GPT4训练需要庞大的资金成本支持时,英伟达自己来炸场了。面向迄今历史上用户数量增长最快的应用ChatGPT,英伟达发布了包括硬件迭代和云服务一系列组合,核心目的之一,就是加速运算速度、极大降低成本。
(ChatGPT是迄今历史上用户数量增长最快的应用,图源:英伟达发布会现场展示)
黄仁勋表示,类似ChatGPT大型语言模型(LLM)的部署是一个重要的全新推理工作负载,为了支持这类模型推理,英伟达发布一款新GPU,是带有双GPU NVLink的【【微信】】。同时基于N【【微信】】架构的H100配有一个Transformer引擎,是为处理驱动ChatGPT的类似模型,相比用于GPT3处理的HGX A100来看,配备四对H100和双GPU NVLink的标准服务器速度最高可达10倍。“H100可以将大型语言模型的处理成本降低一个数量级。”他续称。
为什么在AI变革进程中GPU尤为重要?这是源于AI大模型在训练时,对基础设施的要求是大规模并行计算,这也是GPU相比于其他类型计算芯片如CPU(串行运算为主)等的显著优势。当然计算的同时也需相应配套高速数据存储、光模块、通信等一系列能力。
其中对英伟达的诉求最为旺盛。今年2月份发布最新业绩时,黄仁勋就曾表示:“AI正处于一个拐点,从初创企业到大型企业,我们看到生成式AI的多功能性和能力让全球企业感受到开发和部署AI战略的急迫性。”这也成为彼时业绩交流中的核心关键词。
在3月21日深夜的演讲中,他再次提到这一点,并且指出,“生成式AI是一种新型计算机,一种我们可以用人类语言进行编程的计算机,与PC、互联网、移动设备和云类似,每个人都可以命令计算机来解决问题,现在每个人都可以是程序员。”
(黄仁勋认为生成式AI是一种新型计算机,图源:英伟达发布现场)
在英伟达和一众合作伙伴的推动下,关于前两天还在火热探讨的“GPT会取代哪些职业”这个话题,似乎也并不那么让人困扰了。
算力账单
先看看这次炸场之前,用英伟达GPU产品部署一次GPT训练需要的实力。
CINNO Research半导体事业部总经理Elvis Hsu对21世纪经济报道记者分析,2023年是ChatGPT元年,构成人工智能的三大要素包括:数据、算法、算力,其中尤以芯片的算力是最重要一环。由于模型训练参数量的使用与算力成正相关,ChatGPT持续升级进程中,其参数使用量增长幅度不可谓不大,投入资金自然水涨船高。每一次模型训练所需的资金从数百万到千万美金不等,随着硬件和云计算服务的价格不断变化。
(GPT3论文概要,其参数使用量为1750亿,图源:Open AI官网公布)
“英伟达GPU A100每片约1万美金,除了投入的人力成本、网络宽带成本和数据储存之外,最重要的就负责算力的芯片成本支出,如何降低成本与功耗便成为未来发展AI芯片的重要课题。”他总结道。
之所以现阶段较难以准确预估训练背后的整体成本,是因为OpenAI在最新关于GPT4的论文中,明确提到出于竞争和安全等因素考虑,相关模型具体信息选择并不公开。由此业内目前对于GPT4背后的具体训练参数量并没有十分统一的测算结果,有认为是万亿级别,也有认为是百万亿级别。
(GPT4论文中并未公布训练量和模型架构等信息,图源:Open AI官网公布)
当然其中核心的成本考虑避不开GPU。IDC亚太区研究总监郭俊丽也对记者指出,算力是AI模型的能源,将最直接受益于人工智能的普及,也成为GPT4最重头的成本投入。同时,想要训练类似ChatGPT的大模型,除了芯片投入,还包括服务器、通信等基础设施。
考虑到不同时期英伟达GPU相关芯片产品的价格有所波动,背后所需的软件能力配置也有不同,造成其具体算力账本一般是一个大概的构想。
郭俊丽进一步指出,基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型,比如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM,采用同样的公式可得出,训练成本介于200万-1200万美元之间。
“以GPT-3.5为模型的ChatGPT模型,都要460万-500万美元。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。以此来推测,GPT4的运行成本将大幅高于GPT3.5。对于想要切入该赛道的企业来说,资金成本将会是一个门槛。”她得出结论。
TrendForce集邦咨询分析师曾伯楷综合对记者分析,从GhatGPT开发历程看,其在发展初期约采用1万颗N【【微信】】(以下简称“A100”),经扩充升级后,运算资源估计已等同2万颗A100 GPU。目前ChatGPT并未实时更新文本数据,所有信息只涵盖至2021年,GPT4也是如此,一旦ChatGPT开始更新数据、为用户提供更长篇幅的生成内容,且用户数持续成长至1.5亿户以上,则运算资源可能得再扩充1倍,届时或许要增加1.5-2万颗A100 GPU才能满足算力需求。
“在此基础上推估,大约到2025年,每一款类似ChatGPT的超大型AI聊天机器人算力需求,约等同2.5-4万颗A100 GPU;若以每张A100 GPU显卡价值2万美元估算,总体GPU建置成本将落在5-8亿美元。”他补充道,叠加考虑到GPT4相比前代升级为多模态(multimodal)模型,能分析文字输入、也能进行图片解读,估计超大型AI聊天机器人的整体运算资源可能须再扩张5%左右。
从这个角度看,若是从无到有打造、训练类似GPT4的超大型AI聊天机器人,并且能够向全球用户提供流畅的生成内容服务,其构建成本必然比ChatGPT 3.5高出一倍。“至于日后成本是否呈现倍数成长,仍取决于三方面:一是大型语言模型的发展趋势,二是全球AI聊天机器人应用的使用情况,三是硬件资源分配优化方案的进展。”曾伯楷续称。
在当前半导体行业仍没有完全走出周期低点的过程中,AIGC对算力的需求无疑对英伟达的业绩带来较大支撑,但是对于其他芯片类型来说可能影响不会那么显著。
Elvis对记者指出,由于在执行计算期间需要大容量、高速的存储支持,预计高阶的内存芯片需求将会扩大,短期对于低迷的市场助长有限,是因为普及度不够,但有利于长期高性能高带宽内存HBM及高容量服务器DRAM存储器市场的增长,这对于训练成本的下降稍有助益。
计算生态
基于前面的计算和判断,行业一种观点认为,当前要部署相关AI大模型需要较大的资金实力和能力魄力。由此引发进一步思考:难道AI大模型就只能以如此高成本运行,一般企业根本无力应对吗?
这在3月21日的发布中黄仁勋已经给出了答案:GPU本身已经在快速通过硬件产品和软件生态服务等综合方式,帮助更多AI大模型成长。
GTC期间,英伟达在硬件方面针对大型语言模型发布了新款GPU――带有双GPU NVLink的【【微信】】,配套Transformer引擎,相比前代用于处理GPT3的HGX A100相比,配置四对H100和双GPU NVLink标准服务器的速度最高可达10倍,由此将大型语言模型的处理成本降低一个数量级。
(新版本GPU产品将令AI大模型处理成本降低一个数量级,图源:英伟达发布现场)
同步发布的还有Grace Hopper超级芯片,黄仁勋指出这是处理超大型数据集的理想选择,比如可以用于推荐系统的AI数据库和大型语言模型。据介绍,通过900GB/s高速芯片对芯片的接口,英伟达Grace Hopper超级芯片可以连接Grace CPU和Hopper GPU。
为了加速生成式AI的工作,在软件方面英伟达还发布了AI Foundations云服务系列,为需要构建、完善、运行自定义大型语言模型和生成式AI的客户提供服务。
倘若换个角度,在目前全球GPU霸主英伟达之外,是否还能找到其他选择,用以探索更低成本,或者其他计算能力构成的基础设施模型?比如CPU+FPGA/ASIC,亦或是正在冉冉升起的技术路线Chiplet芯粒?
对此Elvis对记者分析,从技术架构来看,AI芯片一般可以分为GPU、FPGA、ASIC和类脑芯片四大类。GPU的关键性能是矩形并行计算,无论性能还是内存带宽均远大于同代的CPU,因此很适合人工智能发展。CPU因算力有限,但若能搭配开发周期短且灵活运用度高的FPGA,或是小型化、低功耗及高性能的ASIC,甚至是芯粒Chiplet的低成本优势,也不失为良策。
曾伯楷则指出,AI模型训练当前仍多以GPU为主,是因AI芯片功能各异、取向不同。比如GPU专为同时处理多重任务而设计,诸如处理图形、图像相关运算工作。由于该芯片采用统一渲染架构,能在算法尚未定型的领域中使用,故通用性程度较高、商业化较成熟。
相比之下,FPGA、ASIC虽然各有优缺点,但其历史积累不够。“即便CPU加FPGA或ASIC的单颗成本存在低于GPU的可能,但考虑芯片开发时间、通用性程度、算法成熟度等因素,仍以GPU为主流采用芯片。”他分析道。
这里需要补充的是,英伟达之所以能够制霸GPU领域多年,除了其很早就选择了这一路线外,也由此搭建了十分丰富的CUDA生态,这是GPU领域后来者尤为缺失的一项竞争力。
(黄仁勋称英伟达构建了加速计算的良性循环,图源:英伟达发布现场)
大模型未来
一方面底层基础设施随着软硬件持续迭代升级,匹配应用场景增加,成本已经快速下降;另一方面随着微软发布Microsoft 365 Copilot,应用到了GPT4的能力这一举动,则体现出应用端对于大模型的思考。
正式推出市场几个月至今,GPT本身就在演绎着关于商业化的探索以及实战训练的迭代。作为一项尤为强悍的智能工具,距离“我们都可以是程序员”这件事,还有多远?
郭俊丽对记者分析,相比ChatGPT之前版本,GPT4具备四大优点:更可靠、更有创造力,可以理解并处理指令的微妙之处;具备更高智能,在学术和专业考试中表现接近人类最好水平;接受图文类输入,可将应用范围拓展至机器人、智能驾驶等领域;利用模型调试、工程补丁、众包测评等方式减少谬误性显示,解决体验痛点。
综合这些都显示出AI大模型未来将对各种行业带来的模式重塑。本质上从训练成本到应用成本的双双下滑,将有望更快让我们真正拥抱AI大时代,包括其将进一步对工业、医疗等各行各业的提升。
GPT本身正在积极向外拥抱。2月,OpenAI 推出ChatGPT的付费订阅版ChatGPT Plus,提供比免费版更快速的服务以及新功能优先试用权,月费20美元。
3月初,官方再度宣布开放API应用程序接口,允许第三方开发者通过API将ChatGPT集成至他们的应用程序和服务中。按照每一千个Tokens/0.002美元收费,相比此前的GPT3,费用下降90%。
IDC中国研究总监卢言霞对21世纪经济报道记者分析,“个人认为,降低定价才能提高该产品的用量,如此也能让算法模型快速迭代。用量起来反哺模型,该产品的准确度会越来越高。”
她进一步指出,一般来说,AI大模型的变现有3种路线:卖算力,大模型用户自己训练自己部署;卖模型与算力高度结合,软硬一体优化方案;模型即服务,就是开放API。
“目前来看Open AI采用该两种模式面向的对象不同。Plus订阅可能倾向于面向个人,后续开放API则是面向企业级客户。由于面向的对象不一样,就谈不上对比哪种方式更容易变现。”她续称。
随着核心且高昂的算力基础设施已经在积极提速降本、拥抱各行各业伙伴,我们距离黄仁勋提出的畅想似乎又接近了一些。
更多内容
本文作者可以追加内容哦 !
chatgpt如何优化亚马逊标题 怎样用chatgpt优化亚马逊五点描述
chatgpt,chatgpt是什么意思,chatgpt国内能用吗,chatgpt怎么读最近ChatGPT在跨境大热,甚至还有ChatGPT将取代基础运营工作岗位的言论传出,ChatGPT对亚马逊的影响有多大?从listing到QA问答,从翻译到客服回邮,承包了大半个运营岗的工作。众多跨境人开始研究ChatGPT,辅助日常的运营工作,知名大卖巨星科技和吉宏股份,都接入了ChatGPT。
巨星科技表示,2023年年初,公司的美国团队主动接入ChatGPT进行客服沟通和社媒沟通,目前取得了一定成效,不过巨星科技并没有披露具体的数据。
另一大卖吉宏股份,回答股东提问时透露了使用ChatGPT取得的成果。
小捷整理缩减了一下,给大家按点罗列出来围观一下:
1、通过ChatGPT对商品标签体系数据进行训练和丰富,现已累计帮助吉宏股份上新品1w+;
2、在客服工作业务中,ChatGPT已经累计接手客户闲聊与安抚对话10W+,累计节省客服1000人次工时。
3、吉宏股份利用ChatGPT在千万级的商品中新挖掘了150W(10倍于电商需求)种商品之间的关系,丰富了吉宏股份的相关业务。
4、吉宏股份基于ChatGPT得到的新的广告文案7W+,通过NLP相关技术新提取了15W+的电商概念层,描述商品更细致。
5、通过ChatGPT已经处理图像素材2W+,涵盖吉宏股份50余种产品大类。
不出所料,这个回答契合了当下的热点,吉宏股份迎来股票涨停,是真有这么大作用还是蹭热度?很快深交所的问询函也来了!第二个问题就是和ChatGPT相关的。
深交所要求吉宏股份做出详细说明,主营业务和ChatGPT技术之间的关系、已投入资金金额,下一步拟投入研发资源的具体内容及金额,以及互动回复是否存在误导性陈述,存在配合市场炒作、“蹭热点”的行为。
吉宏股份是否蹭热点不是跨境卖家重点关注的,大家关注的是ChatGPT是否真的好用,具体可以怎么应用到日常运营中。
跨境卖家使用ChatGPT主要在哪些方面?应用体验如何?
小捷了解了一下发现,目前,卖家接入使用ChatGPT,主要应用在:文案优化校正、近义/互补产品/长尾关键词拓展、客服问题回答模板、站外红人联系标题及邮件、制作品牌名称Slogan,以及核心卖点等方面。
从卖家使用体验来看,卖家认为中文提问略显生硬,采用英语提问、英语输出更为精准。做日本站的卖家使用后发现,ChatGPT的小语种模型还很不成熟,基本上生成的任何句子都需要纠错,优点是提供了一个可用的模板,还能给ChatGPT提要求,让它帮回邮件,回复的内容也比较受用,一些生词也可以直接问,给出的回答比翻译软件更详细。
也有第一批使用ChatGPT的卖家认为,ChatGPT有用但作用不大,该卖家试过用来写关于亚马逊的方案、运营文案、A+,也试过用其分析竞品,但得到的答案很机械化。因此在该卖家看来,ChatGPT应用到跨境,更多的是一个噱头,吸引卖家、运营或者小白的关注。本质上是利用了ChatGPT的话题性和人工智能的噱头涨粉,达到宣传自己服务的目的。目前ChatGPT的局限性还比较大,想要获得更多功能需要每月开通30美元的费用。
总结起来就是,ChatGPT确实帮助卖家省时省事省力了,但是还远远没到完全解放,甚至代替运营工作的地步。
除了卖家,多家跨境服务商也接入ChatGPT,包括卖家精灵、鲸麦等,主要功能集中在评论分析,可以快速提取关键词、优缺点等信息。ChatGPT还有望应用到跨境电商财务报表等产品中,不过数据安全等问题也不容忽视。
总而言之,ChatGPT在跨境电商行业的运用是全方面多层次的,随着AI技术的迭代升级和从业者对人工智能的深入了解,未来,该软件在业内或许还有更多用武之地。
不过,随着AI的更新速度加快,这种现象也加重了不少跨境人的“焦虑感”。有的卖家和运营认为,虽然它有效的提升了工作效率,一些简单的工作被“AI”化,也意味着相关岗位人员的工作受到威胁。因此,很多人担忧未来ChatGPT是否会取代部分员工,尤其是对于基础性岗位而言,当自身技能无法胜过“AI效率”,未来的职业生涯该何去何从?
小捷认为,卖家应该辩证的看待人工智能的发展。我们在使用ChatGPT处理工作的同时,也应该取其精华去其糟粕,合理利用某些功能,成为主导AI的人,而不是被AI所左右。就目前它的发展程度而言,距离取代人工岗位还存在一定的距离,但也并非全无可能。因此卖家应该有一定的忧患意识,与时俱进,用开放的心态去接受和包容新事物,努力提升自我,方能于人工智能的洪流中逆流而上。
文章来源:【【网址】】/articles/1638816617000169473返回搜狐,查看更多
责任编辑: