人工智能和azure azure ai技术
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
OpenAI的ChatGPT用了不到一周的时间就达到了一百万用户,并在不到两个月的时间内突破了100亿用户大关。人们对这项技术的兴趣和兴奋是非凡的。世界各地的用户都看到了将这些大型语言模型应用于各种场景的潜力。
在企业应用程序的上下文中,我们最常听到的问题是“我如何构建像 ChatGPT 这样的东西,它使用我自己的数据作为其响应的基础?
Azure 认知搜索和 【【淘密令】】 服务的组合为这种情况提供了有效的解决方案。它集成了 Azure 的企业级特征、认知搜索在大型知识库中索引、理解和检索自己的正确数据片段的能力,以及 ChatGPT 令人印象深刻的功能,即使用自然语言进行交互以回答问题或轮流进行对话。
ChatGPT, 【【淘密令】】
在这篇博文中,我们将介绍上述解决方案模式,从编排对话和知识库的内部,到帮助最终用户正确判断响应及其支持事实所需的用户体验注意事项。我们的目标是为您提供从今天开始构建 ChatGPT 驱动的应用程序所需的工具,使用现在处于预览状态的“gpt-35-turbo”模型。我们还发布了一个 GitHub 存储库,其中包含示例,包括 UX、业务流程、提示等,您可以使用这些示例来了解更多信息或作为您自己的应用程序的起点。
使用您自己的数据聊天
与 ChatGPT 等大型语言模型交互的方式是使用自然语言,为模型提供“提示”并请求它完成它。这可能是一个问题,一个对话转折,一个要扩展的模式,等等。以这种方式使用时,您获得的响应基于模型在训练期间学到的内容,这对于一般知识问题或非正式聊天很有用,但如果您正在构建一个应用程序,用户应该看到基于您自己的数据的响应,则不是您想要的。您可以在此示例中看到使用基本 ChatGPT 模型(询问员工医疗保健计划),响应(绿色)没有用,因为它没有考虑公司自己的福利政策:
让 ChatGPT 根据您自己的数据生成响应的一种方法很简单:将此信息注入提示中。ChatGPT 可以阅读信息以及任何说明、上下文或问题,并做出相应的回应。此方法不需要重新训练或微调模型,响应可以立即反映基础数据中的任何更改。
然而,这带来了新的挑战:这些模型对它们支持的“上下文长度”有限制(当前的 ChatGPT 模型在提示中最多可以接受 4000 个令牌),即使它们没有这些限制,在每次交互中将 GB 的数据注入文本提示也是不切实际的。另一种方法是将所有数据保存在外部知识库中,该知识库可以快速检索片段并具有良好的相关性,这正是认知搜索的设计目的。以下是起点提示和响应的外观:
在示例中,蓝色部分是根据用户的问题和可能适用的任何累积上下文从认知搜索中检索的,绿色部分是模型生成的响应,其余部分是我们用于提供模型说明的提示模板。
这种检索增强生成方法为从简单开始并根据需要变得更加复杂打开了大门。对于如何构造提示、如何制定查询以便从知识库进行有效检索以及如何编排 ChatGPT 和知识库之间的来回交互,有许多选项。在我们深入研究这些之前,让我们再讨论一个要求:帮助用户验证响应是否可信。
生成可信的响应
我们假设这些大型语言模型、提示和编排系统并不完美,并将它们生成的响应视为候选响应,其中应包含供最终用户验证的正确信息。作为探索此主题的一部分,我们实施了 3 个简单的体验作为起点。这并不是说这些是唯一的;我们欢迎关于为用户提供更好工具的最佳方式的想法和反馈,以验证系统的结果是否真实正确。
如下图所示,当我们在示例中生成响应时,我们还为用户提供了 3 个“向下钻取”工具:
ChatGPT, 【【淘密令】】
引文:响应中的每个陈述都包含一个引文,其中包含指向源内容的链接。您可以在上下文中看到引文(上标编号)以及底部的链接。当您单击一个时,我们会显示原始内容,以便用户可以检查它。
支持内容:ChatGPT 生成的每个响应或聊天气泡都有一个选项(笔记本图标),用于显示作为事实输入提示的所有原始内容。
编排过程:每个响应或聊天气泡中也存在,我们包含一个选项(灯泡图标)来查看整个交互过程,包括中间结果和生成的提示。
这些选项中的每一个都可能对用户有用,也可能没有用,具体取决于受众。还有其他选项可以提供透明度和验证工具,让用户对响应充满信心。特别是,在这篇博客文章和示例代码的初始版本中,我们没有解决可以在应用程序中实现的方法的关键主题,这些方法可以评估响应的质量,并可能拒绝或重试不符合某些条件的案例。我们鼓励应用程序开发人员在每个应用程序体验的上下文中显式探索此主题。
新兴的交互模式
更有效的提示设计、检索查询构造和组件之间的交互模型的方法正在迅速出现。这是一个新兴的领域,我们希望看到很多快速的进展。下面是提示和查询生成的起点的一小部分示例,并为那些对更多详细信息感兴趣的人提供了参考文献:
检索然后阅读:单次问答场景的简单起点,其中用户问题包含足够的信息以从搜索索引中检索候选人。这种方法只是使用问题从索引中检索,获取前几个候选人,并在提示中将它们与说明和问题本身一起内联。
在检索之前阅读内容和上下文:在许多情况下,仅靠用户问题不足以进行检索。例如,在对话设置中,最后轮到用户可能只是几个表示后续点或问题的单词,不能用于有效地检索相关知识。即使在单镜头交互中,也需要考虑上下文。在这些情况下,一种有趣的方法是使用 ChatGPT 生成搜索查询,方法是要求该工具创建用于检索目的的对话摘要,并考虑要注入的任何上下文。
操作、工具等:用户输入、提示说明和知识库之间的单一交互通常是不够的。例如,已经表明,要求大型语言模型将响应分解为小步骤可以提高响应的质量并避免某些错误模式。一旦问题被分解,就可以向外部来源提出更小、更尖锐的问题,无论是作为我们迄今为止所做的非结构化搜索,还是作为事实问答步骤(例如,由认知搜索中的语义答案支持),或者作为外部系统中的查找(例如,内部应用程序中的员工表,或客户支持应用程序中的事件表)。这是一个广阔的探索空间,许多早期的实验工作正在进行中。一些有趣的读物包括引入CoT(
ai行业风险预估 ai传统行业一览表
ai 行业,ai行业趋势,ai行业研究报告,ai带来的风险近期,伴随着ChatGPT带来的鲶鱼效应,人工智能成为科技产业创新的焦点,科技产业龙头正加大在人工智能领域的军备竞赛。算法、数据、算力作为人工智能领域的三要素,也同时受到了业内关注。其中,算力是军备竞赛的重点,相关企业正在加速布局。
生成式AI需要基于海量自然语言或多模态数据集训练,拥有巨大参数量的超大规模AI模型,所需AI算力当量显著提升。例如,以PD(Petaflops-Day)为单位来衡量,GPT-3大模型训练的算力当量为3640PD。超大规模AI大模型训练一般须在大规模AI服务器集群上进行,AI服务器、AI芯片等算力相关市场需求有望提升。在AI时代,传统算力面临挑战。普通服务器采用串行架构,主要以CPU提供算力,在进行逻辑判断时需要大量分支跳转处理,CPU结构复杂,算力提升主要依靠核心数的数量提升。随着目前CPU制程工艺已经让单个CPU的核心数接近极限,而爆炸式增长的数据、逐步复杂的算法模型、不断深入发展的应用场景,使得对算力能力和算力规模的需求快速提升,普通服务器已无法满足不断增长的算力需求。以下我们就将对当前比较火热的AI算力话题进行探讨分析,从当前产业现状、供需格局出发,分析梳理AI算力发展的关键环节―AI服务器和AI芯片的产业现状和格局,及当下产业瓶颈及突破路径,同时对算力产业链及相关企业、细分受益环节、产业发展前瞻等进行分析,以全面了解AI算力当下发展状况及未来发展趋势。
01
产业概况
1、相关概念
算力是人工智能三要素之一,已成为人工智能产业化进一步发展的关键。所谓算力,就是计算能力,是指对数据的处理能力,它被视为数字经济时代的新生产力,是推动数字经济发展的核心力量。其中,算力的大小代表着对数字化信息处理能力的强弱。从原始社会的手动式计算到古代的机械式计算、近现代的电子计算,再到现在的数字计算,算力指代了人类对数据的处理能力,也集中代表了人类智慧的发展水平。伴随着云计算技术和5G通信技术的发展,使得算力的分布和调度更加灵活,有助于满足各种场景下对高性能计算的需求。未来随着技术的进步和应用场景的不断拓展,算力将继续发挥重要作用,推动整个人工智能行业的创新和发展。2、算力:ChatGPT发展的核心基础底座ChatGPT能够实现当前如此强大的交互,离不开背后庞大的算力支撑。根据绿色节能数据中心官方公众号,ChatGPT的总算力消耗约为3640PF-days。按近期在国内落地的某数据中心为参照物,算力500P耗资30.2亿落成,若要支持ChatGPT的运行,需要7―8个这样数据中心支撑,基础设施投入需以百亿计。因此,随着AI等新技术的发展,对高可靠、高性能、高安全算力需求更加突出,全球正掀起一场算力的“军备竞赛”,数据中心、AI芯片、服务器等环节作为算力基础设施,有望被高度重视。3、AI算力市场呈高速增长态势,算力成为AI突破的关键因素数据、算力及算法是人工智能发展的三要素。在这三要素中,数据与算法都离不开算力的支撑。随着AI算法突飞猛进的发展,越来越多的模型训练需要巨量算力支撑,才能快速有效实施,同时数据量的不断增加也要求算力配套进化。如此看来,算力成为AI突破的关键因素。ChatGPT引发新一轮AI算力需求爆发。根据OpenAI发布的《AIand Compute》分析报告中指出,自2012年以来,AI训练应用的算力需求每3-4个月就会翻倍,从2012年至今,AI算力增长超过了30万倍。据OpenAI报告,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个算力500P的数据中心才能支撑运行。上海新兴信息通信技术应用研究院首席专家贺仁龙表示,“自2016年阿尔法狗问世,智能算力需求开启爆发态势。如今ChatGPT则代表新一轮AI算力需求的爆发”。
全球算力规模将呈现高速增长态势。根据国家数据资源调查报告数据,2021年全球数据总产量67ZB,近三年平均增速超过26%,经中国信息通信研究院测算,2021年全球计算设备算力总规模达到615EFlops,增速达44%。根据中国信通院援引的IDC数据,2025年全球算力整体规模将达3300EFlops,2020-2025年的年均复合增长率达到50.4%。结合华为GIV预测,2030年人类将迎来YB数据时代,全球算力规模达到56ZFlops,2025-2030年复合增速达到76.2%。4、算力需求攀升下,GPU行业市场巨大AIGC模型硬件以GPGPU为主,GPU市场规模有望在2030年超过4000亿美元。GPU在并行计算方面具有性能优势,在AI领域分化成两条分支:一条是传统意义的GPU,专门用于图形图像处理用途;另一条是GPGPU,作为运算协处理器,增加了专用指令来满足不同领域的计算需求。使用GPGPU在云端进行模型训练算法,能够显著缩短海量训练数据的训练时长,减少能源消耗,从而降低人工智能的应用成本,目前全球人工智能相关处理器解决方案仍以GPGPU为主。根据【【微信】】ch报告,2021年全球GPU芯片市场规模已经达到了334.7亿美元,并预计到2030年将达到4,773.7亿美元,CAGR高达33.3%。GPU市场保持着高速增长态势,其在人工智能领域中仍然是不可或缺的计算资源之一。
02
产业发展现状
1、当前大模型的实现,需要强大的算力来支持训练过程和推理过程
大模型的实现,需要十分强大的算力来支持训练过程和推理过程。根据OPENAI数据,训练GPT-3175B的模型,需要的算力高达3640PF-days。2018年以来,大模型的参数量级已达到数千亿参数的量级规模,对算力的需求将呈现指数级增长。
2、AI芯片性能提升,成为决定大模型从理论实践到大规模应用的关键要素根据《COMPUTE TRENDS ACROSS THREE ERAS OF MACHINE LEARNING》研究结果,AI芯片的性能提升成为决定大模型从理论实践到大规模应用的关键要素。在供给端,AI芯片厂商推出了性能越来越强的新产品来应对人工智能发展的算力需求。以英伟达为例,2020年,英伟达推出了A100 GPU芯片,相比上一代【【微信】】芯片,A100 GPU芯片性能大幅提升。针对大模型,A100 GPU芯片相比【【微信】】芯片可提供高达3倍的训练速度。
3、大模型将为全球和中国AI芯片和AI服务器市场的增长,提供强劲动力随着全球和中国人工智能厂商布局大模型,大模型将为全球和中国AI服务器市场的增长提供强劲动力。根据《2022年北京人工智能产业发展白皮书》数据,截至2022年10月,北京拥有人工智能核心企业1048家,占我国人工智能核心企业总量的29%。以此计算,我国人工智能核心企业总数约为3614家。假设其中有2%的企业自建IDC训练和推理大模型,那么单一企业自建IDC推理和训练大模型的算力成本约为4.78(4.03+0.75)亿美元,以此估算,大模型将为我国AI服务器市场带来约345.50亿美元的市场空间。以2021年我国AI服务器市场规模占全球AI服务器市场规模的占比估算,则将为全球AI服务器市场带来约910.44亿美元的市场空间。市场空间巨大,相关芯片和服务器厂商将深度受益此次ChatGPT浪潮。
03
供需格局分析
1、需求端:大算力消耗带来训练成本上升,算力霸权时代或将到来
大算力消耗带来训练成本上升,训练ChatGPT需要使用大量算力资源。据微软官网,微软Azure为OpenAI开发的超级计算机是一个单一系统,具有超过28.5万个CPU核心、1万个GPU和400GB/s的GPU服务器网络传输带宽。据英伟达,使用单个Tesla架构的【【微信】】对1746亿参数的GPT-3模型进行一次训练,需要用288年时间。此外,算力资源的大量消耗,必然伴随着算力成本的上升,据Lambda,使用训练一次1746亿参数的GPT-3模型,所需花费的算力成本超过460万美元。虽然GPT-3.5在模型参数量上有了明显下降,但考虑到GPT-3、GPT-3.5均为OpenAI独家拥有,其他厂商复刻难度较高,巨量参数或仍将是模型开发过程的必经之路,我们预计未来大模型开发的算力成本仍将较高。模型算力需求增速超越芯片性能增速,算力霸权时代或将到来。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。而摩尔定律认为,芯片计算性能大约每18-24个月翻一番。因此,AI训练模型算力需求增长与芯片计算性能增长之间的不匹配,或将带来对算力基础设施供给需求的快速增长。考虑到算力对于AI模型训练效果的关键性作用,拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型,算力霸权时代或将开启。
具体来看,AI大模型对于算力资源的需求主要体现在以下三类场景:(1)模型预训练带来的算力需求模型预训练过程是消耗算力的最主要场景。ChatGPT采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据,即纯文本数据训练模型,从而使模型能够学到一些潜在的跟标注无关的知识,最终在具体的任务上,预训练模型就可以利用大量的无标注数据知识。在Transformer的模型架构下,语言预训练过程可以根据上下文一次处理所有输入,实现大规模并行计算。通过堆叠多个解码模块,模型的层数规模也会随着提升,可承载的参数量同步增长。与之相对应的,模型训练所需要消耗的算力也就越大。预计训练一次ChatGPT模型需要的算力约27.5PFlop/s-day。据OpenAI团队发表于2020年的论文《Language Models are Few-Shot Learners》,训练一次13亿参数的GPT-3XL模型需要的全部算力约为27.5PFlop/s-day,训练一次1746亿参数的GPT-3模型需要的算力约为3640PFlop/s-day。考虑到ChatGPT训练所用的模型是基于13亿参数的GPT-3.5模型微调而来,参数量与GPT-3XL模型接近,因此我们预计训练所需算力约27.5PFlop/s-day,即以1万亿次每秒的速度进行计算,需要耗时27.5天。
(2)日常运营带来的算力需求预计ChatGPT单月运营需要算力约4874.4PFlop/s-day,对应成本约616万美元。在完成模型预训练之后,ChatGPT对于底层算力的需求并未结束,日常运营过程中,用户交互带来的数据处理需求,同样也是一笔不小的算力开支。据SimilarWeb数据,2023年1月ChatGPT官网总访问量为6.16亿次。据Fortune杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元。基于此,我们测算得2023年1月OpenAI为ChatGPT支付的运营算力成本约616万美元。据上文,我们已知训练一次1746亿参数的GPT-3模型需要3640PFlop/s-day的算力及460万美元的成本,假设单位算力成本固定,测算得ChatGPT单月运营所需算力约4874.4PFlop/s-day。
(3)Finetune带来的算力需求模型调优带来迭代算力需求。从模型迭代的角度来看,ChatGPT模型并不是静态的,而是需要不断进行Finetune模型调优,以确保模型处于最佳应用状态。这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和PPO策略,对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为OpenAI带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。2、供给端:核心环节有望率先受益(1)算力芯片:AI算力基石,需求有望大规模扩张GPU架构更适合进行大规模AI并行计算,需求有望大规模扩张。从ChatGPT模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型RNN来看,Transformer架构下,AI模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从GPU的计算方式来看,由于GPU采用了数量众多的计算单元和超长的流水线,因此其架构设计较CPU而言,更适合进行大吞吐量的AI并行计算。基于此,我们认为,随着大模型训练需求逐步增长,下游厂商对于GPU先进算力及芯片数量的需求均有望提升。
单一英伟达V100芯片进行一次ChatGPT模型训练,大约需要220天。我们以AI训练常用的GPU产品―N【【微信】】为例。V100在设计之初,就定位于服务数据中心超大规模服务器。据英伟达官网,V100拥有640个【【微信】】内核,对比基于单路英特尔金牌6240的CPU服务器,可以实现24倍的性能提升。考虑到不同版本的V100芯片,在深度学习场景下计算性能存在差异,因此我们折中选择NVLink版本V100(深度学习算力125TFlops)来计算大模型训练需求。据相关测算,我们已知训练一次ChatGPT模型(13亿参数)需要的算力约27.5PFlop/s-day,计算得若由单个【【微信】】进行计算,需220天;若将计算需求平均分摊至1万片GPU,一次训练所用时长则缩短至约32分钟。(2)服务器:AI服务器有望持续放量ChatGPT主要进行矩阵向量计算,AI服务器处理效率更高。从ChatGPT模型结构来看,基于Transformer架构,ChatGPT模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而AI服务器中往往集成多个AIGPU,AIGPU通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI服务器往往较GPU服务器计算效率更高,具备一定应用优势。
单台服务器进行一次ChatGPT模型训练所需时间约为5.5天。我们以浪潮信息目前算力最强的服务器产品之一―浪潮NF5688M6为例。NF5688M6是浪潮为超大规模数据中心研发的N【【微信】】服务器,支持2颗Intel最新的Ice Lake CPU和8颗NVIDIA最新的【【微信】】全互联A800GPU,单机可提供5 PFlops的AI计算性能。我们已知训练一次ChatGPT模型(13亿参数)需要的算力约27.5PFlop/s-day,计算得若由单台NF5688M6服务器进行计算,需5.5天。大模型训练需求有望带动AI服务器放量。随着大数据及云计算的增长带来数据量的增加,对于AI智能服务器的需求明显提高。据IDC数据,2021年全球AI服务器市场规模为156亿美元,预计到2025年全球AI服务器市场将达到318亿美元,预计22-25年CAGR将达19.5%。2021年中国AI服务器行业市场规模为350.3亿元,同比增长68.6%,预计22-25年CAGR将达19.0%。我们认为,随着ChatGPT持续火热,国内厂商陆续布局ChatGPT类似产品,AI服务器采购需求有望持续增长,市场规模或将进一步扩张。(3)数据中心:核心城市集中算力缺口或将加剧IDC算力服务是承接AI计算需求的直接形式。ChatGPT的模型计算主要基于微软的Azure云服务进行,本质上是借助微软自有的IDC资源,在云端完成计算过程后,再将结果返回给OpenAI。可见,IDC是承接人工智能计算任务的重要算力基础设施之一,但并不是所有企业都需要自行搭建算力设施。从国内数据中心的业务形态来看,按照机房产权归属及建设方式的角度,可分为自建机房、租赁机房、承接大客户定制化需求以及轻资产衍生模式四种。AI训练需求有望带动IDC市场规模快速增长。据中国信通院,2021年国内IDC市场规模1500.2亿元,同比增长28.5%。随着我国各地区、各行业数字化转型深入推进、AI训练需求持续增长、智能终端实时计算需求增长,2022年国内市场规模达1900.7亿元,同增26.7%。
互联网厂商布局ChatGPT类似产品,或将加大核心城市IDC算力供给缺口。据艾瑞咨询,2021年国内IDC行业下游客户占比中,互联网厂商居首位,占比为60%;其次为金融业,占比为20%;政府机关占比10%,位列第三。而目前国内布局ChatGPT类似模型的企业,同样以互联网厂商为主,如百度宣布旗下大模型产品“文心一言”将于2022年3月内测、京东于2023年2月10日宣布推出产业版ChatGPT:ChatJD。另一方面,国内互联网厂商大多聚集在北京、上海、深圳、杭州等国内核心城市,在可靠性、安全性及网络延迟等性能要求下,或将加大对本地IDC算力需求,国内核心城市IDC算力供给缺口或将加大。
04
AI服务器产业格局
AI服务器和AI芯片是算力发展中极为重要,同时也是企业争相突破的环节,其发展状况,对于整个人工智能行业的发展至关重要,以下我们就分别对AI芯片和AI服务器两部分展开分析。
1、AI服务器:人工智能发展核心算力底座,算力升级催化其加速渗透AI服务器是采用异构形式的服务器,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。而普通的服务器是以CPU为算力的提供者,采用的是串行架构。在大数据、云计算、人工智能及物联网等网络技术的应用下,数据呈现几何倍数的增长,CPU的核心数已经接近极限,但数据还在持续增加,因此必须提升服务器的数据处理能力,AI服务器应运而生。通常AI服务器需要承担大量的计算,一般配置四块以上的GPU卡。
随着数据及运算量提升,接口传输速度要求提升,对应PCB层数将增加、介电损耗降低且单价提升,端口数量增加亦将拉动以太网物理层芯片(PHY)的用量提升,CPU、GPU供电使用的多相电源需求量大幅增加。在此基础上,由于有多个GPU卡,需对系统结构、散热、拓扑等进行设计,才能满足AI服务器长期稳定运行的要求。随数据量提升,AI服务器加速渗透,22-26年全球服务器市场复合增速近15%。根据IDC数据,2022年全球AI相关支出1193亿美元,同比增长28.0%,其中AI硬件、AI服务、AI软件支出占比分别为20.4%、24.5%、55.1%;AI硬件支出中,服务器、存储器占比83.2%、16.8%。根据IDC数据,2022年全球AI服务器市场规模202亿美元,同比增长29.8%,占服务器市场规模的比例为16.4%,同比提升1.2pct。2022年上半年全球AI服务器市场中,浪潮、戴尔、惠普、联想、新华三分别以15.1%、14.1%、7.7%、5.6%、4.7%的市场份额位居前五位。IDC预计2026年全球AI服务器市场规模将达到355亿美元,对应22-26年CAGR为15.1%。2、国内AI服务器呈现一超多强的市场格局浪潮信息占据全球AI服务器市场龙头地位。根据IDC统计,中国企业在全球AI服务器市场中所占份额持续提升。其中,2021年浪潮信息市场份额约20%,龙头地位稳固;戴尔和HPE市占率分别达到13.8%、9.8%,排名分列第二、第三。
国内AI服务器市场集中度高,呈现“一超多强”的局面。根据IDC统计,2021年国内AI服务器排名前5的厂商占据了超过80%的市场份额。其中,浪潮信息的市占率遥遥领先,约52%;宁畅、华为、新华三市占率相近,略低于8%,构成第二梯队;安擎、宝德分别为6.8%、5.1%,紧随其后。
AI服务器性能要求持续提升,产品不断迭代。大规模AI计算模型,不仅仅对AI服务器的空间和算力提出了极高的要求,还在冷却技术、算力资源调度和灵活性方面,推动着高性能、高技术水平产品的诞生。国内代表性企业推出的AI服务器产品,在CPU和GPU芯片性能、功率、计算平台和扩展等关键指标上达到了较高水平,支持互联网、数据库、分布式存储和加速计算等行业多样化的应用场景。例如,浪潮信息的NF5688M6服务器是为超大规模数据中心专门研发,空间达到6U,采用GPU:计算IB:存储IB=8:8:2的高性能配比,适用于对算力要求较高的大规模的模型训练。
05
AI芯片产业格局
1、AI芯片提供算力基础,国内外市场都将保持快速增长
全球市场:全球人工智能技术发展逐渐成熟,数字化基础设施不断建设完善,推动全球人工智能芯片市场高速增长。IDC全球范围调研显示,人工智能芯片搭载率(attachrate)将持续增高。根据Tractica、寒武纪招股书相关数据,全球人工智能芯片2022年市场规模预计约395亿美金,预计到2025年将达到726亿美金,年复合增长率达到22%。
国内市场:22-24年复合增速有望达到46%。随着大数据的发展和计算能力的提升,根据寒武纪招股书,2022年中国人工智能芯片市场规模预计达368亿元,预计2024年市场规模将达到785亿元,复合增速有望达到46%。2021年国内仍以GPU为主实现数据中心计算加速。根据IDC数据,2021年中国人工智能芯片市场中,GPU的市场占有率近90%,ASIC,FPGA,NPU等非GPU芯片市场占有率超过10%。
2、AI芯片赋能算力基石,英伟达垄断全球市场AI算力芯片主要包括GPU、FPGA,以及以VPU、TPU为代表的ASIC芯片。其中以GPU用量最大,据IDC数据,预计到2025年GPU仍将占据AI芯片8成市场份额。然而,相较传统图形GPU,通用型算力GPU在芯片架构上缩减了图形图像显示、渲染等功能实现,具有更优的计算能效比,因而被广泛应用于人工智能模型训练、推理领域。
根据在网络中的位置,AI芯片可以分为云端AI芯片、边缘和终端AI芯片;根据其在实践中的目标,可分为训练(training)芯片和推理(inference)芯片。云端主要部署高算力的AI训练芯片和推理芯片,承担训练和推理任务,具体有智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。
由于英伟达GPU产品线丰富、产品性能顶尖、开发生态成熟,目前全球AI算力芯片市场仍由英伟达垄断。根据中国信通院的数据,2021年Q4英伟达占据了全球95.7%的GPU算力芯片市场份额,因此,英伟达数据中心业务营收增速可以较好地反应全球AI芯片市场增速。2023财年,英伟达数据中心营收达到150亿美元,同比增长41%,FY2017-FY2023复合增速达63%,表明全球AI芯片市场规模保持高速增长。3、性能与生态构筑AI算力芯片高壁垒评价AI芯片的指标主要包括算力、功耗、面积、精度、可扩展性等,其中算力、功耗、面积(PPA)是评价AI芯片性能的核心指标
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。