人工智能行业概况及现状2022 人工智能的政策与产业现状
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
(报告出品方/作者:国信证券,熊莉,张伦可,朱松,库宏)
核心观点:
人工智能作为第四次科技革命,已经进入2.0时代。人工智能概念于1956年被提出,AI产业的第一轮爆发源自2012年,2012年AlexNet模 型问世开启了CNN在图像识别的应用,2015年机器识别图像的准确率首次超过人(错误率低于4%),开启了计算机视觉技术在各行各业 的应用。但是,人工智能1.0时代面临着模型碎片化,AI泛化能力不足等问题。2017年Google Brain团队提出Transformer架构,奠定了 大模型领域的主流算法基础,从2018年开始大模型迅速流行,2018年谷歌团队的模型参数首次过亿,到2022年模型参数达到5400亿,模 型参数呈现指数级增长,“预训练+微调”的大模型有效解决了1.0时代AI泛化能力不足的问题。新一代AI技术有望开始全新一轮的技术 创新周期。
自18年起大模型快速流行,有望重新定义生产力。2018年以来,预训练语言模型 (PLM) 及其“预训练-微调”方法已成为自然语言处理 (NLP)任务的主流范式,该范式先利用大规模无标注数据通过自监督学习预训练语言大模型,得到基础模型,再利用下游任务的有标 注数据进行有监督学习微调模型参数,实现下游任务的适配。在AI的1.0时代:存在模型碎片化明显、AI泛化能力不足等问题。“预训 练+微调”大模型能显著降低AI工程化门槛,预训练大模型在海量数据的学习训练后具有良好的通用性和泛化性,细分场景的应用厂商 能够基于大模型通过零样本、小样本学习即可获得显著的效果,使得人工智能有望构建成统一的智能底座,AI+赋能各行各业。本轮的 生成式AI有望从简单的内容生成,逐步达到具有预测、决策、探索等更高的认知智能。
OpenAI当前已迭代五代模型,GPT-4开始布局多模态。OpenAI于2015年成立,微软于2019年开始与OpenAI建立战略合作伙伴关系,GPT共 发布五代模型GPT-1、GPT-2、GPT-3、ChatGPT以及GPT4。GPT-1于2018年6月发布,首次将transformer与无监督的预训练技术相结合。 2020年5月发布GPT-3,模型参数量为1750亿。2022年11月,OpenAI正式推出了对话交互式的ChatGPT。相比于GPT-3,ChatGPT引入了基 于人类反馈的强化学习(RLHF)技术以及奖励机制。2023年3月,OpenAI正式推出GPT-4,成为目前较先进的多模态大模型。GPT-4主要 在识别理解能力、创作写作能力、处理文本量以及自定义身份属性迭代方面取得进展。
百度于2023年3月正式推出大模型文心一言。文心一言主要由文心大模型提供支持,文心一言拥有有监督精调、RLHF、提示构建、知识增 强、检索增强和对话增强六大核心技术。其中前三项与ChatGPT的技术十分类似,知识增强包括知识内化和知识外用;检索增强指基于 百度搜索引擎,先对内容进行检索,再筛选出有用的部分整合输出结果;对话增强指记忆机制、上下文理解和对话规划等技术。
01、行业梳理:生成式AI有望带动新一轮技术创新周期
1.1、人工智能产业自2012年开始迎来蓬勃发展
2012年至今属于人工智能的蓬勃发展期。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新 的技术科学。人工智能的发展历史大致可以被划分为5个阶段,2012年至今处于人工智能的蓬勃发展期,其分界点就是2012年前后IBM开发 的人工智能程序“沃森”参加了一档智力问答节目并战胜了两位人类冠军以及AlexNet在ImageNet竞赛中取得胜利。 以深度神经网络为代表的信息技术的发展,推动了人工智能领域的进步与拓展。2006年,Hinton等人利用单层的RBM自编码预训练使得深 层的神经网络训练得以实现;2012年,Hinton和Alex Krizhevsky设计的AlexNet神经网络模型在ImageNet竞赛中实现图像识别分类,成为 新一轮人工智能发展的起点。
人工智能1.0时代(2012年-2018年):人工智能概念于1956年被提出,AI产业的第一轮爆发源自2012年,2012年AlexNet模型问世开启 了CNN在图像识别的应用,2015年机器识别图像的准确率首次超过人(错误率低于4%),开启了计算机视觉技术在各行各业的应用,带 动了人工智能1.0时代的创新周期,AI+开始赋能各行各业,带动效率提升。但是,人工智能1.0时代面临着模型碎片化,AI泛化能力不 足等问题。 人工智能2.0时代(2017年-至今):2017年Google Brain团队提出Transformer架构,奠定了大模型领域的主流算法基础,从2018年开 始大模型迅速流行,2018年谷歌团队的模型参数首次过亿,到2022年模型参数达到5400亿,模型参数呈现指数级增长,“预训练+微调” 的大模型有效解决了1.0时代AI泛化能力不足的问题。新一代AI技术有望开始全新一轮的技术创新周期。
1.2、产业分类:AI产业链主要包括基础层、技术层、应用层三大层
人工智能产业链可分为基础层、技术层和应用层三大层面: 基础层:侧重基础支撑平台的搭建,包含传感器、AI芯片、数据服务和计算平台; 技术层:侧重核心技术的研发,主要包括算法模型、基础框架、通用技术; 应用层:注重产业应用发展主要包含行业解决方案服务、硬件产品和软件产品。
AI模型大致可以分为决策式AI和生成式AI两种。决策式AI指学习数据中的条件概率分布,根据已有数据进行分析、判断、预测,主要应用 模型有用于推荐系统和风控系统的辅助决策、用于自动驾驶和机器人的决策智能体。 生成式AI指学习数据中的联合概率分布,并非简单 分析已有数据而是学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成了全新的内容,也能解决判别问题。
中国生成式AI商业应用规模迎来快速增长,预计2025年破两千亿。根据中关村大数据产业联盟发布的《中国AI数字商业展望2021-2025》 报告披露,到2025年,中国生成式AI商业应用规模将达到2070亿元,未来五年的年均增速84%。根据Gartner《2021年预测:人工智能对人 类和社会的影响》给出的积极预测,到2023年,将有20%的内容被生成式AI所创建。至2025年,预计生成式AI产生的数据将占所有数据的 10%。
1.3、AI产业正在逐渐从传统分析型AI走向生成式AI
人工智能在经历前期技术积累和迭代后,逐渐突破传统分析型AI领域,迎来生成式AI的爆发期。从2012年至今,生成式AI急速发展,其 源头就是DNN算法的升级,实现了语音和图像识别等功能。 生成式AI市场前景广阔,赛道内诞生多家独角兽企业。据波士顿咨询预测,至2025年生成式人工智能的市场规模将至少达到600亿美元, 而其中大约30%的AI应用将来自广义的生成式AI技术。随着生成式AI模型的进一步完善,自主创作和内容生产的门槛将大大降低,市场 响应该领域的巨大需求,在2019-2022年间共有7家独角兽公司诞生,截至2023年2月,这七家的估值合计达到644亿美元,其中OpenAI借 助旗下产品ChatGPT爆火的东风,一家公司的估值便突破290亿美元。
AIGC具备三大前沿能力,未来应用空间广阔。AIGC发展火热,以chatgpt为代表的问答机器人,逐步走向大众视野。AIGC(AIGenerated Content)即人工智能生产内容,可用于代码生成、文本问答、图像生成等。AIGC是继专业生成内容(PGC)和用户生成内容 (UGC)之后,利用人工智能技术生成内容的新生产方式。AIGC技术演化出三大前沿技术能力:数字内容孪生、数字内容的智能编辑、 数字内容的智能创作。ChatGPT能理解并生成文字,属于AIGC技术应用中的文本生成模态应用模型。根据Gartner测算,当前AIGC占所有 生成数据小于1%,AIGC生成数据渗透率有广阔提升空间,预计该数字到2025年或上升至10%。
AIGC产业链上游主要提供AI技术及基础设施,包括数据供给方、数据分析及标注、创造者生态层、相关算法等。AIGC应用对数字基础设 施要求较高,随着ChatGPT掀起AIGC发展浪潮,数据基础设施有望加速升级。中游主要针对文字、图像、视频等垂直赛道,提供数据开 发及管理工具,包括内容设计、运营增效、数据梳理等服务。下游包括内容终端市场、内容服务及分发平台、各类数字素材以及智能设 备,AIGC内容检测等。
02、海外玩家:OpenAI持续领先,谷歌等巨头纷纷布局
2.1、OpenAI发展历程
OpenAI的发展历程分为四个阶段: 阶段一:2015年OpenAI首席执行官阿尔特曼,与埃隆马斯克等人宣布出资10亿美元,创立了非营利性研究机构OpenAI。 阶段二:2019年OpenAI的架构进行了调整,调整后变身为两家机构――营利性机构OpenAI LP和最初的非营利机构OpenAI,Inc。 阶段三:从2019年开始,微软与OpenAI建立了战略合作伙伴关系,不少于三次投资,共投入130亿美元,成为OpenAI最大的有限合伙人。 OpenAI LP从成立之初参与投资的VC,也成为有限合伙人。
阶段四:在OpenAI未来盈利后,逐步回报投资人:1、优先保证OpenAI的首批投资者收回初始资本;2、微软投资完成、OpenAI LP首批 投资人收回初始投资后,微软有权获得OpenAI LP 75%利润;3、微软收回130亿美元投资、从OpenAI LP获得920亿美元利润后,它分享 利润的比例从75%降到49%;4、OpenAI LP产生的利润达到1500亿美元后,微软和其他风险投资者的股份将无偿转让给OpenAI LP的普通 合伙人――非营利机构OpenAI, Inc。
自2013年起人工智能迎来发展高潮。2006年Hinton提出“深度学习”神经网络使得人工智能性能获得突破性进展,在2013年深度学习宣 发在语音和视觉识别上取得成功,识别率分别超过99%和95%,人工智能进入感知智能时代。在此期间全球人工智能市场保持高速增长, 截至2015年全球AI市场规模达到74.5亿美元,而且愈发受到投资机构青睐,投资额从2012年的0.62亿元提升至2015年的142.3亿美元, 增长幅度达到2195.16%。2015年OpenAI作为一家非营利性人工智能研究公司创立。基于人工智能高速发展的背景,Openai由Elon Musk,Sam Altman(美国创业孵化器总裁)及Pieter Abbeel(PayPal联合创始人)等人创建,在创立之初由Elon Musk和Sam Altman担任其联合主席,由Pieter Abbeel等人担任顾问。
2016年4月,OpenAI发布了第一个项目――OpenAI Gym Beta。OpenAI Gym是由OpenAI开发的一个开源平台,旨在在各种强化学习问题中 加速算法的开发和比较,该工具也是OpenAI第一个开放的成果。 Gym的核心组件是环境(En【【微信】】)和智能体(Agent)。环境是一个可观察到的系统,它定义了智能体如何与外部世界交互;智能 体则是一个能够感知到和影响环境的程序,是训练和优化的对象。 Gym提供了许多强化学习问题的标准化环境。例如经典控制问题(Classic control),Atari游戏,甚至是Roboschool等物理模拟环境。
2017年7月,OpenAI公布最新强化学习算法PPO(Proximal Policy Optimization),好于同期最强的算法模型,成为openai默认的强化 学习算法。PPO包含三方面的技术进步: 1.代理策略和价值函数的优化,在 PPO算法中,同时优化代理策略和价值函数( 【【微信】】),通过在最大化奖励的同时最大化代理策略和价值函数的梯度,同时对这两者进行优化;2.剪辑代理策略更新是PPO算法的 核心部分,该方法通过使用约束优化来保证新的策略不会太远离旧的策略,减轻了过渡调整代理策略的问题,并提高总体稳定性;3.优 化函数的选择,在PPO算法中,需要选择合适的优化函数来最大化代理策略和价值函数的梯度,常用的优化函数包括Adam、SGD和 RMSProp等。
2018年6月, OpenAI公布了第一个将transformer与无监督的预训练技术相结合的GPT模型,其取得的效果要好于当前的已知算法。该模 型被称为GPT-1,并由一个具有10亿个参数的单层transformer组成。这一模型的训练使用了大规模的无监督语料库,使它能够生成各种 自然语言处理任务的有力表现。同月OpenAI宣布他们的OpenAI Five已经开始在Dota2游戏中击败业余人类团队,OpenAIFive使用了256 个【【微信】】和128000个CPU核,通过每天玩180年时长的游戏来训练模型。在同年8月份的专业比赛中,OpenAIFive输掉了2场与顶级选 手的比赛,但是比赛的前25-30分钟内,OpenAI Five的模型的有着十分良好的表现。OpenAI Five继续发展并在2019年4月15日宣布打败 了当时的Dota2世界冠军。
2019年2月,OpenAI在博客《Better Language Models and Their Implications》中官宣GPT-2模型。GPT-2模型拥有15亿参数,基于 800万网页数据训练,该模型就是GPT的规模化结果,在10倍以上的数据以10倍以上的参数训练。OpenAI在2月份GPT-2发布的时候仅仅公 开了他们的1.24亿版本的预训练结果,其后的5月份发布了3.55亿参数版本的预训练结果,并在半年后的8月份发布了一个7.74亿参数版 本的GPT-2预训练结果。2019年11月5日,15亿参数的完整版本的GPT-2预训练结果发布。
2019年3月,OpenAI将生成模型开始拓展至其他领域。同年3月4日,OpenAI发布了一个用于强化学习代理的大规模多代理游戏环境: Neural MMO。该平台支持在一个持久的、开放的任务中的存在大量的、可变的agent。4月25日,OpenAI继续公布最新的研究成果: MuseNet,这是一个深度神经网络,可以用10种不同的乐器生成4分钟的音乐作品,并且可以结合多种音乐风格。
2.2、GPT迭代过程:目前GPT已迭代了五代模型
GPT的发展可大致分为四个阶段:GPT-1、GPT-2、GPT-3、ChatGPT以及GPT4。 GPT-1:2018年6月, OpenAI公布了第一个将transformer与无监督的预训练技术相结合的GPT模型。GPT-1模型架构基于Transformer模 型,通过学习大量未标记的文本数据,可以在大规模任务上进行预测。模型参数量为1.17亿。 GPT-2: 2019年 2月, OpenAI在博客《Better Language Models and Their Implications》中官宣 GPT-2模型。GPT-2是一种基于 Transformer架构的自然语言处理模型,使用了无监督预训练的技术,允许GPT-2从未标注的文本数据中学习语言模型。模型参数量为15 亿。
GPT-3:2020年5月,OpenAI的研究人员提交论文《Language Models are Few-Shot Learners》宣布了GPT-3的诞生。GPT-3具有少样本 及零样本学习的能力,即可以在没有接受特定任务或领域训练的情况下产生有意义的输出。模型参数量为1750亿。 ChatGPT:2022年11月,OpenAI正式推出了对话交互式的ChatGPT。相比于GPT-3,ChatGPT引入了基于人类反馈的强化学习(RLHF)技术 以及奖励机制,提高模型准确度。 GPT-4:2023年3月,OpenAI正式推出GPT-4,成为目前较先进的多模态大模型。GPT-4主要在识别理解能力、创作写作能力、处理文本量 以及自定义身份属性迭代方面取得进展。
GPT-1采用了多层Transformer架构,整体架构为:输入层 - n个Transformer块 - 输出层。输入层采用的是基于字节对编码(BPE, Byte Pair Encoding)的方式,将原始文本编码成固定长度的向量作为模型的输入。接下来,模型将这些向量输入到n个Transformer块 中进行处理,每个Transformer块又包含了若干个子层,包括多头自注意力子层和全连接前馈网络子层。这些子层形成了Transformer块 的主体结构,每个子层处理不同的输入信息,其中多头自注意力子层用于计算每个词在上下文中的重要性,全连接前馈网络子层用于提 取特征并生成新的表示。最后,模型将最后一层Transformer块的输出向量输入到输出层中,生成对下一个单词的预测。整个过程被称 为生成式预训练(Generati【【微信】】)。
GPT-2采用更大的训练集,并尝试无监督训练。GPT-2为了解决GPT-1泛化能力弱的问题,开始采用zero-shot learning(零次学习)。 GPT-2的训练集为在Reddit上爬取的外链,构建了WebText数据集,包含了这4500万个链接的文字子集,移除了所有的Wikipedia文档 (这部分是很多下游任务的数据源,为了避免数据集重叠而影响评估)。在架构上,GPT-2基本保持了与第一代相同的架构,但GPT-2将 Transformer堆叠的层数增加到48层,隐层的维度为1600,参数量达到了15亿。
GPT-2取得了更为优异的实验结果。在8个语言模型任务中,仅仅通过zero-shot学习,GPT-2就有7个超过了state-of-the-art的方法; 在“Children‘s Book Test”数据集上的命名实体识别任务中,GPT-2超过了state-of-the-art的方法约7%;“LAMBADA”是测试模型 捕捉长期依赖的能力的数据集,GPT-2将困惑度从99.8降到了8.6;在阅读理解数据中,GPT-2超过了4个baseline模型中的三个;在法译 英任务中,GPT-2在zero-shot学习的基础上,超过了大多数的无监督方法,但是比有监督的state-of-the-art模型要差。
GPT-4可以接受文本和图像形式的输入,新能力与纯文本设置并行,允许用户指定任何视觉或语言任务。具体来说,GPT-4在人类给定由 散布的文本和图像组成的输入的情况下生成相应的文本输出(自然语言、代码等)。在一系列领域――包括带有文本和照片的文档、图 表或屏幕截图上,GPT-4展示了与纯文本输入类似的功能。此外,它还可以通过为纯文本语言模型开发的测试时间技术得到增强,包括 少样本和思维链。实际应用方面,OpenAI官网给出了7个视觉输入例子:1、描述多张图片内容,发现不合常理之处;2、根据图表,推 理作答;3、看图考试;4、简练指出图片的违和之处;5、阅读论文,总结摘要与解释图表;6、解读人类梗图;7、理解漫画含义。
GPT-4在真实性和有效性方面取得了突破级成果。GPT-4基于对抗性测试程序和ChatGPT得到的经验教训,对模型进行训练运行,当有问 题出现时,基础模型可以以多种方式响应,为了得到用户想要的答案,再使用RLHF对结果进行微调。
2.3、海外玩家之谷歌:谷歌大模型早期发展
2014年1月26日Google收购Deepmind。该事件成为谷歌人工智能新一阶段起点,之后由Deepmind开发的Alphago于2016年战胜人类世界围 棋冠军。 2017年谷歌发布开源的神经网络架构Transformer模型。该模型首次在“Attention is all you need”一文中提出,在论文中该模型主 要是被用于克服机器翻译任务中传统网络训练时间过长,难以较好实现并行计算的问题,后来,由于该方法在语序特征的提取效果由于 传统的RNN、LSTM而被逐渐应用至各个领域。 2018年10月,谷歌发布Bert。该大模型基于Transformer架构,在斯坦福大学机器阅读理解水平测试SQuAD1.1中,Bert在全部两个衡量 指标上,全面超越人类表现。同年OpenAI发布GPT-1,同样基于Transformer架构。
2021年5月18日谷歌在谷歌I/O大会发布LaMDA大模型。LaMDA的全称LanguageModel for Dialogue Applications,是一种能力强大的语 言模型,适用于对话应用程序。 LaMDA经过两阶段训练:预训练和微调,在预训练阶段,谷歌首先从公共对话数据和其他公共网页文档 中收集并创建了一个具有1.56T单词的数据集;在微调阶段,谷歌训练 LaMDA,执行混合生成任务以生成对给定上下文的自然语言响应, 执行关于响应是否安全和高质量的分类任务,最终生成一个两种任务都能做的多任务模型。 2021年5月18日谷歌在谷歌I/O大会发布多任务统一模型MUM。MUM不仅可以理解语言,而且可以生成语言;MUM 同时用 75 种不同的语言 进行了多项任务的训练,使其比以前的模型更全面地理解信息;MUM是多模态的,能够理解文本和图像中的信息。
2023年2月6日,谷歌宣布发布Bard新对话式人工智能技术应用。Bard由谷歌的大型语言模型LaMDA,即对话应用程序语言模型提供支持。 2023年3月21日,谷歌正式宣布开放Bard的访问权限。Bard采用了先进的深度学习算法,具有包括翻译、摘要等在内的一系列能力,并 由大量文本提供支持。与ChatGPT相比,从功能来看,ChatGPT通晓多种语言,而Bard暂时只能进行英文对话;从编程能力来看, ChatGPT能生成大段可用的代码,但Bard的这一功能暂不可用;在生成内容的形式方面,ChatGPT一次只能作出一个回应,而Bard一次性 创建几个不同的版本,供用户从中择优选用。
03、中国玩家:百度发布文心一言,中国玩家快速追赶
3.1、百度:正式发布文心一言
2023年3月20日,百度正式推出百度版ChatGPT――文心一言。其发布时间线:2月7日官宣;13日确认将在3月亮相;截至15日有超百家企业 接入;17日在2023 AI+工业互联网高峰论坛上宣布,将通过百度智能云对外提供服务,率先在内容和信息相关的行业和场景落地;22日,李 彦宏在财报信中表示,计划将多项主流业务与文心一言整合;28日,文心一言新闻发布会定档。 文心一言目前主要展现出五大功能,并带来三大产业机会。其功能主要包括:(1)文学创作、(2)商业文案创作、(3)数理逻辑推算、 (4)中文理解、(5)多模态生成。发布会上李彦宏提出AI时代三大产业机会包括:新兴云计算――MaaS模型即服务;行业模型精调――工 业、金融、交通、能源、媒体等;应用开发――文字、图像、音视频生成、数字人、3D生成等。
文心一言主要由文心大模型提供支持。百度文心NLP大模型主要经历了三条主线的发展:第一、文心ERNIE 3.0以及文心ERNIE 3.0 Titan 模型,在SuperGLUE和GLUE都超过了人类排名第一的水平;第二、文心ERNIE在跨模态、跨语言以及长文档、图模型等方面取得发展,在多个 榜单尤其是视觉语言相关榜单获得第一;第三、生成式对话大模型文心PLATO推动了对话的连续性。 文心一言拥有有监督精调、RLHF、提示构建、知识增强、检索增强和对话增强六大核心技术。其中前三项与ChatGPT的技术十分类似,知识 增强包括知识内化(将知识“渗透”进模型参数中)和知识外用(指的是模型可以直接使用外部的知识);检索增强指基于百度搜索引擎, 先对内容进行检索,再筛选出有用的部分整合输出结果;对话增强指记忆机制、上下文理解和对话规划等技术。
3.2、国内玩家之阿里:通义大模型打造AI统一底座
2022年9月2日,阿里达摩院发布通义大模型系列。该模型打造了国内首个AI统一底座,并构建了通用与专业模型协同的层次化人工智能体系, 首次实现模态表示、任务表示、模型结构的统一。通过这种统一学习范式,通义统一底座中的单一M6-OFA模型,在不引入任何新增结构的情况 下,可同时处理图像描述、视觉定位、文生图、视觉蕴含、文档摘要等10余项单模态和跨模态任务,并达到国际领先水平。 2023年3月,阿里达摩院已在AI模型社区“魔搭”ModelScope上线了“文本生成视频大模型”。目前文本生成视频大模型,由文本特征提取、文 本特征到视频隐空间扩散模型、视频隐空间到视频视觉空间这3个子网络组成,整体模型参数约17亿,目前仅支持英文输入。扩散模型采用 Unet3D 结构,通过从纯高斯噪声视频中,迭代去噪的过程,实现视频生成的功能。
3.3、国内玩家之腾讯:依托太极平台,腾讯发布混元大模型
2022年4月,腾讯首次对外披露混元大模型,完整覆盖NLP大模型、CV大模型、多模态大模型及众多领域任务。该模型在广告内容理解、行 业特征挖掘、文案创意生成等方面具备优势和特色。 混元大模型由太极机器学习平台提供底层支持。2015 年,太极机器学习平台1.0诞生,是腾讯首个涵盖“数据导入-特征工程-模型训练― 在线服务“全流程的一站式机器学习平台;2019 年,太极平台联合腾讯云,打造了三环境(内网/公有云/私有云)统一的“TI-ONE 机器 学习平台”,将机器学习平台能力输出给公网和私有云用户,太极平台服务腾讯内部业务;2022 年,为了解决“广告模型迭代流程
人均薪酬最高66万,说好的银行降薪怎么不见了? 人均薪酬最高的科技上市公司排名
人均薪资,人均薪酬(含社保),平均薪酬过万,人均薪水今天小编来为大家带来的是王慧文与(一流科技)达成并购意向,(中国版OpenAI)吹响集结号让我们一起往下看看吧!
今年的ChatGPT热潮之下,国内人工智能市场的第一起并购已浮出水面。
36氪从多个独立信源获悉,原美团联合创始人王慧文创立的新项目“光年之外”,已经与AI架构创业公司“一流科技Oneflow”(下文简称“一流科技”)达成并购意向,交易将以换股形式进行。
36氪向王慧文、一流科技CEO袁进辉求证,截止发稿暂无回复。
一流科技是一家做深度学习的框架创业公司,成立于2017年。创始人兼CEO袁进辉为清华大学计算机系工学博士,曾任微软亚洲研究院主管研究员。
此前,36氪曾独家报道了王慧文新成立的AI创业公司“光年之外”。互联网大拿押注AI赛道,也让光年之外成了我国AI领域英雄集结的一道奇观:前有源码、真格等基金投资,后有美团CEO王兴发朋友圈宣布个人注资加码。
2月15日,光年之外迎来一位技术骨干――北京智源人工智能研究院副院长刘江,其在朋友圈发文表示加入王慧文的光年之外团队:“将帮助老王(王慧文)打造中国AI大模型梦之队,对标OpenAl,打造中国自己的ChatGPT和基础大模型。”
光年之外和一流科技的合并,意味着王慧文“中国版OpenAI”之路,前进了一步。
训练AI的核心要素包括数据、算法、算力,而本轮ChatGPT热潮的源起――正是AI大模型的出现,而一流科技所在的框架赛道,正处于算力层。
深度学习框架是当前人工智能领域公认的最重要的基础设施软件,相当于AI领域的“iOS”或“安卓”,上承算法和应用,下接硬件芯片。
在底层,芯片对于上层AI框架的适配性并不强,因此到了大规模训练AI的时候,框架不适配将会制约算力。如何让各种算法在底层硬件上跑起来,充分释放底层硬件的潜力,正是框架需要解决的问题。
在全球范围内,主流框架包括Facebook的PyTorch和谷歌的TensorFlow。在2020年国产替代浪潮起来后,中国不少大厂和创业公司,也都在深度学习框架上发布了不少成果。
而从2017年成立以来,一流科技已经推出了可支持超大规模深度学习模型训练的深度学习框架OneFlow,以及供用户使用的AI开放平台OneBrain。
对于大模型创业而言,算力(比如昂贵的英伟达A100芯片)可以依靠资本力量补充;数据可以通过大公司资源获取;算法框架就成了最难获得的板块;而并购一流科技,意味着王慧文想要打造的“中国版OpenAI”,在算法层得到了关键支撑。
除了一流科技以外,3月26日,一位互联网老兵――前美团顾问马占凯就在即刻发帖,表示将加入光年之外。马占凯曾任搜狗公司产品经理,推动立项搜狗输入法并担任产品经理,从0做到1亿用户,被称为是“搜狗输入法”之父。
王慧文的招兵买马还远未结束。数日前,他在即刻中发帖表示,光年之外“目前已确认三个联合创始人,一个Infra背景的联创,一个算法背景的联创,和我。两位联创有着强大的实践能力和业界最前沿的学术研究成果。我们三人都非常兴奋能组队并肩作战……我们期待更多有梦想的技术大牛加入。”
以上就是关于【王慧文与「一流科技」达成并购意向,「中国版OpenAI」吹响集结号】的相关消息了,希望对大家有所帮助!