庆云古诗词

庆云古诗词

头部企业纷纷入局ai制造加速落地 ai制药的主要问题和解决思路

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

ai头部公司,智能头部企业,行业头部企业,工业头部企业

经济观察报 记者 张英 在医药投资圈,人工智能制药领域的热度仿佛又回到了两三年前。

2020年英国公司Exscientia基于AI开发的药物被批准进入临床试验,这是全球第一个由AI设计的分子进入临床。这一里程碑事件让当年国内AI制药领域的投融资猛增7倍至31亿元人民币。也是在这一年,国内AI制药企业晶泰科技获得3.188亿美元C轮融资,创下当时全球AI药物研发领域融资额的最高纪录。

2021年AI制药行业继续火热,国内融资总金额超80亿元。到2022年生物医药全行业遭遇资本寒冬,AI制药领域的投资也有相当程度退潮。

现在,AI制药龙头企业英矽智能CEO任峰观察到,ChatGPT的出现,再次让这一领域站上了风口:

截至目前,国内还没有真正意义上的AI制药上市公司,但资本市场AI制药概念却显得十分火热:一家CRO(医药研发合同外包服务机构))企业成都先导(688222.SH)的股价在3月一路上涨,数次20CM涨停,公司紧急提示:目前AI系公司主营业务和研发的辅助工具,直接贡献的销售额及利润较小,对公司主营业务的发展影响有待观察和验证。

3月24日,晶泰科技出现在港股18C(指港交所为吸引具备发展潜力但尚未满足主板上市规则的特专科技企业而设立的交易板块)潜在上市申请人名单中,也成为了行业热门事件。

3月28日,复星医药(600196.SH)的业绩发布会上,AI也成焦点。该公司董事长吴以芳称复星在AI制药领域探索已超五年,未来将在创新药领域推进AI制药业务。

在一级市场,成立不到一年的AI制药企业呈元科技在3月中旬宣布完成数千万美元pre-A轮融资,获得联想创投、格力产投等资金加持。

“最近许多投资人来跟我们讨论ChatGPT。”任峰说,实际上ChatGPT这样的生成式AI技术早已在制药领域落地应用,其底层算法与ChatGPT的一致。只不过ChatGPT是基于自然语言数据,而目前AI制药技术是基于基因组学等生命科学数据。

任峰期待ChatGPT这一基于自然语言大模型的生成式AI给制药行业带来改变,但目前还未看到很大的实质性应用。

当前全球还没有一款AI药物得到有效性验证。任峰判断行业下一个增长期应该是在AI制药成功通关二期临床试验后,乐观估计大概还需要1-3年时间。

3月27日,中国科技部启动了“人工智能驱动的科学研究”专项部署工作,提出要充分发挥人工智能渗透性、扩散性和颠覆性强的特性,逐步构建以人工智能支撑基础和前沿科学研究的新模式,加速我国科学研究范式变革和能力提升。

角井生物创始人周一鸣将中国生物医药产业与美国的差距比作中国汽车产业与美国的差距,他认为AI制药如同电动汽车一样给了中国一个换新赛道的机会。

专注于人工智能领域投资的沸点资本合伙人马兰表现得较为理性。“AI药物研发领域投资热正持续‘升温’。砸钱堆高了整个赛道的成长空间,目前看很快会挤泡沫,到了自证技术实力的过渡期。”

生成全新小分子:从5年缩短到18个月

医药研发行业是一场时间和金钱高投入的冒险,长期以来面临着“双十定律”,即需要耗时超过10年、10亿美金才有可能上市一款新药。

制药巨头强生的首席科学官Paul Stoffels曾形容,一款新药的成功上市比造飞机更难。

药物研发的流程繁复,在人们所熟知的临床试验之前,研发者的工作包括确认药物作用靶点(药物在体内的作用结合位点)、发现苗头化合物、先导化合物优化、临床前动物实验等环节。临床实验前这些环节的核心任务,是获得临床前候选化合物(PCC,若通关临床试验即等同于药物),PCC分子的确定在新药研发中被视为重中之重,而即使在药物靶点明确后,这一过程往往还需要4-5年时间,其中每一步都有着极高的失败率。

以其中主要难点――海量药物分子筛选为例,《Nature》2017年发表的一篇文章显示,人类可发现的药物分子个数可能是10的60次方,而传统药物筛选办法能够找到的分子数仅约10的11次方,在11次方与60次方之间有一个远未穷尽的大黑洞,这里或许就潜藏着许多新药的可能性。

人工智能被视为探索“黑洞”的有力工具,尤其是生成式AI技术。

英矽智能即将启动临床二期的小分子在研药物INS018_055,就是全球第一个针对全新靶点利用生成式AI生成的全新候选药物。

任峰介绍,在靶点发现上,生成式AI技术颠覆了传统的靶点生物学研究流程。传统生物学研究是从前往后做,先理解靶点生物学机制,再将生物学机制与某些疾病进行关联,而我们是从后往前做,先找到某类疾病患者的基因组学数据跟健康人群间的差异,再回过头去验证。比如在特发性肺纤维项目中,AI技术通过比对分析推荐了将近20个靶点,研究人员对近20个靶点的验证后确定了一个全新靶点。

“特发性肺纤维化这个项目是一个全新靶点,没有已知小分子,只能从0开始。”任峰说,英矽智能研发了一个生成式AI平台Chemistry42,只要给到这个平台有关靶点的结构信息,就可以生成一百到几千个能跟蛋白相结合的小分子。研发人员可以利用特定方法对这些小分子进行筛选,挑出10-15个小分子进行合成和测试,通过测试可发现部分分子有活性、而另外一部分分子没有活性,研发人员再将这些测试数据反馈给AI平台,下一轮会再生成和筛选出10―15个新的小分子。

如此循环优化了6轮,AI所生成的化合物活性越来越好,成药性不断提高,英矽智能在过程中合成并测试了78个分子,最终找到了临床前候选化合物。

从靶点发现,到确定临床前候选化合物这一过程,英矽智能历时不到18个月,研发成本仅为260万美元,而按照传统方式或需耗时数年,研发费用可能是AI制药的10倍。

颠覆大分子:相当于从siri到ChatGPT

在角井生物创始人周一鸣眼中,AI制药的前景不仅在赋能新药开发,而是有可能完全颠覆现有新药开发范式。角井生物与中关村生命科学园携手创建了国内首家AI新药研发公共平台。

与英矽智能专注于AI小分子药物不同,角井生物主攻基于AI技术的大分子药物开发。从全球来看,基于AI技术的小分子药物研发速度快于大分子。目前已有多款AI小分子药物进入临床二期试验,AI大分子药物进展最快的今年2月刚获批临床一期。

周一鸣解释,这种差别主要源于药物研发史上的小分子药物数据更多,便于训练AI模型,而大分子药物研发历史约30年时间,一直缺少高通量湿实验平台(指以分子水平和细胞水平的实验方法为基础,检测仪器在同一时间检测数量庞大的实验样品),积累数据有限,且研发门槛更高。比如美国企业Aulos Bioscience研发的全球首款进入临床一期的AI大分子药物,AI先是设计了约50万种蛋白,接下来试验者用非常高通量的湿实验去验证,从中选一种,导致整个流程的效率不够高。“未来有没有可能不再需要做细胞生物学和分子生物学实验,通过AI计算出来的化合物就能直接进行动物试验?设计50万种蛋白去验证,后面的药物研发人员太累了。未来大分子设计的AI算法必须得颠覆,只设计出100种里选一种行不行?”周一鸣提出了他的目标。

在他眼中,未来的AI大分子制药技术可能实现类似于从siri到ChatGPT的质的飞跃。

他举例说,角井生物当前对大分子药物研发的赋能,是应用AI技术升级置换了两个最重要的传统技术平台:杂交瘤(hybridoma)和噬菌体展示(Phage Display)。用AI赋能单个B细胞测序整体替代杂交瘤技术;在Phage Display技术中,保留Phage(一种噬菌体),用测序+AI的方法替代Display。目前已经应用两款AI赋能的新技术与包括诺诚健华、开拓药业在内的药企展开合作。

“我们正在研发的下一代深度学习算法,可以实现不用做噬菌体和B细胞实验,用AI进行完整替代。这是我们未来一到三年的计划,以AI彻底颠覆整个大分子研发的现有范式。”周一鸣说,现在的AI制药对蛋白质设计实验刚进化到对模式的升级替换,还没实现颠覆。

对于国内外AI大分子制药企业的差异,周一鸣认为主要在生物医药产业大环境方面,大家的技术差距并不大。国外创新药企多、实力强,对AI技术需求大,国内外签订的业务合同额是几亿美元与几百万人民币的差距。不过他也表示,未来随着中国生物医药产业的不断成熟,中国的AI大分子企业会迎来更快速的发展。

壁垒真的存在吗

AI制药概念真的成立吗,一家AI制药公司通过什么打造自己的护城河?

“国内外企业并不存在纯粹底层技术上的壁垒,因为大家都是利用基于神经网络的深度学习技术。”任峰认为,壁垒主要在于后台数据质量和AI算法的优化程度。

一个好的AI模型必须依赖于高质量的训练数据,尤其是在医药这样一个追求高精确度的领域。AI制药公司的数据大多来源于公开的数据库,比如基因组学数据库、医学文献数据等。不过这些数据并不能直接使用,还需要进行数据清洗和格式化。

任峰形容,这些公开数据是一个金矿,AI公司必须依靠数据团队才能把金矿转变成金子。

英矽智能自2014年成立开始便组建了20-40人的团队,专门负责收集、清洗数据,这一过程需要耗费大量的人力物力。目前英矽智能的后台有数十亿个数据点,涵盖超1000万组学数据样本、超4000万份文献专利、34万项临床实验、超300万美金科研基金产生的数据,以及超200万个化合物和分子碎片的结构活性与毒性数据。

他举例说,在用来发现特发性肺纤维化靶点的病人转录组数据上,数据团队必须具体看每个试验的操作方式、试验质量,同时对试验所提取的组织(涉及肺部、血液、上皮细胞等)进行筛选,筛选出肺部组织相关数据,这样才能保证数据的高质量,这一过程需要耗费大量的人力物力。在历史数据量更少的大分子领域,角井生物除了使用公开数据库外,还在自行生产数据,开发了自有的、AI赋能的高通量湿实验平台,低成本高速地产生海量高质量数据。在周一鸣看来,这些自产自有数据为角井开发算法引擎提供了源源不断的“石油”,从而打造大分子药物领域的“新药大模型”。

除了高质量的数据壁垒外,AI算法的优化程度也是企业竞争力的关键。

英矽智能的Chemistry42平台,最初有170多种算法帮助生成化合物,但在多年的项目实践中,研发团队不断用现实数据对算法进行评估和优化,最终优中选优,保留下30多种算法结构,更能生成活性好、有潜力的化合物。

“如果另一家公司想做同样的事情,他可能也得从170多种算法慢慢优化。算法本身没有壁垒,技术壁垒主要是我知道对这种应用场景,哪些算法是适用的,哪些算法是不适用的。”任峰说。

在长期关注AI医疗的投资人熙德资本创始合伙人李秋实看来,除了上述条件外,在AI制药这样一个跨学科领域,有一个既懂人工智能又懂医药生态的复合型团队显得尤为重要。

行业企业明显也感受到这一点,例如在去年角井生物挖来了“懂药的”迟颖。迟颖曾担任阿里巴巴达摩院制药智能负责人,还曾在西门子医疗系统有限公司任中国区AI经理,研究领域覆盖抗体设计、抗原设计、蛋白结构预测、单细胞等大分子药物开发的人工智能技术。

李秋实认为,中国的AI制药企业的起跑线跟欧美在现阶段是站在一起的,都还处于早期发展阶段。但中国在人才方面相较而言存在劣势,现在应该做好跨界人才的培养和储备。

此外,他表示,中国AI制药企业在软件上面的成熟度会越来越强,在芯片等硬件上也应有所准备。部分研发企业对于硬件上可能遭遇的限制进行了提前布局,比如英矽智能将其生成人工智能与量子计算研发中心设立在了中东地区的阿联酋首都阿布扎比。

下一步突破:数据蓝图

AI制药下一个突破点在哪里?不少行业人士认为大数据的规模化开发使用是关键。

一位人工智能权威专家在接受经济观察报采访时表示,在医疗等垂直领域发展大模型的关键在于收集高质量的垂直领域数据,而这也是国内相关产业未来差异化发展的重点。“AI技术发展本身,是由大规模数据集助推的,深度学习最初出现时,有一个包含人脸等各类图像的ImageNet数据集,这个数据集极大地促进了深度学习的发展”。

从AI制药产业界角度看,确实存在对疾病等医疗数据的需求。在任峰看来,由于人种差异,如果要针对中国特发、多发疾病进行新药研发,基于国内疾病数据进行疾病发病机制研究就显得尤为必要。目前绝大部分数据掌握在医院手中,且未连通,处于碎片化状态,未能真正利用起来。

他认为,“在隐私保护前提下,如果能在政策层面对相关疾病数据进行规模化,对于寻找新的靶点有非常好的指导意义,在促进新药研发速度上显得十分必要”。

如何建立一个有效的数据使用机制?目前全世界对于医疗数据的价值化应用也都处于探索阶段。

中南大学湘雅医院教授、移动医疗教育部实验室常务副主任黄伟红表示,鉴于医疗健康数据的敏感性,医疗数据使用机制涉及到数据的管理权、使用权、数据价值评定、数据交易规则、数据收益分配等问题,都需要制定详细的规则。

尤其是在数据价值界定上是一个难题。“即使一个人的医疗数据价值可以界定,但100万人的数据价值怎么计算?期间可能是指数级增长,同时还涉及到安全性问题。”黄伟红认为,短期内实现院内医疗数据的规模化联通和市场化应用还存在难题,不过国家数据管理局的成立可能会对相关模式的探索起到推动作用。

版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-【【手机】】0】。

张英经济观察报记者

大健康新闻部记者关注医疗、公共卫生等大健康领域,报道医疗创新与科技、健康管理与照护、公共卫生事件等。新闻线索请联系邮箱:【【邮箱】】


aigc概念与chatgpt概念的关系 chatgpt对未来行业的分析

agc的概念,什么是aic,ai概念是什么意思,aic,bic

原标题:AIGC产业生态迎来爆发期:一份ChatGPT调研报告

AI技术正在飞速地发展和进化中,而在这股AI发展浪潮中,AIGC这一概念成功出圈,人们逐渐可以借用AI自主生成各式各样的内容或数据。那么,当前AIGC行业发展到了怎样的阶段?其中的关键性应用模型ChatGPT,又有着怎样的表现?

一、AIGC行业介绍及发展趋势 1. AIGC产业生态迎来爆发期

AIGC(AI-Generated Content,人工智能生产内容)最基本的能力是生成内容,包括文本、图像、视频、代码、3D内容或者几种媒介类型转换组合,形成的“多模态内容”。生成算法、预训练模型、多模态等AI技术累积融合,以及深度模型方面的技术创新,共同催生了AIGC的大爆发。

AIGC是相对于过去的PGC、UGC、AIUGC而提出的。过去的传统AI偏向于分析能力,基于已有内容 ;现在的AI基于训练数据和生成算法模型,可以自主生成各种形式的内容和数据。

2022年,AIGC(AI-Generated Content,人工智能生成内容)爆火出圈。

2022年10月,Stable Diffusion、DALL-E 2、Midjourney等可以生成图片的AIGC模型风行一时。

2022年12月,OpenAI发布能够回答问题、生成代码、构思剧本和小说的聊天机器人模型ChatGPT ,将人机对话推向新高度。 目前,从提供预训练模型的基础设施层公司到专注打造AIGC产品和应用工具的应用层公司,围绕 AIGC生长出繁荣的生态,技术创新引发的应用创新浪潮迭起,中国有望凭借领先的AIGC技术赋能各行各业。

2. AIGC市场规模到2025有望达500亿元

在传统PGC和UGC模式下,内容生成领域存在产能约束和质量约束,PGC受制于人力资源的供给侧限制,UGC 虽然降低了PGC的生产门槛,但因用户创作能力和工具 功能的局限存在质量约束。AIGC突破内容生成产能和质量约束,应用广泛,市场规模将会大幅扩大。

根据《中国AI数字商业产业展望2021-2025》报告预测AI数字商业内容的市场规模将从2020年的40亿元,增加到2025年的495亿元

3. AIGC产业生态体系呈现上中下三层架构

目前AIGC产业生态体系的雏形已现,呈现上中下三层架构,第一层为上游基础层,是由预训练模型为基础搭建的AIGC技术基础设施层。

第二层为中间层,即垂直化、场景化、个性化的模型和应用工具。在预训练的大模型基础上快速抽取生成 场景化、定制化、个性化的小模型,实现在不同行业、垂直领域、功能场景的工业流水线式部署。

第三层为应用层,即面向C端用户的文字、图片、音视频等内容生成服务。

4. AIGC落地场景:AI绘画、AI建模、聊天机器人ChatGPT等

2022年被称为AIGC元年,多个AI领域迅速发展,绘画、音乐、新闻创作、主播等诸多行业被重新定义 。目前AIGC正在从简单的降本增效(以生成金融/体育新闻为代表)向创造额外价值(以提供绘画创作素材为代表)转移,文本-图像-视频的跨模态/多模态内容生成正在进展中。

已有的落地场景包括AI绘画、AI建模、聊天机器人ChatGPT等。

二、ChatGPT介绍及发展趋势 1. 文本生成式AI:聊天机器人ChatGPT

OpenAI:由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联 合创始人彼得・蒂尔等硅谷科技大亨于2015年12月创立,主要用于制造“通用”机器人和使用自然语言的聊天机器。

2020年5月, OpenAI 发布了以Transformer为基础的NLP(自然语言生成)预训练模型GPT-3,此前已经历过GPT-1、GPT-2。

2022年11月30日,OpenAI公司发布聊天机器人模型ChatGPT,ChatGPT对GPT-3模型进行微调, 并引入RLHF(基于人类反馈的强化学习)方法。只需向ChatGPT文字提出需求,即可让其完成回答问题、书写代码、创作文本等指令,发布一周内用户量超过百万。

ChatGPT的连续对话能力、强大的理解力、回答的准确度和创造性使其迅速走红。World Of Engineering数据显示,ChatGPT发布短短两个月时间,用户数便突破1亿。具体而言,ChatGPT能理解并生成文字,属于AIGC(AI-Generated Content,人工智能生产内容)技术应用中的文本生成模态应用模型。

2. ChatGPT可能改变搜索引擎使用方式

ChatGPT属于AIGC的范畴,能够回答连续性的问题、质疑不正确的假设,甚至拒绝不合理的要求,大幅提高了AI在人机对话时的准确度和可控性,将有望改变人类使用搜索引擎的方式。

Open AI的CEO称AIGC的最终目标是做一个类似于新时代的搜索引擎。目前ChatGPT展示出来的内容输出质量和内容覆盖维度,已经可以直面“搜索引擎”与“问答社区”。

外媒The Information 报道显示,微软可能在2023年3月之前将ChatGPT引入自家的搜索引擎Bing,用人工智能来回答一些搜索查询,此举或将改变搜索引擎的运行模式,革新性地提升搜索引擎效率。

【【淘密令】】数据2020-2022谷歌全球市场份额超90%,ChatGPT出现将挑战谷歌搜索引擎的霸主地位。

3. ChatGPT已能覆盖较多能力域

由于ChatGPT包含了更多主题的数据,能够处理更多小众主题。ChatGPT能力范围可以覆盖回答问题、撰写文章、文本摘要、语言翻译和生 成计算机代码等任务。

4. ChatGPT具备诸多先进性特征

chatGPT嵌入了人类反馈强化学习以及人工监督微调,因而具备了理解上下文、连贯性等诸多先进特征,解锁了海量应用场景。当前,ChatGPT所利用的数据集只截止到2021年。在对话中,ChatGPT会主动记忆先前的对话内容信息(上下文理解),用来辅助假设性的问题的回复,因而ChatGPT也可实现连续对话,提升了交互模式下的用户体验。同时,ChatGPT也会屏蔽敏感信息,对于不能回答的内容也能给予相关建议。

5. ChatGPT商业化进程加快

微软近日考虑宣布将向OpenAI进行近百亿美元的投资,此前微软分别于2019年和2021年对OpenAI进行投资,若此次投资完成微软将拥有OpenAI 49%的股权。微软对单个100GPU的收费是3美元/时,按照 ChatGPT加载模型和文本的速度,生成一个单词的费用约为0.0003美元;而ChatGPT的回复通常至少有30个单词,因此ChatGPT每回复一次,至少花OpenAI 1美分。微软既能提供钱,又能提供算力。

2023年1月,ChatGPT的活跃用户数或已达1亿,可能是史上增长最快的消费者应用。因访问量过大, OpenAI对ChatGPT进行了大规模限流,包括限制每小时的提问数量,以及高峰时段排队等举措。

OpenAI于2023年2月正式推出ChatGPT Plus版本(率先对美国地区用户开放),收费20美元/月,Plus版 ChatGPT全天可用,无需排队。

6. 国内外科技巨头积极布局生成式AI,部分公司已有成型产品

在ChatGPT发布后,谷歌CEO在公司内部发布了“红色警报” (Code Red),敦促团队解决ChatGPT对公司搜索引擎业务构成的威胁,同时批准了在谷歌搜索引擎中加入AI聊天机器人的计划。2月4日,谷歌注资3亿美元投资ChatGPT竞品――Anthropic,谷歌将获得约10%的股份, Anthropic计划将次轮资金用于购买谷歌云计算部 门的计算资源;Anthropic开发了一款名为Claude的智能聊天机器人,据称可与ChatGPT相媲美(仍未发布)Anthropic和Open AI渊源颇深,其联合创始人曾担任OpenAI研究副总裁。

微软将ChatGPT视为新一代技术革命,将ChatGPT整合进Bing搜索引擎、Office全家桶、Azure云服务、Teams程序等产品中,微软近期宣布推出视频会议及远程协作平台的高级付费版Microsoft Teams Premium,订阅者可享用OpenAI GPT提供支持的大型语言模 型技术,用AI自动生成会议笔记,此举或对Zoom、谷歌会议等平台形成巨大冲击。

百度:1月10日,百度宣布将升级百度搜索的“生成式搜索”能力,智能解答用户的搜索提问;2月7日,百度宣布将在3月份 完成其ChatGPT产品的内测,面向公众开放,该项目名字为文心一言(ERNIE Bot),百度指出,生成式AI和搜索引擎是互补关系而不是替代;据路透社报道,百度计划于 3 月将类似 ChatGPT 的 AI 对话服务作为独立应用推出,之后再逐步将其合并到搜索引擎中。

腾讯:2月3日,腾讯公布一项人机对话专利,能够实现机器与用户之间自然且顺畅的沟通 ,广告为主,支持广告智能制作,以 AIGC技术生成广告文案和视频,降低 了制作成本,目前市场规模快速增长,未来 5 年内 AIGC 产生的图片的占比预计会达到 10-30% 前期可作为UGC和PGC的辅助,帮助广告主设计文案,到后期就是AI技术整体的发展,后期可能是有望代替人工的工作。

字节:已经开始布局,主要是 AI+内容,比如自动生成投稿和辅助写作,在今日头条上利用AIGC生产内容,目前 AIGC 整体的生成质量的内容还是较好的,要好于普通的UGC,但和PGC相比还有所欠缺。抖音方面也有应用,通过 AI 的模式来生成短视频。

阿里、京东等电商类平台:在智能客服领域有布局,其次是 AI+营销,例如阿里巴 巴,可以结合商品,自动生成高质量文案描述商品,提高营销效率 。

三、ChatGPT商业化 1. ChatGPT试点订阅计划

2023年2月2日,OpenAI发布ChatGPT试点订阅计划――ChatGPT Plus,每月20美元 ChatGPT Plus订阅者可获得比免费版本更稳定、更快的服务,及尝试新功能和优化的优先权。

2. 类人聊天机器人

类人聊天机器是一种旨在模拟与用户进行类人对话的电脑程序。它们已被应用于多个行业,包括客户服务、电子商务和娱乐等。

ChatGPT带来的变革:此前的聊天机器人只能根据设定问题 回复固定内容,同chatGPT融合之后,将文本生成、图像生成、多模态转换技术融合起来,环境感知、理解能力在大幅增强,实现和人的形似到神似。基于ChatGPT的类人聊天机器人可以提供客户服务、虚拟代理、内容创意和文本生成、 以及信息知识提供等服务。

1)国外重点企业

openAI:公司核心宗旨在于“实现安全的通用人工智能(AGI)”,目前推出的“ChatGPT类人聊天机器人”火爆全球,其公司在图片生成和视频生成的应用上也有很深的造诣。

Google:公司在AIGC领域布局很久,目前也有“bard”类人聊天机器人的诞生试用,在AIGC的多种技术领 域也处于前列。

2)国内重点企业

百度:是国内布局AI赛道最早的公司之一,目前已宣布“文心一言”类人聊天机器人将很快进入公测环节,图片 生成方面也有突破。

小冰:从微软独立拆分出来的人工智能公司,推出的 “小冰”机器人是目前全球范围内承载交互量最大的人工智能系统。

3 月 9 日消息,在批准通过 BlueMail 应用程序之后,苹果近日再次批准了一款适用于 Apple Watch 的 ChatGPT 应用程序 watchGPT,用户可以在 Apple Watch 上和 ChatGPT 聊天了。

3. ChatGPT+传媒:实现智能新闻写作,提升新闻的时效性

ChatGPT可以帮助新闻媒体工作者智能生成报道,将部分劳动性的采编工作自动化,更快、更准、更智能地生成内容。

  • 2014年3月,美国洛杉矶时报网站的机器人记者【【微信】】,在洛杉矶地震后仅3分钟,就写出相关信息并进行发布;
  • 美联社使用的智能写稿平台 Wordsmith 可以每秒写出2000篇报道;
  • 中国地震网的写稿机器人在九寨 沟地震发生后7秒内就完成了相关信息的编发;
  • 第一财经“DT稿王”一分钟可 写出1680字。
4. ChatGPT+影视:拓宽创作素材,提升作品质量

ChatGPT可以根据大众的兴趣身定制影视内容,从而更有可能吸引大众的注意力,获得更好的收视率、票房和口碑。

ChatGPT可以为剧本创作提供新思路,创作者可根据ChatGPT的生成内容再进行筛选和二次加工,从而激发创作者的灵感,开拓创作思路,缩短创作周期。

ChatGPT 有着降本增效的优势,可以有效帮助影视制作团队降低在内容创作上的成本,提高内容创作的效率,在更短的时间内制作出更高质量的影视内容:

  • 2016年,纽约大学利用人工智能编写剧本《Sunspring》, 经拍摄制作后入围伦敦科幻电影48小时前十强;
  • 2020年,美国查普曼大学的学生利用OpenAI 的GPT-3模型创作剧本 并制作短片《律师》;
  • 国内海马轻帆科技公司推出的“小说转剧本”智能写作功能,服务了包括《你好,李焕英》《流浪地球》 等爆款作品在内的剧集剧本30000多集、电影/网络电影剧本8000多 部、网络小说超过500万部。
5. ChatGPT+营销:打造虚拟客服,赋能产品销售

ChatGPT虚拟客服为客户提供24小时不间断的产品推荐介绍以及在线服务能力,同时降低了商户的营销成本,促进营销业绩快速增长。

ChatGPT虚拟客服能快速了解客户需求和痛点,拉近商户与消费人群的距离,塑造跟随科技潮流、年轻化的品牌形象。

ChatGPT虚拟客服比人工客服更稳定可靠,在人工客服有限并且素质不齐的情况下,虚拟客服展现的品牌形象和服 务态度等由商户掌控,比人工客服的可控性、安全性更强 。

2月10日,京东云宣布将推出产业版ChatGPT:ChatJD、ChatJD智能人机对话平台,预计参数量达千亿级,将率先落地在零售、金融等两个领域。

6. ChatGPT+娱乐:人机互动加强,激发用户参与热情

ChatGPT可以成为线上的实时聊天对象,增加互动的趣味性和娱乐性。

2月8日,悦商集团也宣布将推出类ChatGPT技术的DEMO产品,在微信,支付宝,百度等小程序里应用,进一步完善用户交互体验。并且依托支付宝、微信、百度等多平台生态服务商的身份,悦商集团可快速融合多家互联网巨头推出的类ChatGPT产品进一步完善YCloud系统,为客户打造最前端的技术服务。

YCloud主要面向全球微商行业,致力于为高速增长的灵活就业人员提供数字化服务工具。可以进一步帮助客户缩减人员成本,降本增效,实现用科技助力个体、实体经济发展的目标。

游戏:国内《逆水寒》宣布首个游戏版ChatGPT,玩法加持,为游戏行业普及打下技术基础。据国信证券研报梳理,目前完美世界、昆仑万维、腾讯、网易、世纪华通、三七互娱、天娱数科、汤姆猫、恺英网络、凯撒文化等公司均已布局游戏AI业务。

7. ChatGPT+教育: 赋予教育教材新活力,让教育方式更个性化、更智能

ChatGPT给教育工作者提供全新的教学工具,学生可以通过自主提问的方式快速查缺补漏,让每个学生得到更个性化、更智能的教育。

8. ChatGPT+金融:帮助金融机构降本增效,让金融服务更有温度

金融机构可以通过ChatGPT实现金融资讯、金融产品介绍内容的自动化生产,提升金融机构内容生产的效率。

通过ChatGPT塑造虚拟理财顾问,让金融服务更有温度。

9. ChatGPT+医疗:赋能医疗机构诊疗全过程

ChatGPT赋能优化问诊、治疗、康复等多环节,快速了解患者的病情并给出较合理的及时反馈,通过人性化的方式第一时间抚慰患者,从而舒缓患者的情绪,加速其康复;同时,让医者有更多的时间和精力集中在关键患者的关键治疗环节。

2021年11月开始,九峰医疗在江西省11个地市上百个县城的乡镇卫生院部署了上千家AI工作站。该系统的AI培训模块为基层放射科医生提供教学数据(影像片、标注、影像学征象、诊断建议)。

10. ChatGPT+办公:大幅提升办公效率

ChatPDF:上传PDF文件然后通过问答形式让它帮你检索信息,相当于AI帮你读完了整个PDF文件,你想知道什么直接问它就行,中英文都能支持目前的免费版最大可传200页的PDF,超过了就要用自己的OpenAI API了。

平替版有Humata(humata.ai),功能相同,页数上限是60,2款同时用可以交叉对比,避免错漏。

ChatExcel:北大团队做的,和上面相似,只不过上传的是Excel,然后可以通过自然语言下命令,对表格进行任意调整,调用的是OpenAI专为表格处理做的API服务OpenAI Tabulate。

美中不足的是这还只是一个demo,只支持1MB以内、不超过10列的excel文件,也没有收费选项,局限性很大。

Chat思维导图:

  • boardmix AI助手 https://mp.weixin.qq.com/s/【【微信】】_g
  • https【【网址】】/rain/a/【【QQ微信】】【【微信】】

代码开发:利用 ChatGPT 辅助开发代码,提高开发效率,包括代码补全、自然语言指令生成代码、代码翻译、bug 修复等。

四、ChatGPT相关核心算法 1. 基于 Transformer 的预训练语言模型

ChatGPT 强大的基础模型采用 Transformer 架构,Transformer是一种基于自注意力机制的深度神经网络模型,可以高效并行地处理序列数据。

原始的 Transformer 模型包含两个关键组件:编码器和解码器。编码器用于将输入序列映射到一组中间表示,解码器则将中间表示转换为目标序列。

编码器和解码器都由多层的注意力模块和前馈神经网络模块组成。其中自注意力模块可以学习序列中不同位置之间的依赖关系,即在处理每个位置的信息时,模型会考虑序列中其他所有位置上的信息,这种机制使得 Transformer 模型能够有效地处理长距离依赖关系。在原始 Transformer 模型基础上,相继衍生出了三类预训练语言模型:编码预训练语言模型、解码预训练语言模型和编解码预训练语言模型。

2. 编码预训练语言模型

这类模型在预训练过程中只利用原始 Transformer 模型中的编码器。相应的预训练任务通常选用掩码语言建模任务(Masked Language Modeling), 即掩码住(用特殊字符 [MASK] 替换)输入句子中一定比例的单词后,要 求模型根据上下文信息去预测被遮掩的单词。其中有有代表性的工作包括 BERT,ALBERT,RoBERTa等。

BERT 模型是最经典的编码预训练语言模型,其通过掩码语言建模和下一句预测任务,对 Transformer 模型的参数进行预训练。

ALBERT 是一个轻量化的 BERT 模型,作者通过分解词向量 矩阵和共享 Transformer 层参数来减少模型参数个数。

RoBERTa 相较于 BERT 模型,RoBERTa 在预训练阶段,采用了更多的语料以及动态掩码机制(不同轮次同一样本掩码不同的单词),去掉了下一 句预测任务,同时采用了更大的批大小。

3. 解码预训练语言模型

GPT (Generati【【微信】】rmer) 是由 OpenAI 提出的只有解码器的预训练模型。相较于之前的模型,不再需要对于每个任务采取不同 的模型架构,而是用一个取得了优异泛化能力的模型,去针对性地对下游任务进行微调。包括 GPT-1、GPT-2 和 GPT-3,上图列举了 GPT 若干模型的信息。

GPT-1 在文章“Impro【【微信】】nding by Generative PreTraining”中被提出。在 GPT 被提出之前,大多数深度学习方法都需要大量人工标注的高质量数据,但是标注数据的代价是巨大的,这极大程度上限制了模型在各项任务性能的上限。如何利用容易获取的大规模无标注数据来为模型的训练提供指导成为 GPT-1 中需要解决的第一个问题。

另外自然语言处理领域中有许多任务依赖于自然语言在隐含空间中的表征,不同任务对应的表征很可能是不同的,这使得根据一种任务数据学习到的模型很难泛化到其他任务上。因此如何将从大规模无标注数据上学习到的表征应用到不同的下游任务成为 GPT-1 需要解决的第二个问题。

GPT-1 的结构很简单,由 12 层 Transformer Block(自注意力模块和前馈神经网络模块)叠加而成。针对第一个问题,GPT-1 中使用了自左到右 生成式的目标函数对模型进行预训练。这个目标函数可以简单理解为给定前 i ? 1 个 token,对第 i 个 token 进行预测。基于这样的目标函数,GPT-1 就可以利用无标注的自然语言数据进行训练,学习到更深层次的语法信息与语义信息。

针对第二个问题,在完成了无监督的预训练之后,GPT-1 接着使用了有标注的数据进行有监督的微调使得模型能够更好地适应下游任务。给定输入 token 序列x1, x2, …, xm 与标签 y 的数据集,对模型的参数进行再次训练调整,用到的优化模型是在给定输入序列时预测的标签最接近真实值。

具体来说,GPT-1 在大规模无标注语料库上预训练之后,再利用有标注数据在特定的目标任务上对模型参数进行微调,实现了将预训练中获得的 知识迁移到下游任务。

在 GPT-1 提出之前,自然语言处理领域常用的预训练方法是 Word2Vec在此之后,GPT-1 提出的两步走的训练方法成为许多大型语言模型的训练范式。

从这个角度来看,GPT-1 和 Word2Vec 在 具体下游任务中发挥的作用是类似的,通过无监督的方法获取自然语言的隐含表示,再将其迁移至其他目标任务。但是从更高的层面来看,GPT-1 与以 往的词向量表示方法是不同的,其数据量与数据规模的增大使得模型能够学习到不同场景下的自然语言表示。图 2.1是 GPT-1 原文中的总览图,左侧是 GPT-1 的架构以及训练时的目标函数;右侧是对于不同任务上进行微调 时模型输入与输出的改变。

与 GPT-1 中的通过预训练-微调范式来解决多个下游任务不同,GPT-2更加侧重于 Zero-shot 设定下语言模型的能力。

Zero-shot 是指模型在下 游任务中不进行任何训练或微调,即模型不再根据下游任务的数据进行参数 上的优化,而是根据给定的指令自行理解并完成任务。

简单来讲,GPT-2 并没有对 GPT-1 的模型架构进行创新,而是在 GPT-1 的基础上引入任务相关信息作为输出预测的条件,将 GPT-1 中的条件概率 p(output|input) 变为 p(output|input;task);并继续增大训练的数据规模以及模型本身的参数量,最终在 Zero-shot 的设置下对多个任务都展示了巨 大的潜力。

虽然 GPT-