庆云古诗词

庆云古诗词

gpt-4新变化 gpt-4有哪些进步

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

gpt-4新闻,gpt-4新纪元,Gpt4新闻,GPT4新的工作岗位

原标题:GPT-4验证大模型进阶之路 国产厂商开始迎战

本报记者 曲忠芳 李正豪 北京报道

火爆全球的通用对话机器人ChatGPT,在上线仅三个半月后,迎来了新的“进化”。3月15日,美国人工智能公司OpenAI推出了大型多模态模型GPT-4。相比于ChatGPT使用的GPT-3.5架构,GPT-4不仅接受文本输入――文本输入上限被提升到2.5万字,更重要的是新增了支持图像输出;在律师考试、生物竞赛等模拟测试中,GPT-4的成绩大幅提升。另外,在26种语言测试中,GPT-4的表现也优于GPT-3.5,其中英语的准确率从70.1%上升到85.5%,中文的准确率则达到了80.1%。

OpenAI官方透露,其团队花了六个月时间来使GPT-4更加安全一致。在内部测试中,相比GPT-3.5,GPT-4减少了82%对于被禁止内容的请求响应,而产生真实响应的可能性提高了40%。与此同时,OpenAI联合创始人、总裁格雷格・布洛克曼在视频中还演示了GPT-4诸如总结文章、报税、写代码、作诗等功能。

针对GPT-4的训练数据规模及其用于训练的硬件信息等问题,《中国经营报》记者通过电子邮件联系OpenAI官方采访询问,但截至发稿,暂未得到回复。

ChatGPT被业界称作“大力出奇迹”――通过更大规模数据训练、更强算力支撑、基于人类反馈的强化学习等生成更具通用性、且智能水平前进一大步的模型。那么,ChatGPT、GPT-4及其所验证的大模型之路对国产AI企业有哪些启发?国产厂商该如何抓住新一轮AI机遇?针对这些问题,多家AI企业在接受本报记者采访时给出了自己的回答。

被验证的大模型之路

OpenAI方面表示,GPT-4是其在扩展深度学习领域的“最新里程碑”,是在微软Azure人工智能超级计算机上训练的。截至目前,GPT-4仅面向ChatGPT Plus付费订阅用户使用,开发人员可通过API接口(应用程序编程接口)构建应用程序或服务。但同时,包括语言学习软件Duolingo、跨境支付工具Stripe、视障辅助应用Be my eyes等App已内置GPT-4,此外,国际金融服务公司摩根士丹利、冰岛政府、非营利教育组织“Khan学院”等也与OpenAI在应用GPT-4方面达成合作。

OpenAI方面也表示,“GPT-4仍存在许多已知的限制,我们正在努力解决,如社会偏见、幻觉、敌对提示等。”

需要指出的是,OpenAI最早于2018年6月推出GPT,后于2019年2月、2020年5月分别升级推出了GPT-2、GPT-3,三代GPT的参数量分别为1.17亿、15亿、1750亿,预训练数据量分别为约5GB、40GB、45TB。从ChatGPT使用的GPT-3.5架构开始,OpenAI没有再公开参数量和预训练数据量,本次推出的GPT-4也仅提供了一份98页的相关论文。OpenAI首席执行官山姆・阿尔特曼在推特发文透露“正在开源OpenAI Evals”,这是一款用于自动评估AI模型性能的框架,目的在于收集开发者的建议与意见。

上海人工智能研究院技术总监沈灏告诉记者,ChatGPT印证了大模型是一个比较明确的道路,国内外在行业大模型领域都已做了一些工作,通用大模型会更难一些,但这是比较明确的战略方向。

在北京社会科学院研究员王鹏看来,大模型之所以称之为大,主要涵盖几个要素:一是大模型的运算量基础非常高,能够支撑大量数据运算;二是大模型构造复杂,本身要经过多层次的学习、深度学习;三是牵扯到的系统非常复杂,同时对算力资源的需求高。做大模型,相当于“打好地基”,从国家社会经济长远发展的层面,要想支撑起大的行业、产业,要在人工智能领域实现长足的进步、保持长效的竞争优势,必然要训练大模型。重点推进相关科研攻关方向,具有深远的影响和意义。

“ChatGPT预训练语言模型的出色表现吸引了广泛的关注,吸引了科技大厂的加码布局。不过这里有一个误区,许多人认为只要参数足够多,模型足够大,也能够训练出与ChatGPT水平类似的AI产品,其实不然。如果算法存在差异,或者训练步骤和数据不同,结果可能也不会一样。即使做大模型,也不代表同样的高水平,创新需要差异化,不宜一哄而上。ChatGPT使用的大模型,除了参数高,还使用了微软Azure超级计算机、英伟达先进GPU芯片做算力支持,训练过程中创新性地引入了利用人类反馈强化学习机制,这是许多大模型难以超越它的原因。”深度科技研究院院长张孝荣如是说道。

AI企业的启示与机遇

由ChatGPT引发的新一轮AI热潮持续,包括百度、阿里巴巴、腾讯、科大讯飞等科技大厂都在加码推进自己的通用大模型。多家国产AI企业负责人均向本报记者表示,正在密切关注ChatGPT以及AI大模型的发展及趋势,并思考如何将新的技术突破整合且应用到自身的产品业务中。

其中,3月16日百度正式推出大语言模型――文心一言。百度 CEO 李彦宏在演讲中表示文心一言“不尽完美”,“大家的期望值是要对标ChatGPT,甚至要对标GPT-4,这个门槛还是很高的”。李彦宏介绍,文心一言有五大能力,即文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。此外,李彦宏还表示,内测中文心一言并不完美,但市场有需求必须要推出来。

成立于2016年的天壤智能创始人兼CEO薛贵荣在接受记者采访时指出,早在公司创立之初就搭建了深度强化学习框架,目标是让通用人工智能像水电一样便捷。不过发展期间在市场及业务需求下,自研并落地了包括图像处理、交通、蛋白质设计等多个行业大模型。薛贵荣表示,“ChatGPT使我们更加坚定了做大模型、多模态、强化学习的路径是通的。”

薛贵荣认为,ChatGPT、GPT-4有望加速chatgpt的发展经验,尤其是在生物制药、材料研发、能源等众多领域,作为新的生产工具辅助科研人员进行高效生产,而且随着数据越来越多、智能程度越来越高,在提供专业研究建议的同时还可能主动探索发现新的理论。

虚拟人厂商中科深智创始人兼CEO成维忠表示,GPT-4对虚拟人行业是“天大的好事”。这是因为,未来的人机交互必须是多模态的,尤其是视觉信号的实时输入输出,最新面市的GPT-4解决了图片输入的问题,不久可能会解决视频输入的问题。聚焦在垂直领域生成式AI训练的公司跟GPT-4的结合机会很大。除此之外,成维忠认为,GPT-4对智能客户、视觉识别等行业产生冲击,在这种情况下,“积极拥抱新技术才有出路”。

新壹科技研发副总裁、AI项目负责人陈鹏告诉记者,ChatGPT的出现至少影响90%的NLP(自然语言处理)领域的从业者。从去年初,陈鹏带领团队开始瞄准图文生成视频这一需求,基于既往做小咖秀等视频产品的经验以及业务战略方向,研发推出“一帧秒创”App。陈鹏表示,“我们并不是跟风,而是恰好被AIGC――通过AI技术生成内容的‘大风给刮到了’。”文本视频化、超视频是一个大趋势,传统的UGC(用户生成内容)或PGC(专业生产内容)已难以满足市场需求,通过生成式AI提高视频的生产效率也就成了顺理成章的事情。

四足机器人生产商云深处科技产品负责人向记者表示,ChatGPT、GPT-4代表的跨时代AI的出现给腿足机器人行业带来了进入人类日常工作生活的希望。机器人技术与应用受限于硬件和软件两条线,其中软件层更多地受限于AI技术,随着腿足机器人实体具备越来越强及越来越稳定的运动性能,在结构化行业环境里有了非常多的应用,但要更进一步贴近人类的日常生活及服务,就遇到了AI及交互的技术发展瓶颈。多年来,AI都只有比较固定模式的问答,相对没那么智能。随着GPT-4的出现,腿足机器人有望获得优秀的语义分析和对话能力,将使人机交流不再是机械式的“查字典式问答”。同时,新AI具有积累学习的能力,甚至具备个性,在陪伴、康护、服务领域具备非常重要的意义。值得注意的是,GPT-4增加了图像输入及分析,未来或会接入实时视频、各类传感器等更多输入源,真正意义上的AIoT(智能物联网)将使机器人能胜任更多可能场景和任务。

就在2023年*举行前,科技部高新技术司司长陈家昌公开表示,人工智能作为一个战略性新兴技术,日益成为科技创新、产业升级和生产力提升的重要驱动力量。基于自然语言理解的人机对话是人工智能发展的一个重要方向,ChatGPT最近成为了一种现象级的应用,表现出很高的人机交互水平,表现出自然语言的大模型已经具备了面向通用人工智能的一些特征,在众多行业领域有着广泛的应用潜力。返回搜狐,查看更多

责任编辑:



gpt-4有哪些进步 gpt-4的运用

gpt4有多少参数,gpt-4有用吗?,gpt4有多少神经元,gpt4有什么用

本报记者 曲忠芳 李正豪 北京报道

火爆全球的通用对话机器人ChatGPT,在上线仅三个半月后,迎来了新的“进化”。3月15日,美国人工智能公司OpenAI推出了大型多模态模型GPT-4。相比于ChatGPT使用的GPT-3.5架构,GPT-4不仅接受文本输入――文本输入上限被提升到2.5万字,更重要的是新增了支持图像输出;在律师考试、生物竞赛等模拟测试中,GPT-4的成绩大幅提升。另外,在26种语言测试中,GPT-4的表现也优于GPT-3.5,其中英语的准确率从70.1%上升到85.5%,中文的准确率则达到了80.1%。

OpenAI官方透露,其团队花了六个月时间来使GPT-4更加安全一致。在内部测试中,相比GPT-3.5,GPT-4减少了82%对于被禁止内容的请求响应,而产生真实响应的可能性提高了40%。与此同时,OpenAI联合创始人、总裁格雷格・布洛克曼在视频中还演示了GPT-4诸如总结文章、报税、写代码、作诗等功能。

针对GPT-4的训练数据规模及其用于训练的硬件信息等问题,《中国经营报》记者通过电子邮件联系OpenAI官方采访询问,但截至发稿,暂未得到回复。

ChatGPT被业界称作“大力出奇迹”――通过更大规模数据训练、更强算力支撑、基于人类反馈的强化学习等生成更具通用性、且智能水平前进一大步的模型。那么,ChatGPT、GPT-4及其所验证的大模型之路对国产AI企业有哪些启发?国产厂商该如何抓住新一轮AI机遇?针对这些问题,多家AI企业在接受本报记者采访时给出了自己的回答。

被验证的大模型之路

OpenAI方面表示,GPT-4是其在扩展深度学习领域的“最新里程碑”,是在微软Azure人工智能超级计算机上训练的。截至目前,GPT-4仅面向ChatGPT Plus付费订阅用户使用,开发人员可通过API接口(应用程序编程接口)构建应用程序或服务。但同时,包括语言学习软件Duolingo、跨境支付工具Stripe、视障辅助应用Be my eyes等App已内置GPT-4,此外,国际金融服务公司摩根士丹利、冰岛政府、非营利教育组织“Khan学院”等也与OpenAI在应用GPT-4方面达成合作。

OpenAI方面也表示,“GPT-4仍存在许多已知的限制,我们正在努力解决,如社会偏见、幻觉、敌对提示等。”

需要指出的是,OpenAI最早于2018年6月推出GPT,后于2019年2月、2020年5月分别升级推出了GPT-2、GPT-3,三代GPT的参数量分别为1.17亿、15亿、1750亿,预训练数据量分别为约5GB、40GB、45TB。从ChatGPT使用的GPT-3.5架构开始,OpenAI没有再公开参数量和预训练数据量,本次推出的GPT-4也仅提供了一份98页的相关论文。OpenAI首席执行官山姆・阿尔特曼在推特发文透露“正在开源OpenAI Evals”,这是一款用于自动评估AI模型性能的框架,目的在于收集开发者的建议与意见。

上海人工智能研究院技术总监沈灏告诉记者,ChatGPT印证了大模型是一个比较明确的道路,国内外在行业大模型领域都已做了一些工作,通用大模型会更难一些,但这是比较明确的战略方向。

在北京社会科学院研究员王鹏看来,大模型之所以称之为大,主要涵盖几个要素:一是大模型的运算量基础非常高,能够支撑大量数据运算;二是大模型构造复杂,本身要经过多层次的学习、深度学习;三是牵扯到的系统非常复杂,同时对算力资源的需求高。做大模型,相当于“打好地基”,从国家社会经济长远发展的层面,要想支撑起大的行业、产业,要在人工智能领域实现长足的进步、保持长效的竞争优势,必然要训练大模型。重点推进相关科研攻关方向,具有深远的影响和意义。

“ChatGPT预训练语言模型的出色表现吸引了广泛的关注,吸引了科技大厂的加码布局。不过这里有一个误区,许多人认为只要参数足够多,模型足够大,也能够训练出与ChatGPT水平类似的AI产品,其实不然。如果算法存在差异,或者训练步骤和数据不同,结果可能也不会一样。即使做大模型,也不代表同样的高水平,创新需要差异化,不宜一哄而上。ChatGPT使用的大模型,除了参数高,还使用了微软Azure超级计算机、英伟达先进GPU芯片做算力支持,训练过程中创新性地引入了利用人类反馈强化学习机制,这是许多大模型难以超越它的原因。”深度科技研究院院长张孝荣如是说道。