庆云古诗词

庆云古诗词

gpt4为什么这么强 呼吁暂停训练比gpt4更强大的ai系统

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

gpt4为什么国内不能用,gpt4为什么这么贵,gpt4为什么能写代码,gpt4为什么炒传媒
3月15日凌晨1点,OpenAI正式推出GPT4文本生成AI系统 。相比GPT3.5,GPT4的用户体验大大改进,其功能性和准确度均有不小提高,更被openAI视为里程碑。但是,不足之处仍然存在,GPT4的逻辑推理能力依然有不小的提高空间。
我们依然要冷静,一半天才一半白痴的AI雨人,不会取代底层打工人的岗位,更不能高估GPT4的消费性应用价值。
GPT4真正的优势体现是在全球大国AI 军备竞赛中,GPT4具备分析全球互联网大数据情报的超能力,有人会为此积极买单。
1.GPT4比chatGPT高在哪里?
一是功能高。根据官方介绍,GPT-4是一个多模态大型语言模型,即支持图像和文本输入,以文本形式输出;扩写能力增强,能处理超过25000个单词的文本;更具创造力,并且能够处理更细微的指令。
大型语言模型已经由chatGPT科普过了,如何理解这里的黑话“多模态”?文字输入文字表达即为单模态,现在的 GPT-4可以接收图片输入,使用文字输出的表达,以后还会有视频输入文字输出,这被称为多模态。
多模态比纯文字就是高,与此前的GPT系列模型相比,这是GPT-4最大的突破之一。
不过该功能还没有全面开通。OpenAI创始人Sam Altman当晚在社交媒体介绍称,他们正在预览GPT-4的图片输入模式,以防止可能出现的安全伦理问题。
二是准确度高。
OpenAI表示,新模型产生的错误答案更少,将更少地偏离谈话轨道,更少地谈论禁忌话题,甚至在许多标准化测试中比人类表现得更好。
OpenAI称,该公司花费6个月的时间,利用对抗性测试程序和ChatGPT的经验教训迭代调整GPT-4,从而在真实性、可操纵性和拒绝超出设定范围方面取得了有史以来最好的结果。
官方罗列了一些证据认为,GPT4高级推理能力超过chatGPT。
例如,它在模拟律师考试中的得分能够名列头部10%左右,相比之下,GPT-3.5的得分只能排在尾部10%左右。
OpenAI称,在公司内部的对抗性真实性评估中,GPT-4的得分比最新的GPT-3.5高40%,相应的“不允许内容请求的倾向”降低了 82%,根据政策响应敏感请求(如医疗建议和自我伤害)的频率提高了29%。
不仅是英语,该模型在多种语言方面均表现出优越性。OpenAI称,在测试的26种语言中,GPT-4在24种语言方面的表现均优于GPT-3.5等其他大语言模型的英语语言性能。其中GPT-4的中文能够达到80.1%的准确性,而GPT-3.5的英文准确性仅为70.1%,GPT-4英文准确性提高到了85.5%。
“这是OpenAI努力扩展深度学习的最新里程碑。”OpenAI介绍。
2.不过,AI仍然不可靠。
尽管 GPT4进步不小,但与早期的GPT模型一样,GPT4仍然存在许多不足。
我觉着吧,经过测试可以发现,GPT4在知识的广度、专业和学术表达方面的确表现较好,做到了“一本正经”;但是智商方面,近似于人类小学生,还是常常会“说胡话”,尤其是数理运算公式方面,还没上幼儿园。
这是个明显的弱点。
一半天才一半白痴,这算是人类制造的机器“雨人”。
OpenAI也认识到了这一点 。“GPT-4缺乏对绝大多数数据切断后(2021年9月)发生的事件的了解,并且无法从中吸取经验教训……它有时会出现简单的推理错误,它会轻信用户明显的虚假陈述,有时它会像人类一样在难题上失败,例如在它生成的代码中引入安全漏洞。”
基于此,OpenAI提醒,用户在使用语言模型时应格外小心,最好辅助以人工审查、附加上下文、或完全避免在高风险情况下使用它。
3.这种AI工具对谁有用?
从AI智障到AI雨人,算是整个行业的进步。为此,openAI正在积极推进。openAI正在大举招兵买马,手里有微软送过来的100亿美元新军费,未来十几年不愁资金问题,现在驾驭着微软提供的全球第二算力的微软云,正向全球顶级AI大牛发出橄榄枝。
“随着我们继续专注于可靠的扩展,我们的目标是完善我们的方法,以帮助我们越来越多地提前预测和准备未来的能力――我们认为这对安全至关重要。”
同时,为了保持核心竞争能力,openAI已经对GPT模型完全封锁。在目前OpenAI公开的技术报告或公关文稿中,不包含任何关于模型架构、硬件、算力等方面的更多信息,也不包括期待已久的 AI 视频功能,也并没有GPT4的任何核心技术论文信息。没有人能拿到GPT3.5内部细节,更别奢望现在的GPT4了。
OpenAI对用户开放API接口,你可以调用它,设计自己简陋的APP。但是,你却要源源不断的输送数据,帮它完善模型,提升模型准确度,甚至还要为此主动付费。这真是一门好生意。
鉴于GPT与中文世界一贯的保持了无形的距离,这个距离暂时无法打破;鉴于某些山寨品与GPT4.0差距实在太大,速成品就更没法比了,因此,关于市场应用和投资前景,依然不能着急。因此,你不能天真的以为,生成式AI可能快速改变各行各业,并且可能加强每个人的创造能力与挖掘每个人的新需求,更不能随意看好全球算力+软件栈行业、模型+云计算行业,应用+传感器行业。
GPT4在公开情报分析方面具备超能力,这个能力远远大于搜索引擎,也超过了许多NSA数据武器(论证略),现在解决了多模态问题,无论音视频、图片还是文字,机器人通吃。如果你要分析互联网大数据的秘密,并且发现需要的情报,那么GPT这样的机器人是不是就会很有用处?
不光如此,微软还要把旗下搜索引擎bing与GPT4融合。bing解决了AI训练所需的互联网数据源问题,GPT解决了数据分析输出问题,bing+GPT=new bing……
我想美国政府、情报机构和军方一定会积极买单。他们不光利用聊天机器人技术分析全球情报,还可以偷偷地训练机器人撒谎。
GPT从1.0走了3.5,又从3.5走到4.0,而许多国家还在停留2.0-3.0的水平上,原地不动。
眼下要钱没钱,要人没人,要算力没算力。跟是跟不上了,必须另辟蹊径。


chatgpt推荐书单 用chatgpt快速精读一本书

chatgpt,chatgpt官网,chatgpt是什么意思,chatgpt怎么用

文/徐永倩

务君按:能写文章、编代码,仅用7小时就写成一本书。当人们慨叹chatgpt强大的功能时,它已悄悄“革”了自己的“命”。近日,多模态预训练大模型GPT-4横空出世,与此前chatgpt所用的模型GPT-3.5相比,它的文本处理量扩大至2.5万个单词,还能处理图像内容。在用户同时输入文本和图像的情况下,能够生成自然语言和代码等文本。

打开网易新闻 查看更多图片

越来越智能的chatgpt给内容生产领域带来了新的挑战。当出版业遇到chatgpt,我们的工作和生活会怎么样呢?

OpenAI的首席执行官山姆・阿尔特曼(Sam Altman)也没有想到,一个为了和竞争对手抢夺先机,帮助公司重新赢得行业关注,在两周内“草草赶制”的计划外产品,能浇灭“元宇宙”热浪,成为新一代的科技引爆点。chatgpt收获百万级用户量仅用了5天时间。

事实上,聊天机器人并不是新鲜概念。早在2016年,国内外科技巨头便开始布局聊天机器人领域。在客服和搜索引擎等商业场景里,智能聊天程序更是得到了广泛应用。最后却只有chatgpt能引起全民狂欢。究其原因,还是因为这回人工智能真的动了人脑的“蛋糕”。

严格来说,chatgpt早已不是聊天机器人,更不是搜索引擎。之所以震惊全球,是因为它能做到两件事:理解我们对它提出的要求,同时生成的文本不管内容还是形式都合乎常理。这是不是已经和人脑的某些功能有些类似了?

甚至在某些方面,它能比人脑更极致:chatgpt的“养料”――数据库,只要开发进程仍在继续,其容量突破PB并不是问题(PB:Petabytes,是计算机存储容量单位,1PB=1024TB)。

没有思维,不能思考,但可以撰写文案,完成翻译、写代码等任务。不仅如此,它还能生产出类似图书、论文这种高度浓缩人类智慧的产物。是的,chatgpt能“创作”。

虽然无意,但更加智能的chatgpt确实给内容生产领域带来了新的挑战。纵观出版界,有人热烈欢迎,也有人明令禁止。

担忧和威胁

其中,权威学术期刊《自然》(Nature)杂志明确表态,认为chatgpt和类似的技术工具的发展,对学界透明度产生了极大的威胁。

期刊主编霍尔顿・索普(Holden Thorp)更是直公开表示,“《自然》不会接受语言模型工具以作者的身份出现在杂志上,因为人类作者发布作品后,在收到关注和稿费的同时还要对内容的真实性、准确性负直接责任。我们不可能让AI工具承担这种责任,也无法向其追责。”

同时,期刊在官方声明中也规定,如果学术研究人员在创作论文的过程中使用了chatgpt这类工具,需要在文稿中说明使用详情,否则可被视为学术剽窃。

在《自然》看来,不管是哪种技术正在流行,对科学的研究过程以及相关文字产品的创作过程的方法和依据都是公开透明、有迹可查的。现实是,无论是借助chatgpt进行研究,还是全由chatgpt撰写文稿,知识生产过程中的透明度和信任度根本无法维持。

这也是《自然》一直坚持的原则:学术研究必须要保证方法透明,学术出版物的作者要诚信、真实。这是科学赖以进步的基础。

美国《科学》(Science)杂志则提到,他们与其供稿作者的协议中有一条要求,“登刊作品必须是原创的”,“所以我们不能接受由chatgpt生成的文稿”。“对科学研究尽可能地做出客观记录是人类为解决重要问题所做的努力之一。技术虽然重要,但只是帮助研究学者提出假设、设计实验和理解结果的工具。最终,论文还是要靠‘人脑’独立产出的。”

chatgpt不仅带来了学术伦理问题,其背后还暗藏了许多法律风险。

放射界期刊《放射学》(Radiology) 认为在使用由chatgpt或其他语言模型生成的稿件时,版权问题首当其冲。“如果这些AI生成的文稿被用于商业用途,必须要保证使用时不能侵犯现有的任何版权。如果采用由人工智能创建的放射学报告时引发了医疗事故,也将随之产生归责问题。”

不少出版商还提出,轻易对chatgpt“放行”还会引发著作权和知识产权等侵权行为。

除此之外,chatgpt是基于信息生成文本的,最后呈现的结果不仅和其学习数据库有关,还与训练它的对话模板有关。

其学习模型极度依赖数据库的丰富程度和体量大小,如果学习材料不够多,那它生成的内容容易以偏概全,产生常识性与事实性错误。而且基于其数据库里的观点倾向,还有可能生成诸多暗含极端价值观的内容。而当前版本的chatgpt并不提供任何内容准确性、事实性以及观点倾向性的评估。

现阶段,法律层面还未厘清chatgpt的行为边界,无法准确辨别出有chatgpt“痕迹”的稿件,这成为多数出版机构拒绝chatgpt的直接原因。

在去年年底,美国西北大学展开了一项研究,研究者要求chatgpt根据发表在《美国医学会杂志》(JAMA)、《新英格兰医学杂志》(NEJM)、《英国医学期刊》(BMJ)等行业权威期刊上的精选文章,撰写出50篇医学研究摘要。然后让抄袭检测器和人工智能输出检测器以及医学领域审稿人同时对这些摘要进行识别,并要求医学领域审稿人找出chatgpt编造的摘要。

结果显示,chatgpt生成的摘要顺利通过了抄袭检测器,人工智能输出器只找出了66%的生成摘要,审稿人仅正确识别了68%的生成摘要和86%的真实摘要。

同时高昂的检测成本也让出版机构望而却步。美国科幻杂志《克拉克世界》(Clarkesworld)的主编尼尔・克拉克(Neil Clarke)公开表示,这类AI生成稿件的投稿数量增长得非常快,如果出版社打算用第三方工具来检测出这类稿件,那将是一笔不小的开支。

“而且这些第三方工具也不见得有效,还需要社里调配大量人力核验这些作品。”“无论是时间成本还是资金投入,这都不是一家普通出版社能承担的。”他补充道。

拥抱和狂欢

也有学者提出,出版机构不应将chatgpt视为威胁,可以通过“改造”物尽其用,把它当作更高效、便捷的信息处理工具。毕竟高效地产出更有可能带来高额收益。

国际期刊出版集团康泰纳仕(Condé Nast )的渠道战略全球执行董事莎拉・马歇尔(Sarah Marshall)认为chatgpt在帮助出版界进化。“它确实可以让我们节省很多时间。集团里的每个部门都在尝试如何才能最好发挥chatgpt的能效。毫无编程基础的员工用它生成自动化办公的操作代码。编辑还会用它来翻译国际上的专题文章。它还可以为平台读者提供个性化的阅读建议。”

在他看来,chatgpt并不会让编辑和作者失业,只会让工作流程变得更高效。

BBC内容自动化专家和执行产品经理大卫・卡斯威尔(Dachatgpt)也是积极拥抱chatgpt队伍中的一员。在他看来,chatgpt的背后是新一代生成性人工智能引发的又一场信息革命,“这次的影响力和20世纪90年代初的互联网革命一样猛烈。”

“这种技术就像电一样,不仅非常容易使用,而且产出的内容是能马上投入使用的。这种普遍性和颠覆性足以成为一股扫荡全球的创新力量。”“我们现在也在尝试把汇总文章和简报的工作交给chatgpt,同时采编部和多媒体部也用chatgpt来核查事实、清洗数据、大批量调整图片格式以及制作音视频。”

与部分内容媒体和出版集团还在探索使用chatgpt的最佳方式不同,对亚马逊来说,新的出版方式已经开启。

不少业余作家通过向chatgpt下达简单的提示生成文本块,从而在几个小时内就能完成一本几十页的电子书,并通过亚马逊Kindle平台的自助出版服务直接出售,快速获利。到2月中旬,亚马逊Kindle商店中,在作者和合著者一栏里填有“chatgpt”的图书已经超过200本。而这个数字还在不断被刷新。

就在2月22日,韩国出版商SnowfoxBooks发行了全球首本由chatgpt撰写、AI翻译校对的实体书。出版方披露,chatgpt只用了7小时就完成了《寻找人生目标的45种方法》(45 Ways to Find the Purpose of Life)必要的信息收集和数据研究工作,还用英文撰写了135页内容。之后,出版机构采用智能AI翻译应用Papago,在2小时内将内容翻译成了韩文。

现在在YouTube、TikTok和Reddit等平台上,“如何用chatgpt在几小时内完成一本书”的视频频频登上热榜,并且所生成的图书类别也十分多样,不仅有经管类、生活类,连专业程度较高的开发代码主题也有涉及。

除了一些写作新手在用chatgpt写书,专业作家们也开始用chatgpt写作了。推理小说家詹妮弗・莱普(Jennifer Lepp)直言,自己有7部作品正在用chatgpt进行创作。

“标题、导语,连故事情节都由chatgpt生成。”莱普负责后期的调整润色部分。莱普说,合理的作案动机、严丝合缝的推理过程以及凸显张力和人性的情节脉络,chatgpt完全能胜任处理推理文中这些最具挑战的部分。

同时,在AI的帮助下,她几乎一个月左右就可以写完一本新书。目前她已经出版了26本小说,年收入达到了6位数美金。

虽然,chatgpt回答自己不能替代作家、记者或者编辑,众多测评也验证了现阶段chatgpt生成的文稿缺乏思想性和情感共鸣。但根据其运作原理来看,只要用更充分的模板规范其对话模式和对话内容,并且用人类的要求来调节模型,引导它往人类价值标准上靠拢,chatgpt何时能生成极具创意和情节的小说,也只在于技术更迭的速度。

就像澳大利亚国立大学国家公众意识科学中心访问学者丹尼・金斯利(Danny Kingsley)说的那样,即使当下禁止chatgpt以作者的身份进入某些领域,但未来人工智能将普遍存在于我们的生活中。

一直以来,面对科技发展,人类似乎始终相信,能被机器代替的一定是那些“唯手熟尔”、毫无创造性、没有人文价值的职业岗位。但是当需要发挥创意的工作都能被AI取代时,人类思想该被置于何种地位?人类的价值何在?其实威胁人类的并不是chatgpt,而是其背后的“大语言模型”之潮。

2022年全国出版从业人员收入调查开启!