庆云古诗词

庆云古诗词

ChatGPT为什么不能用 gpt-4与chatgpt的区别

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatGPT为什么不能在国内用,chatGPT为什么不能访问,什么是chatgpt,chatgpt在哪用

观点持续迭代,欢迎收藏

我们判断,如果ChatGPT不犯大错,两年内,整个科技行业甚至人类社会都会被颠覆一遍。倒计时已经开始了。我拍一个两年后ChatGPT能做到的事情以及可能性。 1. 专家级回答事实性的问题(99%) 2. 专家级回答判断性的问题(80%) 3. 每个人的数字学徒(75%) 4. 把编程提效十倍(70%) -- 小团队半年时间就能开发3A级别的游戏 5. 替我打工(50%) 6. 写出一篇这样充满原创知识的文章(5%)这里再打几个比方。这几个比方是尽量准确,而不带误导的。 ● iPhone是人体传感器和功能器官的延伸,ChatGPT是人脑的延伸。只有互联网、浏览器、iPhone等少数发明能和ChatGPT的颠覆性比肩 ● 过去的计算机只能“模拟”,ChatGPT可以“理解”。傻大个突然有了脑子 ● ChatGPT之于过往机器学习,是后膛枪之于弓箭手。意义不在于两者的性能对比,而在于热兵器的时代已经开启,并且发展是加速度的 ● ChatGPT是“自然语言计算机”,是人类调用数据与算力的近乎完美的形态 ● ChatGPT会让“智力分发”的边际成本趋近于零,人力资本的杠杆变得无限大 ● 所有系统与数据库都值得被ChatGPT重做一遍 ● 如果不关注理解能力的构建,ChatGPT的竞品将如东施效颦(【【淘密令】】【【微信】】)。文心一言不值得pay attention但是上述的结论和比方,在看完全文之前,都没什么用,因为我们不知道是真是假。如果对ChatGPT到底是什么不了解,那就只能比谁说话更语出惊人 ,更金句,而不是谁判断更准确,更有洞见。所以我们要花巨大的功夫,写出这篇文章。让大家知道我们知道什么,不知道什么。GPT-4在3.15震撼发布了。但是文中观点、推演、结论不需要任何修改。因为对技术的理解是准确的,对能力范围的理解与推演也是准确的。其实文章并不是对GPT-4和能达到的事情有任何“预测”,而只是“简单推演”。所以就不重新修改了,对比现实,正好能让大家看清楚什么是天天变化的,什么是不变的。哪五个问题?在ChatGPT纪元中,提问题的能力和判断力也许是人类最重要的两个能力。我们这里提出五个关键问题,并且试图抛开网络上的二手观点,做出基于原理的判断。围绕这五个问题,我们会把所需要知道的相关技术背景,尽量简洁,但是尽量无损地总结清楚,不说废话。 1. 是什么:ChatGPT是范式突破,还是过往AI的延伸? 2. 会怎样:ChatGPT两年内会达到什么水准? 3. 行业格局:ChatGPT以及GPT有壁垒吗? 4. 如何参与:我们未来应该如何使用ChatGPT? 5. 人文:人类和ChatGPT的本质区别是什么?对人类社会的冲击?还有一个不需要讨论的重要问题:ChatGPT不会开源的,因为AGI是一个危险品。其他公司很可能出于商业利益开源LLM,我希望OpenAI不要。我们搞清楚这五个问题,就能判断市面上大多数解读ChatGPT的观点,无论从技术、商业、投资,等等角度,是否靠谱了。其实就两个关键 1. 对ChatGPT新能力的认知:这新能力到底是什么,有多大“不一样”?那个“不一样”能带来多少新的可能性? 2. 对“能力获取难度”的认知:ChatGPT如何获得的?别人获取类似能力,难度有多大?文章结尾我们会做一下总结。让你下次见到某大模型,可以判断这是ChatGPT的80%还是0%。也可以判断自己的工作会被ChatGPT取代多少。为什么这样问?最近到处都在讨论ChatGPT,宛如6000点时候的A股,但是对于ChatGPT这样一个人类高科技结晶的新物种,不先搞清楚它“是什么”和“如何牛逼的”,那就没有办法形成自己的判断。没有自己基于原理的判断,看ChatGPT就像看元宇宙、Web3、自动驾驶一样,觉得好像牛逼,也有一套看似自洽的逻辑,以及振聋发聩的“洞见”,其实只能被别人牵着走。搞清楚ChatGPT“是什么”和“如何牛逼的”是一件困难的事情,因为最顶尖的人工智能大佬们也没有达成共识。比如Meta的AI负责人,深度学习三大佬之一的LeCun就不看好,认为这就是个基于auto-regressive(自回归)的LLM(large language model,大语言模型),从方法上来讲没有啥范式突破。只是因为OpenAI是个创业公司,大家宽容度比较高,ChatGPT在乱说话,大家也能容忍。另一面,ChatGPT的火热就不说了,比如特斯拉的首席AI科学家就选择回到OpenAI,共建AGI(artificial general intelligence,通用人工智能,也是OpenAI的追求目标);Meta的VR创始人卡马克选择离开Meta,自己开一家AGI公司。另外一篇文章截取了大佬们的赞誉

神奇的点就在于,双方也许都是对的。ChatGPT的确不是一个“新的模型”,而是即有模型的发展与组合;但ChatGPT又足够不一样,让包括我在内的很多AI相关的从业者,有第一次见到光的感觉。我们第一章会花大篇幅去讲一下为什么ChatGPT的原理是填词,但它的新能力却远远不是“填词”而已。技术插播:“自回归”“大语言模型”是两个关键词 ● 自回归的意思是,我先用模型预测下一个词是什么,然后把预测出来的词带入模型,去预测再下一个词是什么,不断迭代。这是过往语言模型的通用范式。也能让各类语言类任务统一成“生成式”任务 ● 大语言模型的大是指海量参数,从而能吸取海量数据中的信息。这是在transformer模型之后成为可能的。大语言模型本身也值得技术科普一下,我们在第一个问题中展开开头:ChatGPT的最基本版历史开始问问题之前,有一些必要的技术科普。我们着重参考两篇综述,尽量抓重点: 1. 大语言模型技术精要(链接) 2. ChatGPT的各项超能力从哪里来(链接)第一份综述主要讲了大语言模型发展中的关键技术突破,第二份综述主要讲了ChatGPT发展过程中的几个重要模型“做到了什么”和“有什么与众不同的做法”。我们把两篇文章的重点挑出来,标注一下里程碑事件,和其意义。

事件意义
Transformer问世 让深度学习模型可以“自由吸收”数据中的知识大语言模型突破了参数和算力限制,从此语言模型也进入参数越多,数据越大,模型效果越好的时代。
LLM内战,逐渐吊打老NLPGoogle的Bert路线和OpenAI的GPT路线各有所长GPT通过“自然语言生成任务”,兼容了几乎所有NLP问题;但是Bert比GPT2表现好。此时大语言模型已经开始吊打传统NLP模型了
GPT3问世展示in-context learning能力,简单调教下就能吊打精调过的很多模型一方面让GPT模式初现一统江湖的潜质,一方面GPT3的 in-context learning能力,展示了和过往ML的fine-tuning模式的本质区别,我们在下面单独详细展开
- InstructGPTChatGPT的交互模式,让GPT的能力,更加贴近人类真实交互方式在in-context learning基础之上,进一步降低了prompting的门槛;一定程度解决了GPT-3生成结果与用户期望不一致的非预期输出,大幅降低了有害的、错误或偏差的输出结果,让GPT更符合人类胃口
- GPT读代码代码训练能力的提升是GPT3到GPT3.5的重要迭代之一,模型可从而可以生成代码和理解代码Codex模型读了大量代码,之后的GPT3.5模型涌现出了“乌鸦”的能力(第一问详解)。不光能读懂和生成代码,对语言本身的理解和推理能力也解锁了
- RLHFChatGPT背后的核心技术之一,让模型学习人类的偏好全称是reinforcement learning from human feedback,通过构建人类反馈数据集,训练一个reward模型,模仿人类偏好对结果打分,是GPT-3后时代LLM越来越像人类对话的核心技术
ChatGPTInstructGPT的亲戚,但一些优化方式也带来了ChatGPT的更泛化和准确能力,再次引爆了AIGCChatGPT总体来说和InstructGPT一样是使用RLHF进行训练,但模型是基于GPT3.5,而且数据设置上也不同。ChatGPT是一个输入,模型给出多个输出,然后人给结果排序,让模型可以学习人类的排序策略,即使是一本正经的胡说八道看起来也很合理的样子。

这里面再强调一个关键点。GPT-3之后,很多能力是“涌现”的。即不是线性发展,可预测的,而是突然就有了。至于这对于OpenAI的人是早晚会发生,还是完全未预料,我们就不知道了。这几个“涌现”出的能力,尤其是“乌鸦”的能力,是ChatGPT和过往AI的范式不同,也会是我们这次讨论关注的重点。“涌现”也是大语言模型很神奇的一点,这些能力我们发现模型随着数据量和模型大小的提升,就突然具备了,但是我们对这些能力怎么出现的,只有猜想,没有共识。这篇文章有一个比较全面的总结和比较。下图是GPT-3到ChatGPT的演变历史

如何分辨真假ChatGPT结合上面的图和表格,我们简单梳理一下: 1. GPT-3是一个非常令人惊艳的LLM,这个两年半前的播客有当时early-adopter的视角,但GPT-3还勉强属于“量变”,到现在,也不是最厉害的LLM 2. GPT-3.5通过InstructGPT的模式 + 阅读代码,涌现了“乌鸦”能力,产生了质变。但是还没找到合适的应用界面,也不符合人类喜好 3. ChatGPT在RLHF的帮助下,找到了GPT-3.5和人类自然语言的合理接口,解锁了模型应用的前景

各LLM能力涌现路径所以我们要记得,厉害的模型是GPT-3.5,厉害的应用方式是ChatGPT。应用方式相对很容易复制,RLHF有难度但也不太难,真正难的是“乌鸦”能力的复现。如果我们要关注能不能做出来ChatGPT,要关注的是各家LLM离GPT-3.5的“乌鸦”能力有多远,在一个没有乌鸦能力的LLM上套一个ChatGPT的应用方式,只是东施效颦,但估计也是国内各个公司会普遍采用的方法。这里说“应用方式相对容易复制”,但是不意味着这个应用方式不够颠覆。iPhone出现时,很多人也只是觉得没有什么颠覆技术,只是个不错的集成方案。但那些人没看到的是,iPhone是第一个“为了适应人而设计的智能手机”而非“为了解决问题而设计的智能手机”。iPhone的交互方式和各种传感器,让iPhone慢慢变成了人类的身体的一部分,一个带来更多信息,高效交互的器官。ChatGPT已经接近人类调用算力和数据的最终极形态了,其应用方式本身当然是足够厉害的。我们在第二问,ChatGPT会取代哪些工作里,详细展开。这里也牵涉到了一个重要的题外话,我们在讨论中发现,很多资深AI从业者,如果不去深究LLM的细节,而是用过往经验猜想ChatGPT的能力来源时,会产生严重的错误理解。我们总结了一下,发现这误解大概是发生在in-context learning和instruct这一模式,和过往模型调教有什么区别上。尤其是对“fine-tuning”这个词的理解上。这里就单独展开一下。重要的题外话 -- AI从业者为什么对ChatGPT有错误理解?过往的NLP模型是按照具体任务和具体数据来训练的。所以数据质量越好,模型效果越好。而且最好只有正确数据,没有错误数据。大语言模型有一个重要不同,是“数据越多”越好,而数据质量变成了重要,但稍显次要因素。在一开始,大模型想要在特定任务上取得较好效果,也需要那个领域的具体数据去“fine-tune”一下。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,调节一下模型的权重,从而输出恰当的结果。这和过往模型的范式是差不多的。这样的应用明显非常有局限。每做一些新的事情,或者数据分布有明显变化,都要重新训练一遍模型。而新事情和新数据无穷无尽,模型就只能刷新。但是模型的刷新也可能导致过去做得好的事情突然做不好了,进一步限制了应用。而GPT-3涌现出的in-context learning能力(现在其他大模型也有,比如Google的PaLM,同时不确定GPT-3是第一个涌现的,希望得到指正)和上述范式有本质不同,“过往的fine-tuning”需要更改模型参数,也就是说,换了个新模型。但是in-context learning,模型并没有变化,却能在新数据上表现更好。研究甚至发现,你给大模型一堆范例,只要对应关系整体是对的,这时候改变具体对应的顺序,大模型仍然能输出正确的结果。这真的很神奇。再重新强调一遍,模型没有变化,没有被重新训练,但是能“理解”新数据,并且表现更好!

接下来还有更神奇的。在GPT-Codex版本解锁了推理能力,以及InstructGPT提出了instruct这一方法,他们合体的ChatGPT在in-context learning的基础之上,展示出了具备理解、推理、演绎能力的样子。我们在下一章详细展开。节省篇幅,虽然能力是在GPT-3.5上涌现的,我们接下来都说ChatGPT了。一个重要的关系图

我做了一副图来表示他们的关系(3.16迭代成V2)。注意几点 ● 过去的ML的“fine tune”,“数据飞轮”,本质是为了迭代模型本身,用新模型解决新问题 ● 而pre-trained大模型的关键思路是用大模型来解决所有问题。模型本身不变化 ● 虽然InstructGPT和ChatGPT改变了大模型的参数,但是 ○ 是「加工」,而不是「迭代」 ○ 是「激活」了GPT-4的部分能力,而不是「赋予」GPT-4任何新能力 ○ 是人类偏好「对齐」,而不是去「训练」GPT-4 ● New Bing是「基于ChatGPT范式下」做到的。我们对ChatGPT颠覆能力的绝大多数推演,仅来自于「把给New Bing的接口开放给公众」。甚至都没讨论其他突破的可能性 1. ChatGPT是范式突破吗?

机器学习发展了这么多年,遵循同一个范式。哪怕2016年大火的AlphaGo,也完全没有脱离这个范式 -- 鹦鹉学舌。1.1 过往机器学习的范式 -- 鹦鹉学舌机器学习,包括深度学习,所遵循的范式是“data fitting”,即找到数据中的“对应关系”并应用。具体来说,就是Y=f(X),给定一些优化目标,机器学习寻找X和Y的对应关系,来优化一个特定的方程。对应关系找得好,让我们在见到一个未知的X‘的时候,也能根据规律,总结出Y‘是什么,能最好达到设定的目标。从信息论的角度,这样的范式,所能总结的规律,应该是在“已有X所包含信息的范畴之内”。换句话说,遇到一个新的X‘,虽然没见过,但是应该和过去的X长得差不多。用图像识别举例,如果模型只在小狗小猫的数据上训练过,是无法区分马车和汽车的。这就很像鹦鹉学舌的机制。鹦鹉是不知道那段话的意义的,它用自己的方式去理解了这个发音,并且模仿了出来。计算机能更加精准地进行控制和编程,配合其他模块能力,就能让“寻找对应关系”这个能力,发挥更大作用,比如 ● 图像识别 + 搜索,就能高效找人 ● 【【淘密令】】 + 用户数据收集,就能高效推荐 ● 把游戏规则恰当转化为优化方程 + 问题的局部抽象 + 自己生成对局训练,就能下围棋举例:推荐算法的原理 ● 想象一个矩阵,横着是不同的人,竖着是不同的短视频,格子里是这个人对这个短视频的兴趣指数,我们要想方设法填满这个格子,给每个人推荐最感兴趣的短视频 ● 核心问题是在每个人都没看过99.9999999%短视频的情况下,这题怎么解 ● 有很多种方式,传统的运营、策略,也是一些方式。现有算法的主要做法是 ● 1. 把每个视频抽象成特征 ● 2. 把每个人抽象成特征 ● 3. 通过特征对特征的方式进行泛化和填表,如果用人来理解的角度,可能是 ○ 中年男人喜欢看钓鱼(内容+画像推荐) ○ 你同事们喜欢看老板点赞过的视频(关系链) ○ 看过AB的人喜欢看C(collaborati【【微信】】) ● 但是记得,模型抽象出来的特征是适合机器理解,而不是适合人类理解的。用人类能描述的方式去描述机器的优化,注定是降低效率的由此可见。过往AI应用的拓展主要是来自几点 1. 高质量的数据,模型的发展,算力的提升,让模型越来越准、快、和发现更多更深的“对应关系”,能进行更好的优化 2. 更好地把商业问题转化为优化问题 3. 和其他能力的深度结合但是这些都是基于“鹦鹉学舌”这一范式的。过往的NLP(natural language processing,自然语言处理)就是一个很好的例子。发展了那么多年,语音助手能根据指令来达成一些目标,但是从来都没有真的“懂”那些指令。过往的NLP只能做“填表”,必须背后有一个人设定好具体的任务,规划好如何把语音或者文字形成固定的function,该function如何调用相应的能力。如果没有人提前规划,那模型就无法实现。这篇文章总结的非常好,这里就不赘述了。 ● 亚马逊Alexa的思路和大多数商业语音助手的思路就是招一群程序员来写【【微信】】,高情商说法是针对具体使用场景做深度优化。这里有总结 ● 谷歌的思路是用一个大模型做底座,一堆小模型做输入,另一堆小模型做输出。这条路也遇到明显瓶颈归根结底,离开了“懂”的能力,鹦鹉的设计师,是很难穷尽世界上所有的语言应用组合的。说这么多,是为了告诉大家,“懂”这件事,是过往AI梦寐以求都想突破的瓶颈。我在这期视频里有总结,为什么让过去的“人工智能”推荐一个餐馆,比下围棋赢世界冠军,难的多的多。

“懂”字,如果深究的话,会发现大家对它的定义其实存在很大分歧。我如果让狗狗伸手,狗狗伸手了,是“懂”吗?过去NLP的懂和ChatGPT的懂,又有什么区别呢?同样的问题存在其他词汇中,比如理解、推理、演绎、创新,等等。所以想要真的抓住ChatGPT新能力的本质,描述就要更加精确和具体。正好,华人最厉害的AI学者之一,朱松纯教授,在2017年有一篇思考人工智能和智能本质的文章,开篇所举的例子,就非常深刻、精确、具体地抓到了这一本质。我这里复述一下。这篇文章80%的价值,可能就在这一个例子上。1.2 ChatGPT可能的新范式 -- 乌鸦下面是原文,介绍了乌鸦是如何“感知、认知、推理、学习、和执行”的:

总结一下,城市中的乌鸦通过观察,自主串通了 ● 汽车能压碎坚果 ● 红绿灯能控制汽车 ● 车能撞死我这三件事情,从而利用红绿灯和汽车,来帮自己达到“安全打开坚果”这一任务结果。如果类比成机器学习模型,过往“鹦鹉学舌”范式的解法,是要求所有乌鸦可以共享一个大脑,它们有很清晰的优化目标,即“保住性命的前提下打开坚果”。它们的方式是,随机尝试所有事件的组合,并向着最优解的方向不断演化。但现实世界的乌鸦无法共享大脑,也不能去冒着死亡风险去尝试所有可能。乌鸦只有一次机会,把观测到的两个现象,产生了一个新的可能性,并应用在一个全新的场景下。这里最接近的词汇可能是“inference”,是“基于证据和逻辑推演,得到结论”的过程,有的时候,还要加入很多猜测、抽象、泛化。举个例子,这篇文章把朱教授对于乌鸦的比喻,跟ChatGPT最本质的能力联系起来,就是在做inferencing这件事。但很明显,inferencing不是乌鸦智能的全部。而且在机器学习领域里,inferencing特指使用训练好的深度学习模型来预测新的数据这一件事,会产生误解。其他词汇也有类似问题,所以我们在自己文章里,会直接使用“乌鸦能力”来指代ChatGPT的新能力。在对外交流时,我们没办法每次都把乌鸦能力是什么解释一遍,所以我们会用“理解”能力来进行指代。从“乌鸦”到“理解”,当然是一个信息量损失很大的过度概括。但是好处是可以把ChatGPT的本质能力凸显出来。过往互联网的两次能力跃进一次来自于搜索,一次来自于推荐,现在ChatGPT带来了“理解”,也非常有结构感。

1.3 ChatGPT看似拥有乌鸦能力的证据之所以说“看似”,是因为我们并不知道乌鸦为什么会有和鹦鹉不一样的能力,我们也不完全知道LLM为什么会有“乌鸦”的能力。甚至朱教授本人在AAAI 2023上明确说了,不认为LLM/ChatGPT具备乌鸦能力,而是一只巨鹦鹉。

这个观点是我和朱教授/LeCun不一样的地方。我的观点是,我们未必要“理解原理”才能做判断。换句话说,我们并不知道乌鸦为什么有“智能”,不知道人类为什么有“智能”。我们哪怕确定自己有智能,也不知道对面那个人是不是真的有智能,而不是一个模拟的NPC。这是一个贯穿哲学史上的「他心问题(The problem of other minds)」,这里有延展阅读,我就不过度展开了。总之,哲学家告诉我们,我们在现实生活中永远无法真的确认其他人是否有智能,但是不妨碍我们生活。所以纠结LLM是否真的有智能,很可能不重要。我们知道的是,1)LLM激活“智能”的方式一定与人类和乌鸦不一样;2)人类智能也是受到语言限制而非与生俱来的。所以我们不把话说死,只说看似拥有,不确定真的拥有。为了节省笔墨,我们接下来就不说“看似”了。我的结论停留在,ChatGPT从表现上来看,具备了一定程度,但远超过往ML范式的智能,我们注意到这个智能的局限性,但也应该在没有搞清楚原理的情况下,积极探索这个智能的应用可能性。接下来的这几点感受,让我很明显感觉到了ChatGPT的“乌鸦”能力 ● ChatGPT拥有in-context correction的能力,即如果说错了,给出矫正,ChatGPT能“听懂”错在哪儿了,并向正确的方向修正。in-context correction要比in-context learning难了太多 ● 描述越详细清楚,ChatGPT回答得越好。要知道,越详细的描述,在预训练的文本里越难匹配到 ● 能通过Winograd测试(讲解

● 在询问ChatGPT互联网上并不存在内容的时候,能给出较好答案(案例:我用ChatGPT学UE5) ● ChatGPT能通过信息猜你心中的想法(案例:跟ChatGPT玩20 【【微信】】) ● 你可以制定一个全新的游戏规则让ChatGPT和你玩,ChatGPT可以理解前两点是本质,后三点是体感。回过来对比过往NLP模型范式如何能达到类似效果,就能看到ChatGPT的神奇之处。过往模型一定需要针对具体的问题进行具体设计,而且只要说的话稍稍不够“结构化”,模型的表现就很难保证,更别提在模型资料库里,没有出现过的问题了。如果认为ChatGPT范式创新的本质是乌鸦能力,那就应该想办法像图灵测试一样,有办法去定义和测量这一能力。我承认,这里的思考和条件还不够成熟。这是个重要问题,我会认真思考下去。1.4 打比方时间到把该说的细节说清楚,我们现在可以稍负责任地打比方,方便各位老板帮助别人快速了解了。虽然朱教授关于鹦鹉和乌鸦的比方是最精确的,但毕竟人不是鹦鹉和乌鸦,鹦鹉和乌鸦的能力到底有什么区别,也需要一番解释,我们还是打一个“人”的比方。我们可以继续用“鹦鹉”来理解过往的ML,只是这只鹦鹉记忆力和检索能力都特别强,而且有自己的一套理解事物对应关系的方式,让你给他看足够多东西的时候,TA就能找到对应关系。所以你给TA看的东西越多,离你的目标越近,TA的表现越好。问题是TA其实完全听不懂你在说什么,你没教的TA也不可能会。ChatGPT是一个“开窍”之后拥有“理解”能力的人。理解能力带来了举一反三的能力,逻辑推演的能力,“知错”就改的能力。所以说,我们如果用人去类比ChatGPT,问题也不大。提炼对比一下的话 ● 过往ML:需要“喂”,之后“模仿”,基于的是“对应关系” ● ChatGPT:需要“教”,之后“懂”,基于的是“内在逻辑”后者的能力上限和应用空间,比起前者岂止百倍。这也是为什么大家如此兴奋焦虑。兴奋是因为可能性,焦虑是因为目前只有OpenAI一家做出来了ChatGPT,而且并不开源。如果ChatGPT如此重要且牛逼,但所有人只能基于ChatGPT做应用的话,每个人都要重新考虑自己的商业模式了。这两个问题都属于“猜想未来”,一不小心就会变成科幻小说,我们基于事实和底层理解,用科学的方式去尽量负责任地推演。 2. ChatGPT两年内可能达到的上下限是什么?

通过Prompt催眠ChatGPT,让它突破OpenAI的政策限制2.1 比方 ● 对比过去的技术:过往模型是弓箭,ChatGPT是后膛枪。我们在观望马克沁什么时候出现。后膛枪也许一开始打不过弓箭,但是是热兵器迟早会淘汰冷兵器 ● 对人类的作用:ChatGPT是不断迭代的交通工具。是需要驾驶员,但是能跑多快,跑多远,取代多少“人力运输”,确


chat gpt支持哪些地区


大象新闻特派张家界记者 关新耀 张子琪/文图4月8日,张家界天门山景区四人跳崖事发已是4天后。一名死者的亲友透露,警方表示这4名死者通过群聊的方式沟通策划,其中一名死者是带头人。大象新闻记者了解到,这四人均来自不同省市。其中张某某籍贯在福建,此前在广东打工;彭某某籍贯河北,此前在南方各个省市打零工;陈某籍贯在四川,此前在佛山打工;年龄最大的刘某某,也在南方打工。除彭某某未取得联系之外,其余三名死者的家属告诉大象新闻记者,死者遗体已经火化,分别由家属带回老家安葬。重返现场:涉事玻璃栈道已恢复开放4月8日下午