chatgpt-4.0教程 chatgpt可以用汉语对话吗
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
现在全网都在为ChatGPT-4欢呼,值得吗?确实值得,因为它多有惊艳的表现。
但ChatGPT的算法集本身决定了它的局限性,这即使与人的心智的表象比较也相差甚远。
基于英语的测试已经很多,ChatGPT基于汉语的测试要弱一些,但我们发现,在很多比较难的问题上,它表现并不弱,这还是大模型的老问题,对于常识的处理,它反而容易翻船。
废话少说,直接测试:
我们的问题是:给出上下结构,下为玉的汉字。
what?
丫没理解啊!
再给它一次机会(它有输出不同选择的能力)
看来真没理解题意,需要提示下了。
正确吗?显然捣浆糊。
给出了一个提示词:壁,上下结构,下为玉的汉字。
同时,它不能“理解”汉字左右结构和上下结构的这个常识。(英文里没有类似概念,对于按英文语料的NLP泛化确实有点勉为其难?希望文心一言能有这个简单常识)
提示+鼓励,继续
*病,以左右结构代替上下结构,它分不清这个概念。
测试员失去耐心。
认错快,但没用,ChatGPT继续保持绅士风度。
确实有点蠢!
现在用New Bing 来测试同样问题,NB(这缩写很讨喜啊!)基于ChatGPT-4的技术(但据说也没完全开放给NB)
这个微软Bing 博客也有说明:
ok,下面开始测试!
问题:上下结构,下为玉的汉字
NB啊,精准!不得不赞!
同时,给出了更高要求,要它再给出五个这类汉字:
本希望是它能给出这类:t(xǐ),C(yī),T(dàng),(liú),](shèng)
但它输出了这些:
于是,测试员开始纠正它。
下为玉,不是王
它却输出了左王的选择
测试员再纠正它:汉字的下面是玉,如玺这种类型
它坚持左边输出王的选择
测试员明确再次明确告诉它:你这个不是玉,而是王,是错误的举例,请再次举例。
输出结果
显然,它确实分不清汉字的上下结构,以及王与玉了!(小孩子看一眼就能识别并理解它们的区别---人类心智的模式不同!)
想起了一个很老的梗:叫一些外国留学生上台识别汉字:己、已、已,结果,当场晕倒了几个。(确实有难度?)
测试员揶揄了一下它,它有点“生气”了,当场锁死(停止问题)
太偏执了!
不要神话ChatGPT,它的愚蠢与聪明并存。
不要神化机器,与强大的人类心智相比,它们的理智输在理智模式的基因上。
但据说ChatGPT-5已在襁褓中生长了,未来如何?我们暂且不知。
chatgpt的发展趋势分析 chatgpt通俗说法是什么意思
chatgpt官网,chatgpt是什么意思,chatgpt国内能用吗,chatgpt怎么读最近中文互联网上最火热的莫过于ChatGPT。人们都在谈论这个东西是多么“划时代”的产物。过去对AI不成气候的论调也看不见了,主流媒体似乎都在说:牛。不少大厂说自己也要“下海”参与布局与竞争,即使他们才不久刚ALL in 元宇宙。AIGC似乎是PGC、UGC的下一个大蛋糕。
该技术在22年11月底就推出了,但并未在当时引起太多关注(当然也和大家都急着囤药有关)。去年十二月份左右,即有技术论坛谈论到此事。不过大家讨论的并非它有多牛,而是关注的它带来了多少“垃圾内容”。新的“内容农场”的论调随处可见:假话空话以及语义不明的文本内容占据高的SEO,污染各种可见的搜索结果。Stack Ochatgpt发表声明称:将会拒绝这类生成的答案在论坛中出现。随后,更多论坛也发表了类似的声明。
谁可想,三个月不到,该产品便火爆中文互联网出圈。
就像是各类引爆点事件一样,你永远无法准确预测哪些事情会被广泛传播,只能事后诸葛亮分析一波。从最快达到1亿用户数的产品;到谷歌下场表演失利,市值蒸发。这类资讯,前者挑动大众市场,后者让各类科技公司如坐针毡。在“营销”传播方面,赚足了眼球。
产品设计上也不输。如果从游戏的视角来说,ChatGPT其实是提供了足够多的可玩性。无论是用户的可玩性,还是开发者的可玩性。用户可以问各种想到的问题,还可以和它做角色扮演游戏。开发者能够很轻易地就API接口进行二次开发,满足特定领域的需求。足够好玩+确实有用,是其核心竞争力。
在19年我还写过一篇关于它的文章,通过GPT-2生成文章。但当时,它的能力还有限,只能生成语义看起来连续,但却一眼假的“胡编”文体。后来大家发现用固定规则也能生成类似的话。一度衍生出了狗屁不通文章生成器等产品。规则、或者说正则在垂直领域确实效果显著。维护简单,还能满足模型可解释性要求,满足确定性。其实现在,ChatGPT的接口中仍然可能存在不少规则,特别是涉及有争议的话题或者是时间感知等话题。
在没有细致体验之前,我对它的理解,也不过是GPT-2的加强版。或者是Siri和小冰。但体验之后,我发现它的体验真可以称得上是:令用户惊奇+满意。无论是对话流畅度和语义衔接程度,还是说内容的有效性。可以不夸张的说:仿佛回到了几岁的时候,站在一台拨号上网的计算机面前,无限可能等着我去开启。
GPT 全称 Generatichatgpt,生成式预训练模型。生成式通过对数据的联合分布建模,与之对应的是判别式,采用条件概率建模。预训练通俗来讲是大模型训练,然后在垂直数据上进行微调。方式一般是冻结神经网络的前n-2层,只对n-1进行权重调整。以计算机视觉举个例子,我们在大模型的权重基础上,仍能够通过微调让模型认识猫狗,即使猫狗不在数据集中,猫狗的数据集量级远小于大模型。
据公开资料显示,ChatGPT用到的技术其实不复杂,甚至是前面大厂开源的东西。怼大规模数据+大模型,然后加上PPO强化学习。但是就这样它却有出色的表现,特别是在多轮对话方面。常见的NLP任务,这个模型通过对话都能实现。无论是情感分类、语言检测或是翻译任务、改写任务、摘要任务、总结任务、续写任务,甚至生成任务它都表现良好。
谈机会总是离不开股市“投机”,因为股市是经济的晴雨伞,也是市场的热点所在。在春节期间,我的某大厂同事便提到了他们内部在all in这个方面。当时我还没当回事,认为不过是互卷的新噱头。但没想到的是,确实有不少人在这其中获得了较大的alpha超额收益。
有人通过卖账号小赚一笔,也有人通过二次开发得到流量。大部分都淹没在人流中,小部分被广泛传播。借助其多语言特性,开发者能方便地开发一款产品,然后在全球传播。开发出来翻译工具、pdf解读工具。翻译本身其实和调用谷歌的翻译流程上无二,但也获得不少曝光。
但很快,人们也发现ChatGPT会编故事。ChatGPT不会说不知道,而是尽量从概率空间生成有含义的对话,即使这含义本身,并无对应实体。当你问一本书或者一首歌的相关信息时,它总是会“移花接木”,让人摸不着头脑。当然,你要拿去问文献,也只会生成一批其他宇宙才可能存在的文章。
但这也是人类的特点,不是吗?只要语气足够肯定,三人即可成虎。所以,在它扮演解梦角色、扮演星盘角色时,大家也不会苛责它效果不稳定。因为它本身也符合了人类的自我归因认知和自我暗示。
对于大部分企业来说,“自主研发”一套ChatGPT并不划算,更多还是利用API的接口能力。但当前有个问题亟待解决,如何将企业独有的小规模语料的并入大模型中。在写稿子的同时,据悉GPT-4即将发布。其具备多模态能力,跨越语言、图片和视频。如果支持自定义语料的话,可以预见三大运营商以及银行的客服系统将有巨大体验上的升级。
虽然它有如此多的功能,但还是有上手成本。特别是在一些复杂任务场景,需要提示词去引导它。为此还专门衍生出了一个专有名词:prompt engineering。
提示词的本质,和搜索词类似,即“提问的艺术“。不同的是搜索引擎用更长的框暗示你填更多的词,以此来获得更多的信息。提示词却更为复杂,一长串的指令只为对方扮演正确的角色或者绕过特定的限制。为此,我也写了一个网页版的提示词查找器,方便初次接触的朋友体验到进阶玩法。地址: 。其具备基本的提示功能,随机出现一组,复制方便。
真人在你面前,你都可能不会如此耐心。面对一个机器人,人们却有充足的耐心和多样的方法去提示它。
回到一开始人们的担心。在人工智能领域,人们常说的一句话是:garbage in, garbage out。用来形象说明数据质量的重要性。随着这个工具的普及,公开互联网上的数据分布,将不可避免受到影响,反过来又作用到模型本身。可以预见的是:能从繁杂的信息中获得关键信息,以批判视角看待问题,能更好组织和表达语言的人,将在未来越发稀少和可贵。