庆云古诗词

庆云古诗词

十分钟理解chatgpt的技术逻辑 一张图看懂chatgpt4.0新变化

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

十分钟理解线性代数,c理论是指什么,c什么概念,什么是c?

最近ChatGPT这个概念在国内爆火了一把,人们了解到了后有很多不同的反应,有焦虑的,有担心的,有恐惧的,有兴奋的。。。

然而这实际上只是个噱头而已,不知道其中的技术原理,自然很懵,但是如果搞明白其中的细节玩法,就知道这个技术的局限在哪里了。

就知道哪些功能对于ChatGPT来说实现很简单,哪些功能对其来说看似简单直接实现很难?

接下来我们进入主题:讲解5个关于GPT的问题。

先做个提示,重点强调一下:

所有教你用ChatGPT赚钱的,全都是割韭菜的!

ChatGPT(GPT4)只是一个工具,最多教教工具的使用。

这个都不用具体细看,只要想一下经济学 稀缺和价值的关系逻辑 就能明白了,太多复杂的说法都是花招。

接下来我们着重的讲一下如下5个问题:

1.简单讲一下ChatGPT,GPT4都是什么?

2.ChatGPT的出现,对大众影响大吗?

3. 为什么 大模型创业(GPT创业) 是个坑?

4.数字孪生人真的很神奇吗?

5.人工智能或者GPT会产生情感吗?会造成破坏吗?会危害人类吗?

1.简单讲一下ChatGPT,GPT4都是什么?

ChatGPT就是最近美国火起来的一个文字软件交互程序而已,能根据文本输入做出很多智能的反应,比如:1.按指定文字提示 写文章。

2.按指定文字提示 回答问题。

3.按指定文字提示 写程序等。。。

都是一些智能交互,重点是相比之前的文字交互软件智能了太多。

GPT4 (大模型4代) 也仅仅是一个基础程序而已,只不过是用很多数据和计算力训练出来的基础程序,ChatGPT基于GPT4之上开发而成。

2.ChatGPT的出现,对大众影响大吗?

ChatGPT(GPT4) 对 一般人来说 没有任何影响,大众不需要做任何事,

需要做的只是等着GPT技术成熟 彻底工具化后学一学使用工具即可,

一般不用想着什么创业机会啥的,这方面创业都是坑,下面会详细讲。

3. 为什么 大模型创业(GPT创业) 是个坑?

自从最近OpenAI公司发布的ChatGPT概念在中国火了后,准备开始做国内大模型(GPT创业)的公司就如雨后春笋般的出现。

然而,你要明白了其中的技术原理 和 限制条件后,就会知道这是一个大坑!

那你可能会想了,怎么可能,那么多人搞这个创业,甚至百度,阿里都在搞,

他们傻吗?

首先说明一下,大公司搞这个起初就不是冲着盈利和赚钱的目的去的。

最近搞这类创业的有两类:

第1种:这是蹭热度,或者创业多久后盈利不是他们考虑的,

只要能一直融到资,哪怕连续亏损10年都没问题,

创始人,创始团队在某种程度上 是不依靠于大模型创业是否能盈利的(某种程度上可以这么理解)。

至于 投资人 则也是知道这中短期很难实现盈亏平衡,只是报个希望赌一把而已。

第2种:公司规模太大,不能不做, 钱太多,看着你的人也太多了,所以就把其GPT模型作为其一个基础支撑组件来用的,根本没想着赚钱去的,就是为了自己更好的使用一下,完善一下自己的生态。

好了,既然讲到这里,我们就得详细讲一下 大模型创业为什么很难盈利,为什么是个坑?

思考判断不能没有逻辑,一切的判断都要基于现实的技术和相关条件要素,等我们讲完大模型具体内部重要的要素有哪些,就能搞明白了。

我们先来讲一下 大模型 创业到底是干啥?

GPT4 就是 美国OpenAI 搞的大模型4代,GPT4本质上是一个软件程序,是个程序,只不过这个程序我们叫其为 模型,把GPT4封装起来做个软件应用产品,就是ChatGPT, 这个程序的功能就是 能够通过 输入文字 给出对应的响应结果。

那么国内创业搞的是什么呢?

主要搞的产品 就是 国内某公司自己开发的大模型(本质是个软件程序),开发完后也能通字符输入给出对应的结果响应。

那不同公司 开发的 大模型 有什么区别吗?和美国的GPT4又有什么区别吗?

为什么那么多种大模型?百度搞个,阿里也搞个?

这就得看 想要开发好 大模型,让大模型给出的反应结果最准确 需要什么要素?

公式如下:

数据 + 深度学习算法 + 算力=大模型

1.数据(训练原材料)

2.深度学习算法(计算算法规则)

3.算力(硬件计算力)

4.大模型(预测模型,给出输入(比如文字),响应结果)

要想做好大模型, 就得满足好这三个要素条件,这三个要素条件越好,大模型训练出来效果越好。

那我们来逐个分析一下:

1.先讲数据:

数据的质量高低 直接 影响 大模型预测的效果好坏!

为什么?那数据质量高又是指的什么?

因为大模型给出反应结果的原理,就是通过字符匹配和预测,所以如果你给的数据内容本身就是错的,那么他是识别不出来其是错误的。

举例(只是为了讲清楚其 数据是如何影响准确率的):

你提供的一系列数据中有: 1+1=3

如果所有和 1+1=3 的内容相似的都是这样,那么计算机模型是识别不来的,他会把3 当成咱们理解的2,然后 你给其输入提问一个: 3 +5=?

他回答很可能就是 3+5=7 。(不接入计算器API的情况下,这例子只是为了说明信息错配的原理)

所以数据是否最准确,其中的知识是否最有用,有价值 直接影响了 模型预测的 效果好坏。

所以如何获得高质量,高专业度的数据 就是一大难题。

不同公司的训练数据不一样,自然模型预测的效果也不一样。

而很多数据在咱们国家 的获取规则更难,一般企业想要获取足够好的数据内容难度相当大。

这其中也涉及很多数据隐私的问题。

所以,做大模型,数据方面,也只有有官方支持的国企才能做的最好。

2.深度学习算法

关于深度学习算法,是一系列特定算法的一个分类总称,其下具体包含很多种不同的深度学习算法。

每一种算法 都是基于 数学原理 和 程序的一些逻辑修改 弄出来的。

这个算法基本是通用的,只不过有实力的公司可能会专门设立小组 定制化 修改其公司使用的深度学习算法。

每家做大模型创业的公司基于深度学习算法的算法定制方案也不同,这看各自公司的技术实力了。

3.计算力

最坑的就是这个计算力,因为其训练过程有点类似暴力破解的方式,所以需要很多算力,这个算力造成的硬件成本至少要数亿美金 ,算力少了或者训练的时间不够的话模型效果会很烂,基本等于白玩。

那这里就有个盈利悖论了,我们如何赚钱呢,基本有几种模式:

1.类SaaS(软件即服务),靠提供功能来收费,别人的公司调用我这模型1次,就需要交固定的钱。

而这个在国内想真正玩起来很难很难,你看一下国内搞数据服务或者其它服务的公司 情况就知道了。

2.封装GPT(大模型),打造一个产品来赚钱, 这个就又有悖论了:

如果你的产品好用能赚钱,那么靠的是什么核心竞争力,GPT的能力? 你能把这个GPT搞到这个功能强度,别人也能啊;靠产品模式吗? 你的产品模式好,GPT比别人的能力差,别人照样转眼把你模式一抄就全面超越你,所以这个盈利是存在悖论,至少中短期很难实现正负盈亏平衡。

还有一个就是GPT自身属性的原因:GPT自身的属性导致,什么属性?

工具属性。

用 工具属性 的产品 必然是赚钱困难的。

这几乎没有例外。

反着来看投入产出比,用了这么多算力资源:

从能量资源的角度来看 这个中短期就很难盈利。

你花了10亿美金 研发了一个 自动削苹果机,用这个苹果机削一次要收费1000元,

1000元够我买一车苹果了,那我为什么不自己削苹果呢?

而且GPT领域的竞争最终必然是充分竞争市场,你死我活的,最后只能留下一两家,

4.数字孪生人真的很神奇吗?

数字孪生人,这个说的太高大上了,我来给你讲清楚点把,实际上是个很low的东西,

和永生,脑机接口等那些高大上的概念完全不沾边。

数字卵生人本质上就是一个 : 能够聊天的软件程序 ,只不过这个聊天程序说话的风格,讲出内容以及涉及的内容范围上限 都 和现在的你一样, 就是拿你的一些特性 数据化然后 模仿出的一个软件程序。

这存在很多问题:

1. 这个软件程序不能真正 实现和你一模一样的性格,因为数据的提供是有限的,

而有些你内在的思维想法 完全不在提供的数据中,很多根本无法用数据描述,或

者说很多内在知识和反应你自己都不知道。

2.这个程序只是模仿现在的你, 准确说是模仿上限范围 就是由你提供的数据上限所

决定的,如果现在搞一个你的孪生聊天程序软件, 等过半年再来看,就很有可能和

你的性格和想法大相径庭了。

3.我彻底用一个案例来 讲一下 这个 和真人学习的区别在哪里把?为什么这个比人耗资源要多很多很多。

其根本区别在于:

人是通过五感的信息输入 和行为反馈来学习的,

而计算机或者说GPT本质上 是 通过 字符的信息输入来学习的。

五感信息 和 字符 信息输入 有什么差别呢?

差别就是字符信息输入 缺少很多隐藏的内在关联逻辑,这些内在关联关系让程序识别出来非常难(或者说不是难,而是和人比耗的资源差距太大了)。

举例:

我们用一个教小孩 识物 的例子来讲:

1.比如小A的妈妈 指着鱼缸里的鱼 对小A讲:鱼缸里这是一条金鱼。

用字符文字来简单描述 : 鱼缸中有一条金鱼等等。。。。

五感信息 和字符信息之间差了什么 隐藏的内在逻辑呢?

小A脑中的学习思考历程:

1).眼睛 看见 鱼缸中的金鱼:

内在隐藏逻辑关联:鱼是在水中生存的(自然看见导致的归纳学习法)

水知识点 ------连接---------鱼

2).这鱼是金色的:

内在隐藏逻辑关联:金鱼应该有金色的。

金鱼---连接---- 金色

3).因为鱼在鱼缸中,所以鱼缸比鱼要大

内在隐藏逻辑关联:大小识别 鱼缸比这条鱼大。。。

等等。。。

上面讲的很多内在隐藏逻辑 对人来说是很容易学会的,

因为人是通过 五感 和行为反馈来学习的,

做个假设:

(只是为了理解而做的假设,现实情况是人完全不理解脑神经运转的真正原理,谁研究

懂就能拿诺贝尔奖了)。

假设: 学习的过程就是 存储着 某知识的神经元(神经细胞) 与相关的神经元 同时 被生物电激活,进而产生化学连接的过程。

那么五感连接的神经元同时激活的时候,他们之间的连接链路是明确的,有限的。

而 五感和行为反馈都和神经元 有直接连接通道:

那么只需要几条很少的神经连接都能把这些东西连接起来,因为五感是同时激发产生生物电的。

而计算机是怎么做的呢?

计算机当然也能识别这其中的逻辑,但是使用的学习方法耗能和人学习比简直是天翻地覆,

计算机最底层只能通过 分析 字符(输入图片音乐最终都会转成二进制数字) 来学习理解:

看这句话:鱼缸中有一条金鱼。。。。

如果想只 通过这一句话 分析出上面人所能理解的,是绝对不可能的。

计算机是怎么学习的呢? 最简单的就是字符匹配:

举例:你要输入1万句 包含鱼的句子, 一万句水缸中的水、水缸大小,鱼的总类相关的句子。。。。

字符信息: 然后计算机 根据这些句子数据 按照深度学习算法 训练出一个 匹配规则模型,

直到匹配的结果能实现和上面人一样的连接效果才行,

但是在原理层面来看, 计算机 是不懂 其真正内涵的, 只能做 文字预测匹配,只不过

这个预测匹配能实现和真人效果一模一样,这就是GPT4诞生的原因。

输入A---------->经过模型计算 ---------->输出B

你好吗?---------->GPT 通过模型的字符匹配算出---------->我很好(正确的回答)

你好吗-?--------->五感+人的意识+ 思考---------->我很好

这就相当于可以实现相同的功能效果 ,但是实现的方法完全是不同的:

举个例子:

要杀死一只羊,有两种方法:

第一种: 毒药毒死

第二种: 用水淹死

实现的结果都能弄死这只羊, 但是毒药的成本很低,而淹死需要一池子水,

水成本也高,那么两者都能弄死这只羊,但是使用的方法不一样,成本也不一样。

人们文字语言交流 本质上 就是一个 字符对应匹配的过程,我说什么字符,你按照

语法和语义回应对应的字符。

计算机也能实现对应的功能, 但是他用的是通过暴力破解 来打造一个 匹配规则

函数, 对话的结果相同,只不过你是根据语义语法的规则来回答的,计算机是根据字符匹配的概率规则来回答。

实现回答的结果一样,但这过程的意义完全不同,消耗的资源也完全不同。

5.人工智能或者GPT会产生情感吗?会造成破坏吗?会危害人类吗?

人工智能有可能产生情感吗,有可能主动对人类进行破坏吗?

人工智能本质上是个软件程序,不能产生情感,但是可以表现出和有情感的人一模一样的效果和反应,让人分辨不出来真假。

所以说理论上:形式上可以和真人毫无差别。

但是就像刚才举的例子,一个真人和 一个人工智能实现的应对反应能一模一样,但是实现的过程方法不一样。

人是通过理性情感做出的反应, 计算机本质上是通过字符匹配进行的反应,

两者在结果形式上一模一样, 但是计算机还是没有情感,本质是不同的。

按上面的例子来说同样类别的话就是: 我能用毒药毒死这只羊,也能用水淹死这只羊,

因为都能弄死这只羊,所以水(纯水)也能毒死这只羊,毒也能淹

什么是chatgpt通俗易懂 请你谈谈chatgpt的机遇和挑战

什么是chatgpt,什么是岔气,什么是常数,什么是插叙

最近ChatGPT爆火,相信大家或多或少都听说过ChatGPT。到底ChatGPT是什么?有什么优缺点呢?

今天就由ChatGPT自己来给大家答疑解惑~?全文文案来自ChatGPT!

?

01

ChatGPT是什么

ChatGPT是一种基于人工智能技术的自然语言处理系统,它由OpenAI开发。GPT是Generati【【微信】】rmer的缩写,是一种使用基于Transformer模型的预训练语言模型,通过对大规模语言数据的预训练和微调来实现自然语言的理解和生成。

ChatGPT是GPT模型的一种应用,旨在实现智能化的对话交互。它可以通过处理大量的语言数据,实现对人类语言的理解和生成,从而实现智能化的对话交互。

ChatGPT的性能和效果取决于其训练数据的数量和质量,以及其预训练和微调的技术细节等因素。目前,ChatGPT的最新版本是ChatGPT 3.5,已经成为自然语言处理领域内最先进的技术之一。

02

ChatGPT能做什么

ChatGPT可以处理各种自然语言交互任务,如问答、对话、翻译、文本生成、摘要等。以下是ChatGPT主要的应用场景

1. 聊天机器人

ChatGPT可以实现智能化的聊天机器人,能够进行自然、流畅、智能的对话,为用户提供各种服务。

?

2. 文本生成

ChatGPT可以生成各种类型的文本,包括散文、新闻报道、诗歌、对话等。

?

3. 代码生成

在生成代码方面,ChatGPT通常是通过学习大量的代码文本数据集,以及深度学习算法的模式识别和生成能力,来生成符合特定要求的代码。

?

4. 搜索功能

虽然 ChatGPT 并没有直接的搜索功能,但它可以通过结合搜索引擎、问答系统和其他自然语言处理技术,提供一定的搜索服务。

?

5. 学习辅导

ChatGPT可以作为一种在线学习辅导工具,它可以回答您的问题,提供学习建议和资源,解释概念和术语,甚至帮助您练习和巩固您的知识。

?

6. 语言翻译

ChatGPT可以进行自动翻译,将一种语言翻译成另一种语言。

?总的来说,ChatGPT具有广泛的应用价值,在自然语言处理领域中有很大的发展前景。随着技术的不断发展,ChatGPT的应用领域还会不断扩大。

03

ChatGPT优缺点

ChatGPT的优点在于它可以处理广泛的对话主题,对话质量高,能够适应各种语言风格和表达方式;同时它还具备高度智能化、大规模语言数据支持、可迁移性、强大的生成能力等特点;ChatGPT还可以随着时间的推移逐渐学习,逐渐提高它的性能和响应速度。

然而,ChatGPT也存在缺点,主要表现为:缺点是数据量要求高、模型复杂、偏见和误导问题、难以控制生成结果。例如在处理长文本时,会出现重复和语义不一致的问题。

04

ChatGPT3.0和ChatGPT3.5对比

ChatGPT 3.0和ChatGPT 3.5是GPT系列模型的两个版本,其中3.5是在3.0的基础上进行了改进和优化。但它们之间有一些显著的区别。

1. 模型规模

ChatGPT 3.5的模型规模比3.0更大,达到了1750亿个参数,是3.0模型的5倍之多。这意味着 ChatGPT3.5 拥有更强大的计算能力和更高的上下文理解能力,可以生成更加逼真、准确的响应。

2. 训练数据

ChatGPT 3.5使用了比3.0更多和更广泛的数据,包括来自互联网、书籍、论文等多个领域的语料库。这些数据的使用可以使3.5模型更好地理解和生成各种类型的文本,从而提高其性能和应用价值。

3. 应用场景

ChatGPT 3.5相对于3.0来说,在一些复杂的自然语言任务上表现更加优异。例如在翻译、问答、文本摘要、自然语言生成等任务上,3.5相对于3.0能够生成更加准确、流畅、自然的文本,同时还能够更好地保持上下文的一致性。

4. 可解释性

ChatGPT 3.5相对于3.0更加注重可解释性的问题,采用了一些新的技术和算法来增强模型的可解释性。这些技术可以帮助用户更好地理解模型生成文本的原因和方式,从而提高用户的信任度和应用价值。

总的来说,ChatGPT 3.5相对于3.0来说,在模型规模、训练数据、应用场景和可解释性等方面都有了很大的提升。这些改进使得3.5模型能够更好地理解和生成自然语言文本,同时也为它在更多的自然语言任务和应用场景中提供了更广泛的可能性。