庆云古诗词

庆云古诗词

微软产品全系接入chatgpt newbing和chatgpt是微软研发的吗

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

微软接口,微软官方链接,微软accessories,微软 产品

摘要:

1.微软在office、windows、游戏、teams、云计算、必应等全产品线中都集成了GPT;

2.GPT由于生成内容不可控,落地中国具有不确定性,国内还是会有自主可控的大模型。在国内盈利模式可能是提价或吸引增量用户;

3.国内各家大厂大模型的比较优势在于此前对业务领域数据的积累;

4.GPT4 plugins插件开创了新的生态系统,有可能成为超级AI app的入口,将显著降低应用开发门槛。

5.插件短期有利于软件公司,有助于提高ERP、办公软件等软件研发效率和用户体验;

6.插件远期会对软件行业造成最大的影响(威胁)。

【Q&A】

微软在 bing 以及Copilot等等产品率先布局的目的,以及目前的落地推进情况是怎样的,您给我们介绍一下

微软搜索的必应和chatGPT 的集成其实是属于比较早推出来的一个服务,是因为chatGPT还是跟搜索还是比较契合的,能够对于搜索用户体验有比较大的影响。

所以最开始微软就推出了new bing,上边有chatGPT 功能,这一块其实已经推出蛮长时间的了,之前的时候也是发现了若干的问题,后边微软都修复的挺快的,现在感觉就比较稳定了。之前微软有控制用户数的限制,大概是在 100 万用户限制, chatGPT 那一会还不太稳定。

另外对于算力,微软其实不太确定对于算力的这些要求,所以最近的话微软会逐步的把 100 万的用户的人数限制给放开,等于是正式推出。我们看后续微软这边会什么样的动作,什么时候会正式推出new bing搜索。

Copilot 也不是说只针对office,等于在微软的产品线当中都集成了一个chatGPT。刚才说到就是必应的搜索的集成,前几天其实宣布了 Office 365 的集成,这个产品现在只是推出测试版,现在在找一些合作伙伴在做测试,后期要看测试的结果,然后才会正式推出。其他的接下来可能还会有一些, windows 里边也会集成GPT。另外就是在微软的游戏当中也会推出这么一个解决方案,能够帮助第三方的这些合作伙伴去更快更好的开发游戏。

微软还有其他一些产品线,比如说很重要的就是云计算这一块,其实微软也是依托于GPT 建了一个很大的一个集群,它一方面是吸引这些做大模型的这些公司或者客户来用微软云计算,然后同时他在他的云计算上边也把 GPT 这些api 也都开放出来了,提高微软云计算的吸引力。

那么在微软还有其他的一些产品,比如说像在行业应用里边,客户关系管理的这些应用,一些 dynamics 的一些产品,还有之前收购的做医疗行业的,包括 TEAMS 这些产品现在其实都已经集成了chatGPT,而且也在有计划的在推出来,所以微软所有的现在的这些产品里边,都要去集成GPT ,用chatGPT 的大模型的能力来加强现在的微软产品的竞争力和用户体验。

您预计GPT进入到中国的预期?

在ChatGPT之前,微软在中国落地的比较好的业务就几大块,一块是云计算,office365,Windows,teams,bing搜索,都是符合规范的。这些业务都要符合中国法律的要求,如果要把集成GPT的这些在中国推广,肯定都要符合中国法规,甚至更严格。因为确实 GPT 产品就很特殊,那我们从chatGPT 产品本身来讲,它是能力很强,然后生成的答案其实是不太可预测或者可控的。基于这个特点,我自己估计像微软bing搜索这样的产品可能在中国落地会比较困难,因为要花很大的精力,因为它搜索的场景会比较宽泛,用户会各种各样的这种搜索需求,然后生成的答案也不太好控制。

像office产品不太牵扯生成各种内容,它不太牵扯到这种搜索,不太牵扯到要去生成各种各样的这种内容,它基本上都是基于用户自己的一些现有的一些数据,然后去生成图表,或者写一个文章,会相对会好一些。我自己估计可能 office 更容易中国落地,那像 windows 的话,要看它接下来在 windows 里边它会集成什么样的一些 GPT 的一些功能,要看具体情况。

刚才虽然说了 office 可能会更容易,bing更难一些,但是这里边都牵扯到一个逃不开的,就是说要chatGPT 大模型本身的 api 要在中国落地,这样的话这里边就增加很大的不确定性。因为 GPT 产品它跟其他的产品不一样,我觉得它是一个是属于比较高端的技术,尖端的技术,另外一个就是它的生成的内容不太可控,所以基于这两个,然后再加上现在这种国际的形势,我自己预计会有很大的不确定性,不会那么快说顺利落地,这是一个大概的方向。

GPT在中国可能的赚钱模式?

假设GPT确实能落地。比如像office是最容易赚钱的,比如说基础版本现在的 office ,针对家庭或者针对企业的,可能每个用户每个月可能大概是 50 块钱人民币,以后他就提价就是推职业版的,加了 GPT 功能,我就提价提50%,就 75 块钱一个人一个月。

像Windows 加上ChatGPT可能体验完全不一样,那么原装的费用之前可能100块钱,之后可能加到120块钱。比如说云计算这一块,如果真的能落地中国,中国又没有很好的自己的大模型出来,这对于用户的吸引力是很毋庸置疑的。我觉得加上GPT确实能增加吸引力,能够提价,也能够吸引增量用户过来。大概就是这几个模式。

这会对现在的商业模式有改变吗?

现在还看不到特别的创新的变现模式,比如说new bing里边,其实微软也在探索怎么在ChatGPT交互的场景下放一些广告,怎么去变现。一种是在生成的答案中推荐服务,另一种是在答案下边放一些图片,另外就是比如在聊天的右边,也可以放一些,也许有一些创新的形式。

对现在的影响就是,原来的变现模式给加强了,另外就是增加用户。接下来还能够推出一些创新的一些服务,比如说像它的在云计算里边有些API,它是通过这种流量或者说使用次数,甚至它可以就是把带有 GPT 的云计算作为一个增值服务,本身这一块我其实可以白送给客户,然后客户你就承诺说用我的微软云计算,等于就是一个增值服务,所以这一块其实也是很有吸引力的,所以我觉得就是对于现在的这种模式,微软增加了更多的可能性,而且这种可能性也许是无一的,因为其他家像 Google 这些还没有推出相匹配的大模型。

百度今天推出了大模型平台,他是按照输入输出的总字数来收费,这一块您怎么解读?

他这种收费是一种途径。客户愿意付你钱,前提是你产品足够好。百度现在的文心,是不是已经好到客户愿意为之付钱了?从之前百度推出的文心一言来看,还没有达到很好的效果。最近百度可能会持续发力,然后不断迭代他的模型。这样可能对于企业客户有一定吸引力。

不过他只要做到在国内数一数二就ok了,毕竟ChatGPT现在还没有在国内开放,现在华为的大模型能力有多少还不太清楚。收费归根结底还是要看你产品竞争力是否足够。

百度文心一言和ChatGPT差距多大?

百度文心一言还是属于更高级版的百度搜索。我比较担心他的推理能力还比较差,深层次原因可能是他现在推出的大模型还是用原来的训练方法,并没有用上OpenAI这种工程实践的路径,这是比较令人担心的,如果不用OpenAI路径去做,有可能永远无法训练出来有推理能力的模型。但我觉得百度对于OpenAI路径还是有了解的,之前推出文心一言是想先推出一个产品,先把市场占住,然后后续会沿着OpenAI路径去训练他们的大模型。

现在还不够好,希望百度后来可能持续发力。虽然过程可能会很困难。

我们有没有量化指标来评价大模型效果?

现在并没有统一的量化指标。

但是有各种各样的维度去测试大模型,比如一些知识题,推理题,数学题。还有找互联网不存在的东西去让它创造一套规则出来,这种就是要靠推理和思维能力了。大概的量化指标是GPT4.0出来后,他们有去做一些考试,我们可以看到GPT能力还是不错的。

以国际大厂的视角看,国内的大厂比较优势是什么?

从大厂来说,还是比较保守。因为他有很多项目,他要衡量这方面的投资会不会有回报,他不像小厂那样只考虑拿风险投资,不用关心盈利等。就是像Google那样的大厂都很难有很大的决心去做一个好几年都没有盈利且投资很多的事情。

国内的大厂也不会不计投入的去做和自己业务不相关的业务中,我觉得更多的他们可能会从自己的业务出发,然后考虑自己所在的行业,然后去看去做一些取舍。比如阿里,会考虑做电商行业的大模型,就不用做通用的大模型,可能投入上会小一些;像百度本身是搜索公司,他做通用大模型对于他的业务是有帮助的。国内比较接近能搞出来的像百度,华为,像阿里,字节可能会搞出来和自己业务比较相关的大模型。

大模型本身不就是一种盈利模式吗?有全行业覆盖的大模型本身就可以带来很大盈利吧?

对,如果大家都有能力弄出来像ChatGPT这样能力很强的通用大模型当然很好,但是他对于算力和数据的要求是很高的,不一定是每个大厂都有能力去做这个事情,特别是在中国受到很多限制,这不一定是每一家都能走通的。

那就只能退而求其次,把自己的行业做的足够好。最好的当然是像 open AI 这家公司,它有那么多的数据,那么多的算力能够跑出一个最强的通用的大模型,然后在通用的大模型基础之上,我再去根据每个行业再去微调一下,打造出每个行业的这种模型出来。当然这是最佳路径,但是因为考虑到中国的实际情况,就是有的时候可能就要退而求其次了。

能不能理解成如果百度可以,其他大厂成功的可能性也很高,只是之前资源禀赋不一样,擅长领域不一样,在各自的先发优势上有明显的体现?

百度可能是通用模型需要的数据多一点,其他大厂可能有电商行业的数据等,这些数据可能是网上没有的,算力可能大家都差不多。但是百度在NLP领域和搜索相比于其他厂商我觉得还是有优势的。百度会有一些其他厂商不具备的一些数据。

现在市场对于插件这一块很关注,我们怎么去理解插件的意义?

插件是很重大的事情,他们现在是先把插件开放出来,一个是网络浏览器,一个是代码解释器。网络浏览器是自己做了一个内置的搜索,用户有需要做实时查询时候,ChatGPT就会通过插件,调用必应搜索的api,当用户有搜索需求时候,GPT会自己调用网络浏览器,然后去调用bing搜索,抓一些实时数据。刚开始ChatGPT没有最新的数据,不知道实时的数据,更多是bing搜索的时候调用chatgpt,现在是反过来了,等于ChatGPT是主体了,需要网络数据的时候才会调用bing搜索的api,主客反过来了。

还有就是代码解释器,ChatGPT内置沙盒运行环境,在需要跑一些程序的时候,会在沙盒里边写一些python代码,把结果返回给用户。

现在他联合第三方开发了十几个插件,比如旅游插件等。他现在的运行方式是,比方说一个用户与 GPT 聊天的时候,这用户要自己先去 GPT 的那个环境里边去下载安装他想用的几个插件,比如说他安装了一个买票的,用户在跟 chatGPT 聊天的时候,他会可能有的时候就会告诉chatGPT 我现在想去买去洛杉矶的飞机票,这个时候GPT 就会在用户安装的这些插件里边去找哪一个插件是最能够符合用户需求的。然后,根据这些用户的需要,直接帮用户下单订机票,定旅馆。

现在刚开放出来,用户体验会变化,但我感觉他是开创了一个新的生态系统,是凌驾于安卓、ios、linux之上的,以后依托于大模型能力,就会作为超级人工智能app的入口,以后用户也不需要打开那么多app了,也不用去下载应用了。以后就一句话,告诉ChatGPT就行,GPT自己就搞定了,这就是唯一的入口。以后app就是作为gpt的一个插件。

甚至就是说那以后所有能够提供服务的这些,不管是个人也好,还是公司还是团体,那都去GPT 上去注册一个,然后这样的话 GPT 自己就会去把用户的需求和这些能够提供的这些服务匹配起来,他就去做一个分发了。然后甚至到最后如果说在两个服务能够提供同等的质量的服务的前提下,那最后就发展成实时的这种关键字竞价了,就是广告系统了,谁出价高,然后GPT就用哪一个,所以就感觉它就是应付现在所有的生态系统,它作为一个超级的生态系统。当然这些要看它接下来会怎么规划,是不是能够发展到这一步。

我们这么去理解原始操作系统和GPT融合,和之后GPT替代操作系统?

我们先说搜索,前两个月集成GPT,现在反过来,那就要看微软和OpenAI之间的商业协议是怎么签的。现在网络搜索的插件用的是bing的api,大概率是不能用Google的api,其他服务可能没有排他性的协议,现在插件出来后,我自己感觉有没有bing搜索就不重要了。大部分用户还是以大模型的搜索为主,原来bing的用户是有限的,但这种大模型的用户是很多的,这是完全不一样的。所以ChatGPT对于微软也是有很大影响。

Windows也只是一个操作系统,还有很多其他操作系统。现在ChatGPT不仅仅是局限于某一个操作系统,他是所有的操作系统之上的人工智能系统。所以之后要看他们的协议,如果他们的协议限制了gpt不能给安卓或者ios用,那么Windows可能就有独特的优势了。假如都能够开放的话,那么Windows也没有自己独特的优势了。我觉得微软有这种独特的排他的能力。

国内如果华为能搞出来,并和鸿蒙系统结合,那将具有排他优势。

会不会显著的降低其他行业的研发门槛?

我看了一下文档,去注册插件时候还是比较简单的。从理论上讲,用插件的人用自然语言告诉插件我要什么服务,然后GPT就可以理解人的意思,自动就把插件都给弄好了,就不需要程序员写代码了。这样的话,去注册这些都不需要专业知识,就不需要程序员了,降低了开发程序提供服务的能力。

比如,我想去做家教,我的目标是高二的学生,我只有周末有时间,我用GPT,说我擅长家教,一小时100块,发布信息,他就生成信息,别的家长和GPT聊天时候,GPT把我推荐出去,就这么简单。他就是一个匹配的系统,他能够更好的理解用户意图。现在比如我们去旅游,要定一系列的东西,这些服务是分散在不同app中,但现在GPT可以做一个自动化的流程,他去跟不同的软件去打交道,一整套都帮你搞定,用户都不用在关心了。甚至他还可以做比价,做一个最优解。

如果降低了开发门槛,对开发外包公司是不是利空?

不光是对外包是利空,对所有的程序员都是利空。以后就没有必要自己去开发app了。也就不需要那么多程序员了。

现在资本市场,受益于ChatGPT的公司,长期来看,他们生存是不是收到威胁的?

不光是开发,所有的工作可能都会受到影响。open AI 的那个创始人,他的一个目标是他想用通用的大模型让 90% 的人都不用工作了,然后他同时再去开发什么核聚变,然后能源也有了,然后人工智能也有了。

世界上的 90% 的人他不需要工作,因为人工智能和核聚变就把所有的事情都搞定了。那他的设想就是一个社会主义,然后他从超级大模型和核聚变当中赚来的钱,就分配给这些 90% 的人就可以了。所以这就是共产主义,它的目标就是这个。所以我们就看出来有了大模型以后 90% 的人都不用工作了。当然这会很远,那但是你说最近一两年、两三年,那我自己觉得就是现在市场上的那些公司,它是受益的,因为它会提高效率,然后而且会增加一些市场份额,能够会比以前赚更多的钱,但从长远来讲我觉得都会受影响。

短期可能是有利于软件公司,这对于ERP领域,办公,oa领域有什么影响?

像办公软件,是会获益的,会提高用户的办公效率,单价会提高。还有一些办公自动化的,就是它现在有一些自动化工作流程在里边,但是GPT 这一块它会做得更好,更智能。ERP有一些数据库操作,要生成很多报表,以后在企业中,老板需要看数据时候,就不需要程序员生成很多的报表,直接用GPT就好了。

近期来看,从很多行业来讲,会增加现在工作的效率,可能就不用加班了。到第二个层次,把很多人的工作做成半自动化,把很多工作或者跨工种之间的工作都自动化了,能够进一步提高效率。在接下来到中期以后,就是纯自动化,很多东西全部都是自动化了,可能很多岗位都消失了,这是大方向,具体到每个行业可能略有不同,像我觉得那种完全线上的,比如说程序员或者说专门用 office 的这些人,第一步短期来讲他们的受益是最大的,但是从长期来看他们其实是最受影响的。

一些体力劳动者,现在他们也不会受益于chatgpt,但是长期来看对他的威胁是最小的。

中国现在的处境下,怎么追赶?

第一步争取能够复现,我们也要去走通。我们也要能够去走一遍,这是很重要的。但本身不是很容易的,中间可能会有一些很多这种不为人所知的,或者没有公开出来的一些这种诀窍,或者说实践方法,或者说可能你的工具是不是跟他是一样好啊?就和哥伦布发现新大陆之后,我们自己重新去走一遍路线一样,比如说你的轮船,是不是跟那个哥伦布的一样?甚至中间你可能还有一些运气,比如说你刚好快要到大陆的时候,你突然遇到风暴,这些都有可能。但是我觉得第一步应该就是去把这个路径给复制出来。

先走通以后,然后再接下来,然后能不能再根据我们中国自己的一些优势,再去能够争取在某些方面能够超越它,就至少而且要同时还有一点,就是能够保持住跟他们第一梯队不要掉队,这个也很重要。

中国我觉得如果 GPT 迟迟不落地,就哪怕说 GPT 就算落地了,因为它是一个黑盒,不受我们的控制,我觉得我们自己还是应该要有一个自主可控的大模型还是很重要。

如果我们想发展比较优势的话,我自己理解是不是还是在数据上下文章?

数据只是一个方面。从 open ai 他们透露出来的消息就是这种高质量的语料确实是很重要。然后当然除了语料以外,比如说算力,还有当然可能更重要的是一些算法,还有在一些工程上的一些实践,走哪条路是通的,哪个方法比较好,就会有很多小技巧在里边,这些技巧都是需要去慢慢试出来的,可能一开始就是试错,这条路不行我就试另外一条路,就不断的试出来。

现在OpenAI有很多合作方式,通过 API 接口接给合作方的方式,具体的操作的形式?他们如果去接 open AI 的话他们需要付出什么样的东西?比如说数据到底是怎么部署的?然后Openai 会为他们提供什么样的服务?是说会专门为他们搬运一个模型,还是说怎么样去开展 API 的合作?

这一块是应该是有两种方式,一种就是说他只是把模型 API开放出来,然后那么就第三方就去调用这些API,开放的出来的API 应该会有一些这种功能,说让你怎么去结合你自己的一些数据,自己行业的这些数据,然后能够去微调出来一个东西。

还有一种情况就是说如果第三方公司它足够信任Openai 这家公司,那么就把自己所有的这些私域的数据就都给 open AI,然后让 open AI 去根据这些数据再去微调出来这么一个大模型的系统。我自己感觉的话,就是因为 open AI 他们会比较对于这些比较懂,而且是他们自己的系统。所以如果这些数据能够交给他们的话,由他们去训练出这么一个系统,那肯定是最好的。

因为我觉得这些第三方厂家可能不一定有那么足够的技巧或者能力去了解。像什么这种微调这些里边其实还是有很多技巧。你比如说像之前推出的 new bing 里边,其实就是有很多这种微调的一些工作,怎么去结合原来的搜索,或者结合一些其他的一些数据。这个的话就是还是要看客户他对于自己的数据要保护到什么程度。

他们拿到了 open ai 的API,然后他们自己去做微调模型,是说他们能够去修改比较上层的模型的参数,然后让他的模型更适用于他们所需要的生成场景,是意思吗?

像他这种大模型的话,你再怎么微调,他自己本身的那些参数,那些是不会动的,他自己底层的大模型是不会改变的,你要调的只是上边,比如说根据上下文,跟它的promt engineering是可以调的。但是这些东西是不会影响到核心的那些参数的。

不管是接给谁做API,它的底层大模型,以及它的参数是不变,对吧?

是的。可能会有一些私域的一些数据,也许也可能给他,然后让他去做一些事情,就是之前的话我看微软是有推出一个服务,就是说去帮助比如说厂家或者合作伙伴去生成这种在线的人工在线的这种智能聊天工具。它的做法是它在部署的过程中的时候,只要客户把他的网站的 url 告诉GPT,那么 GPT 自己会去查网站上所有的这些数据,然后他去分析那些数据,然后就以这些数据去作为基础去提供智能的聊天工具。

所以就这也其实也是一种方式,就他那个网站的那些内容是公开的,但是他在生成智能聊天工具的时候,他就会把这些这个网站上的这些资料作为最优先,然后他的 GPT 自己会去做一些这种工作,然后就能够生成一个针对你行业或者公司的聊天工具。

合作方他使用了同样的prompt,或者说我们普通的 c 端的 GPT 的用户,我使用了和那个合作方同样的 prompt 进去它最后出来的结果当然每次是不一样的,但是每一次发生的它的分布的概率是一样的?

对,大家弄的 Prompt 值都是差不多的话,那它出来的结果应该也是差不多,除非做了其他的一些设置。

他做的一些调试可能是让我的用户更容易的 prompt 到他所需要的回答,以及他把某一些信息的优先级度提高,然后使得他输入Pro 更能够出现他所想要的回答,这就是他所微调的东西?

对,然后再加上或者说加上自己行业的一些数据,比如说公司他自己的网站,那他上边就是全是他自己公司的这些信息,那同样我可以给他灌一个数据库进去,或者灌一些私域的一些数据,这都是应该是可以的。

这两种模式,从目前的 Openi 的合作方来看,哪种的合作模式更多?

因为现在就是像微软和 GPT 还是有协议,所以是有排他的协议。当然具体的条款我们不太确定,chatGPT 的一些能力在某些方面是有限制的,比如说像搜索这种,只能是集成到微软,毕竟或者优先集成到微软自己的产品里,所以这是一种,那这种的过程当中就是微软和 open AI 两家是合作的很紧密,那微软是可以看到 open AI 的源代码,这是一种方式,还有一种方式只是它单纯的就是把 API 放出来,然后你可能只能通过微调,比如说提高上下文这种。

那还有一种可能更紧密的关系,就是我刚才说的就是微软或者open AI,它可以出一套方案,然后这个方案它能够去帮助你部署一些垂直行业的,就是那种 offline 的那种,就是给你定制一套你的大模型,那你这个时候是可以把你私域的一些数据换给他,然后他会根据你这些数据他再去微调系统。

所以这几种它其实合作的chatGPT,它能够就是做的程度其实是不一样的,像微软那种是最紧密的。然后接下来就是如果你能给它灌一些私域的数据,那它调出来的模型应该也是不错的。然后还有一种就是只是通过微调的这种比较简单的,但是并不能给他这种实际数据,这种还是就更差一些了,所以大概是有几种不同层次的合作。

国内很多声称自己调用了OpenAI的接口,他们是什么情况?

据我所知,像万兴科技的话,它应该是在国外有业务的,比如说有一些软件下载,内容生成,它在海外的那些业务,应该是可以去集成 GPT 的。可以调用 GPT 的一些API,去生成一些图片,生成一些内容,就类似于这样的一些。

所以就是当然国外所有的厂商都能够集成GPT,那就是看谁做得更好,看谁做得更快,当然你在集成的过程当中可能也是有一些技巧的,同样的一些API,有些人可能就玩得更好,玩得更溜,这就它的优势。

现在GPT,它的形式是说我去扒所有公开的数据源的数,然后我去做一个训练集出来,或者我去做人工标注,然后去输入一个模型来。这里面想请教一下,就是说数据它会有合规性的问题吗?就是说因为比如说我 Google 上所有的搜索数据,或者说我一些公开的图片库的数据,用来训练是合规的吗?就是说我是可以无偿的免费使用所有这些 public 数据做训练的吗?

基本上他用的这些数据其实都是公开的一些数据,然后再有一些网站,他如果自己设定了某个网站,不让网络爬虫去爬的话,那么open AI 就不会用这家公司的数据,因为它要遵从那套规范。那然后那像您刚才说的可能有一些,比如说像 GitHub 上的那些代码,然后他拿去训练以后,因为本身程序员,你把代码上传到 Github,你就已经跟Git hub 签了协议,说我这些代码上传到你这里你可以去做一定的什么用途,包括训练什么的。

而且再退而再退一步,就算他 git hub,他拿到了这些数据,他去做了训练,然后他生成了模型,但是它模型出来的一些答案他也不会去照抄你这些答案,就是人家有问个问


微软技术瓶颈 微软体系

微软技术瓶颈分析,微软的技术,微软公司面临的挑战,微软ria技术

ChatGPT的本质是什么?是否将替代人类工作?我们人类又该如何与之共存?我们邀请韦青老师(微软中国CTO)做客混沌。他将利用工程师的底层视角,为大家揭开人工智能的冰山一角,探寻ChatGPT为何全球爆火。

本文来自微信公众号:混沌学园 (ID:hundun-uni【【微信】】),授课老师:韦青,编辑:混沌商业研究团队,原文标题:《微软CTO韦青亲述:ChatGPT背后,暴露的全是人的问题》,题图来自:《沙丘》

一、比真还真的时代

1. 我们需要通过ChatGPT理解什么?

GPT是现在最热门的话题,但GPT3模型两年前就培训出来了。GPT4的出现让人惊艳,但去年8月份它就已经被训练出来了。

什么意思?ChatGPT实际上是冰山一角。当我们看到某些现象出现的时候,某种意义来讲,这件事已经结束了。而这个时代才刚刚开始,ChatGPT现象会层出不穷。

再追逐冰山已经没什么意思了,我们要尽快通过浮起的冰山,去理解我们可能进入了一片冰山丛生的海洋。

从一个本质性的构成来讲,人类对世界的认知已经经历了三个阶段:农业时代是物质构成的。有地、有粮、有人就等于有权力,有生存的空间;工业时代如果你有能源、有动力,比有粮食还具备竞争力;到第三阶段,人类发现信息也是构成世界的一种本源性的存在。思想受什么影响?信息。

无论是麦克卢汉,还是鲍德里亚的理论,都已经强调了信息、电子信息的出现,可能会使人类社会的结构、边界、性质、方式都发生变化。

麦克卢汉最出名的理论是地球村。请想象一下,在父母辈的时代,朋友大部分是单位的同事,来自家族、村子、单位。仅仅过了几十年,现在你的朋友圈还受公司约束吗?

鲍德里亚的观点是,如果人类无止境地或者完全泛滥地利用数字化信息技术,我们很快就会进入一个比真还真的时代,那些由人工智能生成的照片、文字,你觉得它是真的吗?

鲍德里亚说的“比真还真”的时代,它已经来了。

2. 语言是思想的边界,技术是思想的实现

这几个月太热闹了,或许先不需要这么快下结论。当你埋头在屋子里面,研究最新技术进展,比如现在最火的ChatGPT,出门一看,好像满世界的人都把它当成了很新鲜的事情。

ChatGPT3.0算是一个比较大的突破,但它两年前就有了。它的结构、基本原理也存在很多年了。

语言是思想的边界,这是维特根斯坦说的,但我要给他再加一句话,技术是思想的实现。

我们忽略了一点,能够把技术开发出来,先得有一个思想。ChatGPT,实际上它只是一种提取已经被沉淀、被记忆的知识的一种交互方式,底下什么?是基础模型。像谷歌的BERT,Facebook的LLaMa。

为什么GPT现在那么火?它背后是OpenAI的技术信仰,再加上微软的Satya(微软CEO)、Ke【【微信】】(微软CTO)这些人的技术信仰的结合。这些人都相信,靠大量的语料和海量的计算,能够产生出对于知识的沉淀和应用。

Sam Altman说,GPT走出的第一步,是把人类知识先沉淀下来。就像先把玫瑰花蒸馏成玫瑰精油。

但精油太浓了,你要使用的话,需要调和。所以第二步,就是用Instruct(指令)的方法,用提示词的方法,把精炼的玫瑰精油,滴到沐浴露中去。

但是,这件事没被证明可行之前,某种意义上是完全要靠信仰支撑的事情。有多少人敢这么做?又要花人力、花时间、花海量的金钱,结果可能竹篮打水一场空。某种意义上,它的成功也可以理解成幸存者偏差。

我认为你要赞叹的,不应该是ChatGPT的模型多么伟大,而是它背后耐得住寂寞、怀疑的这种定力、决心、信心,这已经是一种技术信仰了。

我们有没有对于工具、对于数字化技术的技术信仰?这才是我们应该问自己的。

认知达到信仰的层面,才能够选一条没有人走过的路。尽管今天还走不通,但你就认为这条路可以走,因为第一性原理告诉你,这样做是对的,只不过人类的技术还没有发展到那一步,还证明不出来。         

另一个例子是SpaceX。它成功了,大家都觉得太牛了。但当马斯克后来接受媒体采访时,他哭了。他说当时我认为火箭可以回收,但NASA、所有大咖级人物、科学家都跟他讲,这条路是走不通的。

OpenAI是一样的,我们认为它在2023年1月忽然出名,怎么可能?它背后有太多的辛酸、坚持、疑惑、摇摆,只不过坚持下来了。

3. 现在的机器并不具备真正的思想力

这一轮技术,大概率就是把我们的知识进行提炼。知识哪来的?是我们的所作所为、所写所说,落成的文字、视频、语音,经过数字化之后,被机器去提炼,建成一种模型,变成知识沉淀下来。

为什么大家觉得它很神奇呢?因为没有任何一个人有这种能力,能记住人类所有的知识。

有些人觉得,机器会涌现出一些思想能力。确实,它会表现成思想能力。但如果你知道它的算法是如何做出来的,你还是会形成自己的判断。

我要想先声明一下,每个人都会对这种现象产生不同的解读。我的解读是,现在的机器并不具备真正的思想力,是把人类知识记忆之后的一种使用能力。

机器是不会想的,想这个词是人类自己发明出来的。如果你硬把这种能力视为“想”,不能说错与对,但它会误导你对机器的判断、理解和定义。

4. 做一个思想实验,这轮技术到底是什么?

如果我们发现了,可以通过蒸馏的方式,从植物中蒸馏出它的油性。请问,花园甲跟花园乙的拥有者,做同样的事情,最后的价值会是怎样的?他们做出来的东西,对社会的影响力会大不相同。

花园甲的拥有者,会怀疑提纯机器不行?还是会痛定思痛,发现原料有问题?

当我们从农业文明进入工业文明,已经受过很多降维打击了。当物质、能量变成信息的时候,会带来更加降维式的打击。

这种竞争方式,已经不是技术能力的竞争,有钱没钱的竞争……而是文明在一较高低。

你的文明所表现的形式,能否被新一代的会思考的机器学到、吸收到,并且让它的行为方式对你有利?

ChatGPT刚火的时候,知乎股价飞涨。在中国,具备语言语料的网站绝对不止知乎。为什么它涨得那么厉害?我没做过详细统计,但我认为,知乎的花园可能类似于花园乙。

我们再扪心自问下,贵公司、贵机构、贵组织,你们的知识的表现形式、呈现方式,更像是左边还是右边?你未来如何跟具备这样能力的公司竞争?

如果你的信息,无法沉淀成能被机器学习的知识。这一轮的机器能力,你能够利用到的概率就大为降低。

二、机器文明,冰山一角

时代的巨变有个好处,不管你多么先进,多么落后,在这个时代又拉平了。

微软CEO Satya说的刷新,Hit Refresh就是此意,重来过一遍。在这一轮的技术潮流下,我们如何重新获得定位?需要我们每一个人思考。

1. 冲着ChatGPT创新,等于拎包入住而没有自己的地基

古人有一句话叫“圣人畏因,凡人畏果。” 有了理念、信仰、追求,才能产生结果,如果我们只抓着结果,很容易只见树木、不见森林。

拿ChatGPT来举例子。当我们看到这个技术结果的时候,要相信它不是从石头里蹦出来的。

2023年1月,微软CEO Satya和Sam Altman(OpenAI CEO)的合照在网上很火,他们跟大家介绍了双方的合作和技术的进步。但其实在2016年,双方已经开始探讨了。

OpenAI的成长,也是在不断摸索的。大家可以看一本书,《深度学习革命》,以OpenAI这批人为代表的深度学习实践者和探索者们,怎样从当初对谷歌人工智能产生一些担忧,到成立这间公司。一切都是有脉络可循的,是几十年的摸索、试错,才走到今天这一步的。

如果我们冲着GPT的模型去了,从创新的角度来讲,我把它称之为拎包入住。

大家想象一下,一片未开垦的土地,长满杂草茂木。但有人把它开垦出来了,又根据土地的特点,设计出人类能够居住的房屋,把楼给造起来了,再找一些设计师精装修。最后招商引资。

这时我们都看到了趋势,发现只要找个50层以上的公寓房做生意就能够大赚特赚,就拎包入住了。当时确实大赚特赚了。但若干年之后,文明变了,潮流变了,50层以上的房屋不受欢迎了,你怎么办?

OpenAI有很多算法,很多工具,它曾经在机器人上投资,现在有人去看它的机器人吗?ChatGPT只是它在众多的尝试中,凑巧发现了一条路可以往前走。你要跟着它这条路走,有点像守株待兔,认为兔子永远会撞在这棵树上。

我认为,其实各位可以在这一轮,去看OpenAI的理念,最早这些人是怎么想的、怎么做的、愿景是什么。

2. ChatGPT的冰山下面是什么?

如果说我们看到了冰山一角,下面是什么?

拿ChatGPT举例,它下层有两类支柱,产物、产出它的人。别只关注ChatGPT或GPT4,去看更深层的东西。

一方面是大语言模型,赖以沉淀人类所有的知识,或者是能够被它学习到的所有知识的机制。是Transformer/RNN/CNN/LSTM,是用数学的方式,表征物理世界和人类知识与行为的特征。

另一方面,OpenAI,也是由人构成。公司就是由一批志同道合者构成的一个组织,去完成一个共同的愿景,共同的一个目标。

这些人才是一批有科学修养的,又有工程实现能力的,又对语言学、计算机科学的第一性原理有深刻理解的。更关键的是,有一个共同的理想,坚信做这件事是对的,是有用的。

其实有很多人正因为OpenAI所谓的成功,反而离开了,因为觉得愿景不一样了。这是它的人才特征。

人才特征的背后又是什么?容错、合作、开放的文化,不拘一格降人才的用人风格,配合的风格,彼此交流的风格。

如果我们连办公场所都严格要求,老板、员工分级坐,等级森严,是很漠然的群体,有可能做成这件事吗?

我自己也是管理者,感触还蛮深的。各个企业的文化真的不一样。有开放的、有封闭的、有严厉的、有宽松的、有说一套做一套的,有说知行合一的,所处的行业特征,社会的氛围也真的是不一样的。

错误是成功的前提条件。你公司的环境,整个的社会大环境,允许不允许这种容错文化的出现?

所以有些人问我,咱们应该怎么做ChatGPT?

我说如果你要做一个ChatGPT,个人的建议,还是别玩这个游戏了。就像是打冰球,追着冰球打太难了,你最好天天求什么?求前面没人打了。但那时,新的赛道又开出来了。天天在说弯道超车,等你真超过去才发现,前面已经没车了。

新开辟一条道路,需要建立这种环境,建立这种文化,培养这种人才,这才是最基本的。Sam Altman那批人就是坚信大模型大力出奇迹,就能够表征人类的知识,就这么简单。

3. 通用人工智能(AGI)

通用人工智能(AGI)是他们的追求。OpenAI会为之付出无穷的努力,不懈的追求,直到证明它绝对不行了。只不过,很巧它成了。但就算在AGI上,大家的关注点,也都各有侧重。

20年前谷歌刚成立的时候,只是个搜索引擎。你会感到很无厘头,一个搜索引擎,为什么把不作恶作为标准?现在大家明白了吧,在一个“比真还真的时代”,给你的信息当然可以作恶。

AI也一样。微软明确指出要做负责任的AI,谷歌说的叫不作恶。OpenAI提出UBI,全民基本收入(UBI,是指“无条件”地为所有个人定期发放一笔现金收入)

Sam Altman在采访中说,需要新思想回答的三个问题是:如何分配通用人工智能产生的利润?如何分享通用人工智能的访问权?如何分担通用人工智能的治理权?

大家想一想,为什么Sam Altman想到了这三个问题?

还是因为AGI一旦推出来,大家马上就会发现,它的能力太大了,如果不能让人类在这三个问题上达成共识,有人赚便宜、有人吃亏,就产生动荡的因素了。AGI带来的这些议题,需要我们去了解。

4. 有些议题其实已经被思考100多年了

建议大家看一下《大都会》这部电影。它1927年上映,到现在马上100年了,你会发现,我们几乎在重演历史。

它出现了三个文明的特质:

1)无用的机器。出现了过度设计的无用的自动机。仔细想一想,它每一个理念,每一个精巧的激发过程和动作,是不是我们现在人工智能、机器人的思想的底蕴?

那么,我们有没有可能在不接受,甚至排斥“无用的自动机”前提下,鼓励工程师,孩子们去创造出这种自动机的文明?当不被鼓励、允许的时候,他们有没有可能去做自动化的事儿?

我再举个例子,我们这个文明是不接受多米诺骨牌有任何价值的。但实际上,多米诺骨牌跟无用的自动机,背后都有一个隐含的、对于自动机的一种强烈的发自内心的追求。人工智能没成功前的所有投入,都是无用的自动机。这就是我们要深思的。

2)魔法师的学徒。名字来源于歌德的戏剧,它在全球技术领域经常被引用,说人类在开创一些魔法式的技术,但魔法需要被制衡,开启魔法以外,要会关。

3)精灵宝瓶。你不但要关掉魔法,还得把它收回去。留在世上可能也会有问题。

《大都会》结尾有一句经典名言,说在负责思考、筹划的大脑跟执行任务的双手之间,必须有一个调节者,这个调节者必须是人心。

我想说,当你为ChatGPT激动不已,脑补着很多东西的时候,有些议题其实已经被思考100多年了。而且,还没有定论。一两百年过去了,大家仍然在探讨自动机的普遍流行造成的后果,和相应的人文上的制约。

这就是盖子揭开之后,人类所面临的话题。这是远比所谓的人工智能奇异点,更宏大、更深刻、更严峻的话题。

三、如何利用机器?“教-学”相长,“有-用”相随

人和机器的关系是什么?比较理想的状况,是由机器弥补人类的弱点。那么,首先机器的优点、弱点是什么?人类的优点、弱点是什么?我们知道吗?

第二,人类怎么指挥机器?机器怎么能够被指挥?怎么能够不被指挥?我们考虑过吗?

第三,教学相长。我们要明白它是怎么学的,才能明白怎么去教它。

1. “教-学”相长

这点我特别希望想跟大家强调一下。否则,我们会误以为机器真能凭空学到知识。

上图中有几个机器智能的关键词,表征、映射、记忆、应用、学习。

图中还有从GPT4官方网站上取的一句话,这是它对GPT4的定义。我们把GPT4开发出来,就是让它去解决困难的问题,靠什么呢?靠形成的通用知识。

问题是输入,映射能力就是这种函数关系,产生的结果就是问题被解决掉了。

我认为它说得恰到好处,没有说什么特别花哨的东西,就是由一种知识去解决一种问题。知识是桥梁,问题是输入,把问题解决了是结果。

如果再优化,这三个等式。

第一个公式在描述什么?这是一种映射。即通过输入的变量,在一定参数的配置下,产生你要的Y。

第二个公式:这个Y是永远不可能完全满足你的。所以怎么办?理想的Y,减去每次产生的Y,产生一个偏差。

第三个公式:你接下来要做的事儿,就是不管用什么样的算法,把偏差最小化。

我们如何用机器?不就这三件事儿吗?

你作为一个人,是不是同样也在做这三件事儿?也要根据你的X和Y搭建一种函数,一种能力,也要去配置参数?每次你的Y也会因为一些小细节,比如这个月的销售涨了,产品的次品率低了,跟你的理想值之间出现偏差,你也要想办法把偏差减到最小。

明白机器的做法,你就能知道,我们应对的是怎样的时代了。

2. 机器的祛魅与魅化

如果再剖开来看,我今天不是在讲技术的细节,而是在讲它的祛魅。

我们给ChatGPT披了一张画皮,呈现出一个智者的形象。想象一下,ChatGPT是一个狐仙。我问,它答,你会觉着它是一个神人。但把这画皮一揭开,原来你提出的问题,就是一段指令,你还会觉得很神奇吗?

你还会对它有任何的人性化的连接吗?你还会觉着,它要把我的工作代替掉了吗?你觉得,是它把你的工作代替掉,还是它所赋能的一个机器或一个人把你的工作代替掉?

我们讨论了给它祛魅,它有被魅化的可能吗?如果基于你喜欢什么,会对什么产生情感的共鸣,如果我想给你造成一种它具有人性或神性的印象,也是可以做到的。

比如,给一个机器人取名叫欢欢,或者取一个让你感觉到很亲切的名字,或者让机器的表达去模拟人的方式,让你产生情感的绑定。你觉着有多少人能够受得了这种感情的诱惑?

也就是说,我们的决定和共识,会决定我们的下一代,决定我们自己怎样看待机器,是祛魅化?还是妖魅化?

这点并没有达成共识,甚至没有人去谈这件事情。

在英文的语境下的Robots,bots,中文居然把它翻译成机器人,自然地就把它向人靠了。实际上Robots和bots没有任何的“人”的含义。

我们这个文明,是否需要主动地把这种机器能力,用语言的方式,用形象的方式,用各种各样的方式,把它跟人连在一起,这是不是走得有点太大了?这也是一个问题。

3. 机器是不理解概念的,机器理解的是概率分布

再给大家举个例子,我对ChatGPT提出了一个问题:“我想去中国旅游,我从来没去过,那里的哪座雪山值得去看看?”

它回答说,“我无法判断雪山的美丽程度”,为什么ChatGPT给出了这样一句答案?这句话相对来讲,很符合人性。

但实际上机器怎么理解的?美字之后,好、妙、丽,各有概率的计算值。其中丽字的概率值最高,所以它就选了美丽。接下来呢,又有几个字备选。程、景、心,在人类的语言中也都和美相关,比如美丽程度,美丽景色,美丽心情。机器发现“程度”两个字概率更高。

最后它是自然就选择了“度”字了吗?不是的,度字概率最高,所以这句话就出来了。如果你前面问的问题是《三体》的主角是谁,八成它会选择,心。

我们认为它很完备,懂人话,说人话。但你发现没有?人跟机器的理解是不一样的。如果我们不知道这一点,就被它魅住了。一旦被它魅住,你很难成为它的主人。

所以,你要明白这一点。

其实机器是不理解概念的,机器理解的是概率分布。语言,每一个字的出现,都是有概率分布的。它的答案是基于概率的一种推理,不是概念的推理,这一点我们务必要明白,这是祛魅的一个必要条件。Sam Altman(OpenAI CEO)能够坚定信念,其实是因为他对语言的特征,有深刻的理解。

你觉得机器像人对吧?其实我要说,是我们太不像人了,所以才认为机器像人。何以为人?尤其是当我们知道自己有那么多的误区、偏差之后,如何去弥补、防范思维误区和偏差,让我们做得像个人?这是远比AI会不会代替掉人,更核心、更本质的一句话。

越是纷纷扰扰,越要守住第一性原理。这个时代,门开了一道又一道,但外界其实一直这样,是有风险的,只是我们没有跳出舒适区。

4. 我们应该用AI干什么?

下图是微软的数字化智能反馈链,现在特别出名。基本概念是,帮我们建立起跟世间所有的对象的实时连接。知道它的状态,反馈回来,进行优化,进行完善。

可以理解成什么呢?无处不在的智能、计算、感知、决策。但实际你看,除了中间写了Data AI,其余圆圈里,写的都是我们日常的工作、学习、生活。

我想强调的是,AI是干什么的?它跟上一世纪出现的电的特点是一样的,应该是无处不在,通过建模仿真来进行计算和优化,用机器能力去赋能、帮助和完善我们的每一个过程。

但如果丧失掉了人的主观能动性,如果没有人的约束、制约、控制,没有负反馈,全是正反馈,可能让它自激了。它可能会在瞬间用掉地球的资源,理论上讲是可以达到这种情况的。

所以就算是GPT,它也经过培训,人是在决策链里面的。GPT这样已经有很多知识沉淀的模型,能够被使用,也是因为人的主观能动性在继续发挥作用。

明白这个道理之后,你会发现实现起来没那么复杂。

OpenAI跟微软合作,现在开放的这四个功能,你发现没有,严格意义来讲,都不会被普通用户使用到。

我们用到的是什么?是被它这种能力赋能的,所加强的,一种工作的性质和内容。

所以虽然OpenAI的技术很先进,微软也在大力地推动,我们追求的不是ChatGPT或GPT,而是整个的一个系统观,是Azure AI。Azure AI里面有除了OpenAI以外的很多功能,有很多技术的同步的实现。

四、知其雄,守其雌

如何面对这个时代?

1. 三个关键词

有三个词可以供大家参考――“煤气灯下”、 知识“肥胖症”、知识“智子”。

煤气灯下。Gas Lighting是2022年,韦伯字典的全球热词,是上一世纪40年代一部电影的名称。电影讲述了,一位先生想谋取他太太的财物,一直在给太太洗脑。电影用蒙太奇的手法,煤气灯摇摇晃晃,让人感觉到眩晕,感觉到不确定。它为什么变成全球热词了呢?因为现在机器生成的虚假消息和错误消息,就如同摇晃的煤气灯,让我们失去了对什么是真实的客观判断。

知识肥胖症。我们都知道,垃圾食品可能会带来身体肥胖。但是大家想一想,每天我们通过手机,看了多少知识快餐?

扪心自问一下,我们消化得了吗?我们的大脑,没法去理解,也没法记忆,就是不断吞下很多信息。带来了大脑的虚假连接,每个连接都是耗能的。我们天天在消耗那么大的能量,但由于知识没有重复,其实什么也没记下来。

那么,我们是愿意沉浸在知识的恐惧症中,觉着不学要落伍,还是愿意理解能力的局限或者约束,来学我们能够消化的知识?这一点,能够决定我们的生活素质的高低。

知识智子。算法机器,是把人类知识吃进去,消化,把它变成精华提炼出来。如果你没有不断给它进入新的知识,或者说,新的知识也是这个引擎产生出来的,大家想象到结果了吗?

它就变成了一个正反馈,就像狗咬尾巴一样,不断在打转,不断地去精华同样的知识。一开始,可能会有一些所谓的涌现现象,但我觉得,如果你不给它添一些额外知识,机器转得又快,越来越压缩,你会看到这个模型好像越来越小,越来越精练,越来越有用,但实际上它的知识固化了。

类似于《三体》里的智子,是一种源头上的约束,让新的知识无法产生。

这种情况不一定出现,但是有这样的隐忧。它是受机器能力本身所局限,尤其当我们人类不加约束去运用的时候,就会出现这种情况。

2. 文明这个话题很关键

提炼知识的算法是没有文明的,但你给它供给的原料是有文明的。我们要给这种技术以文明,我们的文明,让它能够沉淀下来,为我们所用。

文明这个话题很关键,我拿几张图,给大家展现一下,还是蛮发人深思的。我在中文语境下,试了一些关键词,让我很警醒。

“开心的农民在广阔的农田里驾驶着拖拉机收割。”你觉着机器在中文语境中应该给你什么样的图片?

我又试了一些词汇,当我想让它产生出一个我希望跟我的文明相吻合的图像时,它产生的是这样的图像,不能说它错误,是说它跟文明的背景不兼容。

我有点着急,好歹给我出点跟中国相关的形象吧?所以我输入了语文老师,符合中国的文化特点的语文老师。

你看它给我产生一个什么形象。一个非常古旧的、传统的、没有现代化文明特征的一个语文老师的形象。但我们中国的语文老师有这么古老吗?他们是不是也在用计算机,穿现代化的服装,在给一帮活泼的学生在讲课?

在算法界,这叫做语料的偏差和偏误。今天我一直在跟大家讲的,不是算法,要比算法大得多。文化、文明的传承之前要提炼,沉淀下来,让我们的下一代,包括我们自己