庆云古诗词

庆云古诗词

消息称戴尔PC将完全退出中国,完整时间表曝光;蔚来性侵丑闻女员工发声:蔚来仍未道歉;三星拍月亮被疑存在造假丨雷峰早报

淘文章 0
戴尔用户怎么退出,戴尔退订机是咋回事,戴尔epsa怎么退出,戴尔电脑怎么退出supportassist

3.15

科技史上的今天

2013年3月,去哪儿开始推广酒店全面解决方案系统,让客户可以直接在去哪儿预订酒店,并完成填写个人预订信息、付款交易等全过程,随后由去哪儿向相应OTA提供交易记录和金额。这就意味着各大OTA,包括艺龙、同程等,既要向去哪儿支付广告费用,又要被截流用户数据,同时去哪儿的广告点击费用还要上涨。

――林军、胡础斗刑谛率年》

今日头条

HEADLINE NEWS

【【微信】】公布最新版本GPT-4 称其能在SAT考试中击败90%考生

3月14日,人工智能研究公司【【微信】】公布了其大型语言模型的最新版本――GPT-4,并表示模型在许多专业测试中表现出“人类水平的性能”。

据悉,【【微信】】于2020年发布了GPT-3(生成型预训练变换模型3),并将其与GPT-3.5分别用于创建Dall-E和聊天机器人ChatGPT,这两款产品极大地吸引了公众的关注,并刺激其他科技公司更积极地追求人工智能(AI)。

【【微信】】周二表示,在内部评估中,GPT-4产生正确回应的可能性要比GPT-3.5高出40%。而且GPT-4是多模态的,同时支持文本和图像输入功能。【【微信】】称,GPT-4在模拟律师资格考试的成绩在考生中排名前10%左右,在SAT阅读考试中排名前7%左右,在SAT数学考试中排名前11%左右。据合作方爆料,新版必应搜索引擎也将使用GPT-4。(财联社)

国内资讯

DOMESTIC NEWS

传戴尔PC将离开中国 完整时间表曝光

3月14日,有媒体曝光了戴尔所谓“去中化”的全套剧本和时间表,从上游IC采购到中下游周边再到整机组装,都有明确的安排。

根据计划,戴尔预计从2025年开始,首先在中下游供应链中排除中国内地制造,并优先在美国内需市场上进行转变。比如笔记本,戴尔计划到2025年,在美国市场上销售的产品,60%必须在中国内地之外的地区生产,2027年则达到100%。IC零组件采购方面,戴尔计划从2026年开始,分阶段离开中国。(快科技)

华为开发出芯片堆叠技术方案?官方回应:谣言

3月14日晚间消息,针对网络上流传的华为开发出芯片堆叠技术方案的通知,华为方面回应称,通知为仿冒,属于谣言。

近日,网络上流传的一份通知称,华为宣布,已经成功开发出芯片堆叠技术方案。另外,还有传言称华为的芯片堆叠方案,可以在14nm制程下实现7nm水平,属于曲线救国。对于该通知,华为称为仿冒,属于谣言。(新浪科技)

蔚来险遭性侵女员工发声:蔚来仍然没有道歉和承诺整改

3月14日消息,蔚来汽车深陷性侵丑闻继续发酵。近日,女子称自己入职蔚来的第一个月,被男同事试图强奸。目前,该男同事已因强奸罪入狱。3月13日,女子发视频表示,距离自己上次回应已经过去一周了,还是没有等到蔚来对公众的道歉和承诺整改的态度,也许永远也等不到。也希望更多公司能重视起职场性骚扰的问题,提供一个更加安全公平的工作环境。

市场监管总局:2022年接收新能源汽车投诉举报1.6万件

3月14日,市场监管总局发布数据显示,随着新能源汽车渗透率快速提高,消费者对品质的要求也在不断提升。2022年,平台接收新能源汽车投诉举报1.6万件,同比增长62.84%。其中,合同问题、质量问题、虚假宣传问题增速较快,分别同比增长126.33%、77.35%、75.65%。消费者诉求聚焦在:售后服务不完善,不履行“三包”承诺;行驶中突然熄火、漏油、发动机异响、刹车转向失灵、电池模块损坏;发布虚假信息,诱导消费者签订不公平格式条款,减轻车企责任。

腾讯会议再次调整:将取消免费300人不限时会议

3月14日,腾讯会议发布调整说明:4月4日起逐步取消免费用户“300人不限时会议”使用权限,单场会议最高人数和时长调整为100人/60分钟。与此同时,会员服务也有部分调整。

知乎市场负责人离职,教育业务或将分拆

3月14日,有媒体报道,知乎市场负责人宋晓曦已离职两周,她在知乎的任职时间还不到两个月。2022年4月,原市场负责人、老知乎人来原离职后,市场中心由知乎公关负责人张欢接手。当时,内部人士认为这是一个过渡方案。2023年初,张欢也从知乎离开。知情人士认为,过去一年,市场部门表现可能未获得高层认可。现在,知乎副总裁张宁暂时代管市场部。(市界)

蔚来:不会减配降价,价格内卷不可持续

针对近期宝马、奔驰、奥迪等汽车品牌对旗下主销车型大幅降价,蔚来销售运营助理副总裁浦洋表示:“蔚来不会通过ET5各种类型的减配或者减权益来参与降价。我们相信这波降价潮来得凶猛,退却也快。蔚来会按照自己的策略去争取更大的市场份额,通过直营的手段、更高效的运营,以更精细化毛利的运营方式,为用户提供一个极具高端性价比、极具竞争力的产品。” (中证网)

长安深蓝被投诉“虚假宣传”“恶意降价”

近日,长安深蓝SL03部分车主向长安汽车维权,从网传消息来看,内容涉及深蓝SL03虚假宣传/故障频发/恶意降价等行为。

据黑猫投诉统计数据,2023年一季度,长安汽车居投诉榜首,近30日内投诉量达到129次,投诉主要涉及到虚假宣传、质量问题、短时间内降价等问题。长安汽车消费者投诉称,长安作为国企欺骗消费者。他表示2022年12月30日在重庆长安新能源科技有限公司购置一辆长安深蓝SL03增城版汽车,三个月后直接就开始大降价。作为最初深蓝的支持者,买车后遭遇多重打击。当事人还表示,我们老百姓的钱也不是大风刮来的,车子续航油耗都于官方宣传严重不符。(电动知家)

香港科技大学:期中报告使用ChatGPT可加分

3月13日,据《香港经济日报》报道,香港科技大学有课程已率先鼓励学生使用ChatGPT,列明在下周提交的期中报告中,学生若使用ChatGPT可获额外加分。带领课程的科大副教授及高级顾问(创业)黄岳永形容,ChatGPT 将为未来学习带来无法逆转的改变,加深知识深度和带来更多创意,呼吁教育界不同界别尽快实践应用和讨论。

目前,除香港科技大学外,香港大学及岭南大学上月宣布临时禁止学生使用ChatGPT,港大副校长(教学)何立仁3月9日再向师生发电邮,指相关短期政策不变,并持续至8月本学年结束。(界面新闻)

华为手表将率先支持卫星通信

3月14日,据华为发布的海报猜测,新系列华为手表将支持卫星通信。短时间内卫星通信技术不仅实现了从实验室到商用的演进,还将实现手机到手表的技术攻坚突破,卫星通信技术或将成为智能穿戴行业的技术新趋势。据了解,即将发布的华为WATCH Ultimate还将支持“上山下海”的全新体验。

李开复称AI 2.0已至,将诞生新平台并重写所有应用

3月14日,在北京创新工场总部举办的“AI 1.0到AI 2.0的新机遇”趋势分享会上,创新工场董事长兼首席执行官、创新工场人工智能工程院院长李开复在分享会上指出,在深度学习的重大突破之后,AI已经来到从1.0迈入2.0的拐点。AI 2.0将会带来平台式的变革,改写用户的入口和界面,诞生全新平台催生新一代AI 2.0应用的研发和商业化。

创新工场主要关注三类投资机会:AI 2.0智能应用、AI 2.0平台和AI基础设施。(新浪科技)

华为P60系列将于3月23日发布

近日,华为正式官宣将于3月23日14:30在上海召开华为春季旗舰新品发布会,届时将发布华为P60系列、华为Mate X3折叠屏,预计还将包括畅享60、Watch 4系列智能手表、Band B7运动手环、华为Freebuds系列耳机等新品。根据此前的爆料和各种认证信息,华为P60系列搭载高通骁龙8+4G平台,首发50Mp±的索尼IMX888传感器,搭配f/1.4-4.0可变光圈方案,还会搭载华为自研的 XMAGE 影像。(IT 之家)

蓝标传媒:已成为微软广告官方代理商 将开展基于【【微信】】的技术产品合作

3月14日消息,蓝色光标在互动易上表示,蓝色光标旗下蓝标传媒已正式宣布与微软广告大成战略合作,并成为其官方代理商。同时,公司将与微软开展基于【【微信】】的技术产品合作,通过敏锐地洞察与过硬的实力使更多出海客户享受到AI发展的红利。蓝标传媒将在国际元宇宙团队设立出海AIGC中心,加速AIGC赋能各项出海服务的业务需求。(站长之家)

上海嘉定测试9辆自动驾驶清扫车,可替代25名环卫工人

近日,上海市嘉定区博园路新增9辆自动驾驶清扫车,一辆自动驾驶清扫车每小时可作业10公里,能够连续不断工作8-16小时,替代25名左右的环卫工人。2023年初,全新一代18吨级的自动驾驶清扫车发布,并投入嘉定示范段的常态化清扫作业。该款车型在车头上搭载有128线束激光雷达、各类高精度传感器及定位系统,它可以帮助车辆在作业过程中360度感知周边的情况,通过人工智能技术识别目标,分辨前方的事物,并选择避让或是清扫。

国际资讯

FOREIGN NEWS

拍摄遭质疑!网友证明三星拍月亮存在“造假”

3月14日消息,有用户在Reddit上发帖说,自己证明了三星Galaxy旗舰型号在拍摄月亮方面存在造假行为。

据了解,这个用户将一张设置尺寸较小(170×170)的月亮照片,显示在显示屏上。这时候图片已经比较模糊,无法呈现月球上细节,随后该用户关掉房间的灯,用Galaxy S23 Ultra的长焦镜头拍了张照片。结果并非一张模糊的照片,而是一张经过计算和调优的清晰月亮照片。据悉,三星也曾发文表示,自S10开始开发的“场景优化”功能,可以使用AI来帮助识别画面内容的拍摄内容,并助力获得最佳成像效果。(快科技)

网站一度瘫痪!硅谷银行门口,大批储户排队取款!许多人领取支票失败

3月10日,美国硅谷银行突然宣告关闭。美国监管机构宣布为硅谷银行储户托底并提供250亿美元紧急贷款。但在当地时间13日,很多硅谷银行的储户仍然未能成功取款。虽然目前美国监管机构表示会“兜底”,所有账户的存款能得到保证,但很多人因为周一取款失败,而仍然非常担忧。并且有很大一部分储户在外地或者在海外,当线上汇款迟迟无法处理的时候又不能来到现场取款,对于这部分储户来说应该是更加紧张。

同时,硅谷银行是不少公司和基金的唯一银行,他们把钱取出来之后需要转入新的银行账户,但大的商业账户一般需要一到四周的时间,所以这部分储户也无法直接申请汇款,就算拿到支票之后也无法迅速转入新的银行,因此公司的运营支出以及工资发放也都还是会受到影响。

微软推进万人裁员计划:AI部门道德和社会团队整个被裁

今年早些时候,微软宣布将进行一次涉及上万个岗位的大规模裁员工作。现在,微软进一步推进裁员计划,解雇了人工智能部门的整个道德和社会团队(ethics and society team)。据悉,在该团队被裁后,微软将不再设立专门的团队来保障AI的原则和产品设计紧密相关,但会依旧保留Office of Responsible AI部门,负责为AI项目制定规则。

新加坡正尝试通过大量补贴说服台积电建厂

3月14日消息,新加坡正在积极尝试通过大量的激励和补贴,说服台积电投资建设12英寸的晶圆厂。业内人士透露,新加坡方面此次提供的补贴,包括免费的土地、水和电力,也包括税收优惠及充足的人力资源,有可能说服台积电兴建一座12英寸的晶圆厂。

台积电目前在新加坡有一座合资的8英寸晶圆厂,在1998年建设,最初是由台积电、恩智浦半导体旗下的一家公司和新加坡经济发展局三方投资建设,但在2006年,台积电和恩智浦收购了新加坡经济发展局的股份,进而成为了台积电与恩智浦的合资公司。(TechWeb)

苹果罕见高管“离职潮” 9个月已有11位高管离职

从2022年下半年开始至今,苹果失去了11位高管,其中大多数人的头衔都是副总裁,略低于向CEO蒂姆・库克 (Tim Cook) 汇报工作的高级副总裁。他们都是一些苹果最重要的人物,负责着许多核心职能的日常运营。这些离职副总裁负责的业务广泛,包括工业设计、在线商店、信息系统、苹果云计算、硬件和软件工程、隐私问题、新兴市场销售、订阅服务和采购等领域。

谷歌在Gmail等办公应用中引入AI技术:可自动生成所需内容

3月14日,谷歌宣布,将进一步在其产品中引入人工智能(AI)技术,这一次将把它整合到Gmail电子邮件和Google Docs文档等办公应用中。谷歌还表示,计划在今年晚些时候将更多人工智能功能引入Google Workspace,包括在工作表中生成公式,在幻灯片中自动生成图像,以及在Google Meet中做笔记等。

Meta减少数字藏品,发力Meta Pay等金融科技工具

据报道,Meta在推出数字收藏品功能不到一年的时间切断了对其平台上数字藏品或不可替代代币(NFTs)的支持。Meta金融科技主管Stephane Kasriel周一(13日)在推特上发文,“我们目前正在逐步减少数字藏品业务,转而专注其他方式来支持创作者、个人和企业。”还指出,“我们将继续投资于人们和企业未来需要的金融科技工具。我们正在通过Meta Pay简化支付,让结账和付款变得更容易,并投资于Meta的消息支付功能。”

据了解,自去年末以来,不断有报道称Meta正对其公司进行重新整合,包括裁员、项目关闭、扁平化管理等。Meta首席执行官马克・扎克伯格也将2023年称为旨在控制成本的“效率之年”。(新浪财经、财联社)

BuzzFeed现金大部分存在硅谷银行

知名数字媒体BuzzFeed披露,该公司5600万美元现金的“大部分”存放在已经破产的硅谷银行。这表明,如果美国政府机构没有在硅谷银行破产后介入,BuzzFeed的财务状况将变得非常脆弱。BuzzFeed在2022年第四季度财报中披露了这一情况。财报显示,BuzzFeed第四季度总营收1.346亿美元,同比下降8%。2022年全年营收同比增长10%,至4.367亿美元,净亏损为2.013亿美元。BuzzFeed对2023年第一季度的业绩展望同样不佳,预计总营收为6100万至6700万美元,比2022年同期下降最多33%。

印度将强制手机厂商允许用户卸载预装App

据报道,一份政府文件显示,印度计划出台一项新法规,强制要求智能手机厂商允许用户卸载预装应用程序。分析人士称,此举可能导致各大智能手机厂商在印度发布新产品的日期被推迟。同时,也将使苹果、三星和小米等手机厂商在预装应用程序方面遭受损失。两位知情人士称,根据新法规,智能手机制造商将必须提供卸载选项,新机型将由印度标准局(BIS)授权的实验室进行合规检查。

苹果手表数据显示仅31%的人睡够7小时

研究人员利用Apple Watch收集的苹果心脏与运动研究的数据显示,大多数人每晚都没有得到足够的睡眠。研究人员分析了来自Apple Watch用户的290万多个夜晚的睡眠数据。他们发现,只有31%的人每晚至少睡7个小时,这是健康成年人的最低睡眠时间建议。对于至少分享了10个晚上睡眠数据(共42455名参与者)的参与者来说,每个人平均每晚睡眠时间为6小时27分钟。(IT之家)

荷兰展出AI版戴珍珠耳环的少女引争议

法新社近日报道称,荷兰海牙莫瑞泰斯皇家美术馆一幅通过人工智能技术制作的《戴珍珠耳环的少女》画作引发争议。在展出的作品中,一幅以互联网数百万张图片为基础生成的AI作品引发争论。荷兰艺术家伊瑞斯・康皮特表示,人工智能侵犯了其他艺术家的版权。“这是对维米尔遗产及所有艺术家的侮辱。”而美术馆方面则表示,很难定义什么是艺术,“我们认为这是一张漂亮的图片”。(环球时报)

马斯克“减肥神药”遭疯抢!欧洲药管局就短缺问题发出警告

3月14日消息,欧洲药品管理局(EMA)发布官方声明表示,诺和诺德(No【【微信】】)生产的索马鲁肽降糖针诺和泰(Ozempic) 将面临较长时间的短缺,预计这种短缺将持续整个2023年。药管局补充称,虽然这一药品的供应仍将继续增加,但不确定何时才能到满足市场需求的地步。该机构还要求医生优先为糖尿病患者注射诺和泰,而不是将其作为减肥药物出售。

值得一提的是,去年10月,特斯拉CEO埃隆・马斯克在社交媒体回复网友时表示,除了禁食,Wegovy也是他减肥的秘诀之一。

今日热门视频


比特派钱包app官方下载地址查询 比特派钱包4.9.2下载

比特网app下载安装,交易所app下载,u币怎么开户,比特派钱包app官方下载5.0050

来源:“峰瑞资本”(ID:freesvc),作者:陈石

图片来源:由*版图AI工具生成

“【【微信】】”可能是从2022年底至今,最为出圈的科技热词之一。GPT是Generati【【微信】】rmer的缩写,表示生成型预训练变换模型。这个由OpenAI研发的语言模型激起了人们对AI技术新一轮的热情。人们与【【微信】】畅谈古今,请它翻译文本、编代码、写文章。(p.s.猜猜看,这篇文章是不是【【微信】】写的?)

爆火背后,我们试图对【【微信】】有更多理解。如果说以【【微信】】为代表的AIGC(AI-generated content,AI生产内容)本质上是技术革命,那么,脱离了对技术的认知来讨论这个议题,难免会出现偏差。

在这篇报告,我们会先梳理【【微信】】发展的历史沿革:它从哪里来,到底是什么技术在驱动它向前。我们的思考也会围绕人们对它的讨论而展开:它能火多久,有机会成为“人类大脑”或通用人工智能(AGI)吗?同样重要地,我们会把落点放在创投行业,来探讨与AIGC相关的创业及投资机会。

【【微信】】的本源――语言模型

【【微信】】其实是一种语言模型。依据OpenAI官方的介绍,【【微信】】已具备理解和生成人类语言文本的能力,可以跟人类轻松对话。

图片来源:OpenAI官网

人类的语言非常复杂,而比语言更复杂的,是创造语言的思维。人们曾经试图给语言建模,但是一直没有取得显著性的成功。而【【微信】】则为语言建模打开了新的窗口,这也是它的诞生轰动全球的原因之一。

Wikipedia对语言模型的定义是:“单词序列的概率分布,给定任何长度为m的单词序列,语言模型通过对语言的文本语料库进行训练,来生成概率分布”。斯坦福的公开课说得更为直接:“语言模型就是用来预测下一个出现的词的概率”。(斯坦福的定义概括了GPT的核心原理,而不是BERT类语言模型的原理。或许这能从侧面反映,人们已将GPT采用的技术路线,视为主流语言模型路线。)

GPT系列的语言模型,其主要目标是预测下一个单词。比如,前半句是“the students opened their”,语言模型要预测的是下一个单词出现“books”或者“laptops”或者“exams”等词汇的概率分别是多少。语言模型的技术原理虽然简单,但是却衍生出了【【微信】】这样智能、有复杂应用场景的产品。

【【微信】】可能是当前最成功的大型语言模型,我们正在经历iPhone Moment

【【微信】】可能是目前最成功的语言模型,人们把当下这个【【微信】】诞生的时刻称为“iPhone moment”。

GPT是Generati【【微信】】rmer 的缩写。Transformer神经网络算法是当前最新的一种算法模型,我们会在下文展开。GPT系列模型都是语言模型,是新型神经网络算法、新型模型训练方式加上海量数据算力多重因素叠加产出的成果。

GPT模型有几个主干版本,从 GPT-1、GPT-2、GPT-3演进到最新的GPT-3.5版本。

当下人们使用的【【微信】】是在3.5版本的基础上,专门针对人类需求做了大量微调,引导模型输出更符合人类需求的结果。这让GPT模型逐渐“社会化”,变得更像人。经过微调的【【微信】】“情商”变高了,不再只是个话痨,也不再那么口无遮拦。

【【微信】】的诞生过程

图片来源:微信公众号@AI语者

在【【微信】】问世之前,GPT模型经历了怎样的发展历程?

2017年6月,Google发布Transformer这一神经网络算法模型,它为大型语言模型的发展奠定了基础。

一年之后,OpenAI公司推出了GPT-1,GPT-1采用语言模型预训练+微调训练两阶段的训练方法,在问答和常识推理、语义相似度、分类等任务中,取得了还不错的语言任务执行效果。

2018年10月,Google推出另一个语言模型――BERT,效果超过GPT-1。

图片来源:知乎@雅正冲蛋

GPT和BERT都是基于Transformer衍生出的算法,但在技术路线上各有侧重。GPT基于 Transformer 右边部分,叫解码器。BERT基于 Transformer 的左边部分,叫编码器。

GPT的技术原理是预测下一个词,你可以看作是“文字接龙”,你写出前面的句子,由GPT来猜下一个词。但BERT更像是“完形填空”,其技术原理是把一句话中某个词给遮挡住,然后请BERT来猜。

解码器擅长创作,编码器擅长理解,当时它们要做的更多是屏蔽语言模型(Masked LM,类似“完形填空”)、相邻句子判断(Next Sentence Prediction,判断句子是否能相连)这类偏阅读理解的任务,因此BERT占了上风。

2019年,GPT-2发布,它采用15亿个参数的Transformer解码器,在当时是个比较大的模型。相比BERT,OpenAI研究人员发现,GPT-2预训练的语言模型无需微调训练,可直接执行多种下游任务。这个发现坚定了研究人员沿着现有技术路线,继续研发的决心。

2020年5月,GPT-3诞生,它采用了史无前例的1750亿参数的Transformer解码器,用了接近5000亿单词的文本训练数据。整个训练过程可以说是“大力出奇迹”,让GPT-3在文字生成方面实现质的飞跃。GPT-3除了可以出色完成文字生成、翻译、问答和文本填空等语言类任务外,还“涌现”出了其他一些智能,包括上下文学习,以及更强大的零样本和少样本执行任务的能力,等等。

GPT-3生成的文本质量非常高,有时候人们甚至难以区分文本到底是人类写的,还是GPT-3生成的。

基于GPT-3,已经衍生出很多应用,人们用GPT-3来创作各种类型的文本。有人用它写了一篇新闻,被某热门新闻点评网站排到头部。一家名为Jasper的公司利用GPT-3为企业提供商业文本写作服务,2022年其收入达到9000万美元左右。

GPT-3之后,OpenAI通过增加程序代码训练和人类反馈强化学习等多种训练手段,并将主版本升级到GPT-3.5。最终,2022年11月,【【微信】】横空出世。

训练GPT-3模型的三“大”要素:算法、数据、算力

我们称GPT-3为大模型,这个“大”体现在哪些地方?

首先是算法。GPT-3采用的是Transformer的解码器,具有1750亿个参数和2048个Token(可简单理解为单词,下同)的训练文本长度。

图片来源:OpenAI团队论文 《Language Models are Few-Shot Learners》

第二是数据。上图是GPT-3的训练数据,总共接近5000亿个token的文本,主要包括Common Crawl、Webtext2、Books1、Book2、Wikipedia等等。其中占比最大的训练数据是Common Crawl,它是一个开源的数据集,抓取并保存了全球大量网页的数据。

第三是算力。据微软发布的信息, OpenAI 使用一台全球排名前5的超级计算机系统来训练GPT-3,该系统拥有超过28.5万个CPU核心,1万个GPU和每秒400G的网络。据悉其训练成本约为1200万美元。

【【微信】】诞生以来,引发的讨论非常多。那么说回来,人们如何看待这个新事物,对它又有什么期待?虽然众说纷纭,有3个议题是被频繁提到的。

人们肯定【【微信】】是一个称职的语言模型

首先,【【微信】】是迄今为止最成功的人类语言模型,已经具备形式语言能力(洞悉语言的规则模式等知识)。

【【微信】】具备理解和生成人类语言文本的能力,可跟人类轻松对话。它用数据驱动的大型神经网络的计算方式,某种程度上解码了人类语言的内部规律。这个内部规律不是某种公式,而是一个神秘、暂不被人类理解的权重参数矩阵。

以前,人们认为算法模型如果仅靠输入文本,很难获取关于语言的知识。但如今,【【微信】】可以从文本中直接学习语言的层次结构和抽象类别等,这是一种无监督学习的能力。

此外,【【微信】】也不只是个话痨。它可以写作文、创作诗歌、撰写商业文本、翻译、做阅读理解、代码理解和生成等。可以说,作为一个语言模型,【【微信】】已经比较称职。

人们期待【【微信】】具有思维能力

人们对【【微信】】的期望不仅仅是语言模型,人们甚至期待【【微信】】成为一个思维机器,发展出功能语言能力(用语言思考和做事的能力)。

【【微信】】“涌现”出一些智能,包括上下文学习(理解和学习人类对话输入文字的能力)、世界知识抽象(例如事实性知识和常识)、执行泛化任务(包括没有做过的新任务)、复杂推理等。然而,当前【【微信】】的这些功能都还不算强大,出错甚至崩溃时有发生。

当前,人们在思维机器方向的探索有很多,例如有一种借助思维链(Chain of Thought)的方法,试图引导或者优化语言模型展现出复杂的推理能力。这些研究方向的进展仍在持续。

上图展示的是,一位科研人员在跟【【微信】】的对话中,通过分步骤提示引导的示例训练(引导过程未展示),使【【微信】】展现出分步骤思考和计算的能力。据分析,【【微信】】的这个能力来自GPT-3.5模型本身,思维链训练方法只是让它意识到应该用这种方式来思考和回答问题。整个过程有点类似老师辅导学生做题。

虽然这道题对于10岁的孩子来说很容易,但对语言模型来说却很难,主要是由于数学和语言混合在一起。这类问题只是开始,当前思维链的前沿科研工作已经转向更有难度的问题,例如高中、大学,甚至是国际数学奥林匹克问题。

加利福尼亚大学洛杉矶分校(UCLA)近期的一篇论文发现,【【微信】】似乎展现出了类比推理的能力。

什么叫类比推理?推理分三种,包含演绎、归纳、类比。“类比推理通常被视为人类抽象和概括能力的典型能力。在广泛的问题类型中,【【微信】】达到或者超越人类水平…显示出这种零样本类比推理的能力。”

然而,【【微信】】的推理能力因其对世界缺乏物理理解而受限,因为它仅仅依靠文本输入,缺少视觉(图像和视频)、声音、嗅觉等多模态数据输入。文本对世界的物理描述是有限的,比如你很难通过文字描述清楚一间屋子里不同物品的位置具体,相反,看一张关于这间屋子的图片,物品的位置信息就一目了然。

听说GPT-4将于2023年发布,届时会加入视觉等多模态数据输入,这将有望进一步提升它的智能。

对于【【微信】】能否成为“人类大脑”或通用人工智能,人们持有巨大争议

目前,针对【【微信】】是否能够变成“人类大脑”或者通用人工智能(AGI),争议还非常大。Yan Lecun是深度学习的三巨头之一,他也是Meta(原Facebook)公司的首席AI科学家。他认为机器和人类不一样,人类会在心智里面构建一个虚拟世界,进行推理和模拟,这点目前机器做不到。

著名语言学家乔姆斯基在2019年的一次采访中提到,深度学习更偏工程,有点像推土机,可以使用,但它没有能力告诉你人类语言的任何事情。(注:【【微信】】这类语言模型可以输出很精彩的文本,但是我们没有确凿证据证明它真正掌握了语言的规律,当然也有可能是它掌握了规律,但人类无法理解。)

Kyle Mahowald等学者认为,“擅长语言” 未必 “擅长思考”。虽然人类的语言和思想是不可分离的,但专?处理语言的人脑区域,与负责记忆、推理和社交技能的人脑区域是分开的。因此不应该对语言模型有过多期望。

Kyle Mahowald提到了一个GPT-3没能理解的失败案例:怎么把沙发放到你家屋顶上。

就像我们在上文提到的,屋顶、沙发、起重机等更偏世界的物理知识,对于人类来说,很容易就想到用各种办法把沙发放到屋顶上去,但你很难让【【微信】】理解这样的操作思路。这个例子也说明世界物理知识的输入,特别是视觉等多模态数据输入的重要性。

讲完【【微信】】究竟是什么,我们再来讲一下背后的技术。

我们在上文提到,【【微信】】相当于用“文字接龙”这样简单的技术原理来训练和使用语言模型,从而实现跟人类的高质量智能文本对话。这个技术原理,理论上是有升级和改善机会的,从而可能达到更好的效果。

在神经网络参数量方面,业界有人认为有优化空间,例如是否可以用参数量较小的模型达到同等效果。2048个token文本输入窗口的设计及计算机制,也可能有优化空间。例如当前有人试图让【【微信】】写推理小说,但推理小说里面的推理线索往往不易察觉且距离较远(例如好几个章节之前的一个小线索),这个距离远远超出2048个token文本的窗口,如何把当前窗口之外的知识信息容纳进来,也存在优化可能。

整体而言,作为底层算法模型的Transformer在2017年6月才诞生,现在还处在发展早期,在快速迭代和改进完善之中,应该还有很多发展空间。

此外,前面提到的多模态数据输入,会给GPT-4带来什么样的能力涌现和性能提升,也是业内人士和群众翘首以待的。

人类可以从【【微信】】中学到什么关于语言的规律?

在对人类语言的探索上,【【微信】】比以往的任何产品都走得更远更深。我们人类可以从【【微信】】身上学到什么?

Stephen wolfram这名科学家认为,人类语言可能没那么复杂,只是因为我们人类没有能力理解和掌握其背后的规律;而【【微信】】用基于神经网络的算法,成功解码了人类语言的本质。

据OpenAI公开的GPT-2的论文,GPT-2的训练数据是纯英语文本(做了非英语文本过滤)。即便如此,它还是显示出一些多语言能力,并且展现出非常出色的法英互译能力,尽管只是接受了10MB左右残留的法语文本训练数据。

这个现象引发了人们的思考,当前人类在语言学习方面花费大量的时间和精力,这个学习效率是不是有提升的空间?我们能不能向语言模型学习,更加有效率地学习人类语言?

【【微信】】在生成文本时,是每次选择一个词,这个词是在语言模型给出的概率表中做出的选择。当前科研人员的发现是,如果每次都选择概率最高的词汇,理论上是最优解,最后呈现却往往是一篇非常普通的文章;如果不是每次选择最优解,例如随机选择排名稍微靠后一点的,却有更大机会生成一篇精彩文章。这也是个有意思的未解之谜。

以前,我们可能认为创作一篇散文或者一首诗,背后是人类精心的构思和创造。但对于AI而言,创作意味着概率和选择,我们认为的精彩文章创作原来只是AI枯燥的选择过程而已。由【【微信】】反观,可能人类对语言本身的奥秘还知之甚少。

语言特征空间的单词分布

GPT把文字向量化了,建立了语言的高维特征空间,也称为隐含空间(Latent Space)。

GPT-2中每个词是一个768维的向量,GPT-3中每个词则是12288维的向量。每一个维度代表着一个属性,相当于GPT-3用1万多种属性,来描述人类语言中的词汇特征。

Stephen wolfram试图打开人类语言的特征空间,来观察其中的规律。他选择规模较小的GPT-2的特征空间,把它映射到人类比较容易理解的二维空间,从中发现了许多有意思的现象。比如,crocodile鳄鱼 和 alligator短吻鳄 离得很近,苹果跟梨聚在一起,这个可能容易理解。有趣的是,词汇之间的关系,还能从向量加减操作中反映出来,比如皇帝(King)的向量减去男人(man)的向量,再加上女人(woman)的向量,就变成了女皇(Queen)的向量。

另外,他还试图在GPT-2的语言特征空间中,寻找每次生成一个句子的游走规律,我们能从上面这个图片中,看到GPT-2是怎么在768维度的空间中游走并陆续做出下一个词的选择,但是很遗憾他还没有找到其中的规律。虽然从高维映射到二维中丢失了很多信息,但是未来如果能结合多维空间中的向量,我们可能会发现更多关于语言的规律。

Transformer神经网络算法架构及注意力机制

2017年6月,Google发表了非常著名的Transformer论文,论文标题是《Attention is all you need》,意思是说你只需要注意力机制就足够了。

图片来源: 知乎@雅正冲蛋

Transformer神经网络算法架构的框图如上,如前文所述,左边部分是编码器,右边部分是解码器。Google研发的BERT用的是编码器,而OpenAI的GPT系列用的是解码器。

在AI领域,有四大类神经网络算法,包括MLP、CNN、RNN、Transformer。MLP是多层感知器,CNN是卷积神经网络,RNN是循环神经网络。

Transformer是最新的算法模型。在一些场景中,它正在逐渐替代CNN和RNN。Transformer的特征提取能力比较强,擅长长序列处理、并行计算、多模态处理等。Transformer的注意力机制有点像人一样,选择性关注,因为资源有限,只会关注最重要的事情。

Transformer已经被广泛应用在自然语言处理、计算机视觉以及生物科技等领域。生物科技行业用来预测蛋白质三维形状的Alpha Folder算法就是基于Transformer算法模型来做的。

哪个模块是GPT-3储存智能的地方?

GPT-3模型发布时,OpenAI团队发布了论文《Language Models are Few-Shot Learners (语言模型是少样本学习者)》。

上图是GPT-3模型的框图,它基本上跟Transformer 的右边部分的解码器是类似的。无论是预训练还是推理(做任务),都是从框图的最底部输入前面部分的文本(GPT-3模型最大的长度是2048个token),然后经过12次运算,从Text prediction输出下一个词概率预测(Task Classifier是微调训练分支,在此不详述)。

一个有意思的话题是,GPT-3用1750亿个参数,去学习接近5000亿单词的文本,显然它不是简单地把3个单词存在1个参数中去,而是大抵掌握了一些语言规律且抽象了某些知识和能力。那么,问题来了,这些规律、知识和能力到底存在哪些地方呢?

有学者认为,1750亿参数主要集中在框图中的注意力处理层和前馈网络层,前者的值是动态计算的(每输入2048个token,就重新计算一次),它们是数据相关的动态权重,因为它们会根据数据动态变化。而前馈网络层的权重是随着训练过程而缓慢变化的,因此,有学者猜想在前馈网络层中存储着GPT发现的语言规律、知识和能力等,因为要经过12次运算,运算次数越靠后存储的信息越抽象。

Stephen wolfram把GPT-2的某个前馈网络层存储的768*768维度的权重参数矩阵提取出来,压缩到64×64尺寸,就形成了如下一张神秘的图像,代表着GPT-2总结的神秘的人类语言编码规律及其他一些知识和能力的一部分。很好奇什么时候科学家可以逐步解密其中的部分内容,相信对于人类提升自我能力有好处。

图片来源:【【网址】】

和AI相比,自我意识和自由意志可以算作是人类最后的堡垒。

但是有一种观点认为,人类其实没有所谓的自由意志。人类有两个自我,一种是体验自我,另一种是陈述自我。体验自我,负责相对“机械”地解读信息、作出决策;陈述自我,则负责对体验自我的决策进行解释和表述,有时甚至会虚构故事来“欺骗”我们自己。所谓的自由意志,不过是陈述型自我给自己编的一个故事而已。

一些科学家和学者认为,理论上,我们可以构造出一个自我模拟的自指机器(Self-referential Machine),让它也具备两套体系,一个负责执行算法,另一个则专门负责对自我进行模拟(描述,或者可称为在内嵌虚拟世界中模拟自我)。这种机器会表现得就“像”一个具有自我意识的系统,以至于我们可以用这样的系统来定义所谓的“自我意识”。在古代欧洲,有一种传说中的衔尾蛇,能够自己吃自己,实现持续进化。后来,有人提出哥德尔机( G?del Machine)的设想,认为只要程序能够模拟自身、改造自身,那么我们就可以将其称为具有自我意识的。此外,还有Quine程序结构、克莱因Kleene第二递归定理等也提出和支持了与之相似的假设。

图片来源:维基百科

我们很难预料,未来机器是否能进化出自我意识。

需要指出,当前讨论的生成式AI,跟之前的分析式AI是有较大不同的。分析式AI的主要能力是分析,例如:数据分析、趋势预测、商品推荐、图像识别等,而生成式AI主要的能力是创造,例如:写诗、绘画、设计产品、编写代码等。

当前除语言模型外,生成式AI领域的其他进展还包括图像生成模型等等。未来,多模态(文本、图、视频等)对齐、融合、理解和生成等方向的进展,意义也非常重大。

关于图像生成模型,不得不提的是扩散模型(Diffusion Model)。它主要解决通过文本生成图像及其他媒体格式的难题,业内知名的扩散模型包括:DALIE2、Stable Diffusion等。

图片来源:Denoising Diffusion Probabilistic Models

2022年,大语言模型爆发。据统计,2022年,平均每4天就有一个新的大语言模型问世。

生成式AI技术也在持续引发人们对一些知名的模型层平台和应用的访问,数据增长很快,投资火热。2019 年至2021年期间,流向生成式AI业务的资本增加了约130%,其中文本和写作增长630%、图像增长400%、数据增长 370% 、音频/视频增长350% 。

图片来源:A16Z

上图是投资公司A16Z总结的生成式AI的行业堆栈。底层深蓝色的部分是基础硬件和云平台,中间蓝色的部分是模型层,再往上浅蓝色的部分是应用层。

在应用层,有的创业公司自身只做应用,模型能力则是调用外部的;还有一类叫端到端的应用模式,它会自己做模型,但一般不做大模型,或者在其他大模型基础上微调出自己的模型。

在模型层,有开源模型和闭源模型。深蓝色部分的Model hubs是用于模型存储和训练的第三方平台。

当前应用层的增长比较快,主要是由AI赋能的新型应用案例所驱动,主要集中在图像生成、文案写作和代码编写,三个类别各自的年收入已超1亿美元。

关于生成式AI的创业,我有6点思考和建议:

第一,目前,与AI相关的科研、工程、产品和商业化,都在同时快速迭代,变数很大。这个过程中,会出现不同的技术分支和业务路径,如果选错了技术分支和业务路径,再掉头就很麻烦。这就需要创业团队既懂技术又懂业务,在创业初期努力做出正确选择。

第二,对创业公司而言,从应用层或者端到端的应用层切入,可能是相对能降低风险的做法。模型层有少量机会,但不一定适合大部分的创业者。第三,应用层在做商业模型设计的时候,要警惕模型层的边界。

以Jasper公司为例。2020年在GPT-3模型基础上,Jasper衍生出付费商业文本写作的商业模式。到了2022年底,【【微信】】向用户免费开放,给Jasper带来较大的压力。尽管OpenAI未必会以商业文本生成作为自己的主要商业模式,但它平等赋能了入场的其他竞争者。Jasper需要展现出有竞争力的技术积累与业务纵深,才能稳住脚跟。

第四,把AI技术应用到产业场景,可分为新模式和旧模式改造两类方式。新模式是指创造之前没有的全新的应用场景,旧模式改造则指在现有产业场景里用AI技术来改造部分环节,或者团队带着深度行业认知和新的AI技术在成熟的产业场景中创业。新模式和旧模式改造,都存在巨大的机会。

在峰瑞已投企业中,有好几家企业在垂直产业的场景中做业务创新。比如线上心理咨询平台阁楼、短视频及直播SAAS服务企业特看科技、线上健身私教平台BodyPark,都在积极使用生成式AI来赋能自己的业务。本周六(3月11日),我们将邀请这3家公司的创始人来分享他们的探索和发现,欢迎参与。

第五,AI还面临科研知识快速溢出的问题,因此找到自己的壁垒很重要。创业公司一定要想清楚自己未来的壁垒在哪里,比如到底是数据壁垒、工程壁垒(例如模型微调)、场景壁垒,还是规模壁垒等等。在应用层创业,仅依靠外部模型层提供的能力,是无法形成壁垒的。

第六,应用层的创业,应该是“技术为先、场景为重”。

“技术为先”,是指虽然通用AI技术未必是你的核心壁垒,但团队一定要懂技术,才有能力思考如何更早更好地把技术应用到合适的应用场景里,做出好用的产品。

“场景为重”,意味着最后的产品和业务需要找到合适的落地场景,建立自己的商业模式,并在场景里形成自己的核心竞争力。

最后来聊聊对AI行业格局的未来展望和猜想。这个部分我参考了奇绩创坛陆奇博士之前的一个思考框架。

以AI和大模型为中心的新IT

新的硅基硬件产业:硅基产业架构和集合可能迎来新的发展机遇(例如:新的计算芯片及周边技术和产业等)。

新的软件和云服务体系:算力、模型和数据的云服务、基础软件、ML&Dev Ops、人机互