庆云古诗词

庆云古诗词

IoT早报丨腾讯去年人均年薪102万;男子放弃阿里百万年薪,去宜家卖窗帘;英伟达开发符合出口中国的旗舰芯片;三星入局UWB硬刚苹果

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

腾讯人均产出,腾讯人均产值2019,腾讯人均81万,腾讯上半年人均薪酬

谷歌版ChatGPT开放测试:不会编程、不支持中文

继ChatGPT、文心一言之后,谷歌终于将自家对话式AI服务Bard开放测试。公测将从美国和英国开始,开放更多用户访问是“改进它的下一个关键步骤”。与ChatGPT通晓多语言相比,Bard暂时只能进行英文对话,另外ChatGPT生成大段可用代码的能力Bard也暂不可用,因为它还在学习编程能力。但在内容生成方面,Bard能够对用户提问一次性创建几个不同的版本的回应,供用户从中择优选用。此外,Bard是在一个比ChatGPT训练数据集更大的文本和代码数据集上训练的,这意味着Bard可以获得更广泛的信息,并可以生成更复杂和创造性的文本格式。Bard也能够通过谷歌搜索实时访问和处理来自现实世界的信息,这会比ChatGPT提供更多的最新信息。

Adobe推出图片生成AI

据悉,Adobe公司在一些最受欢迎的软件中添加了人工智能技术,包括Adobe Photoshop和Adobe Illustrator,以便加速图像生成和文本效果的过程。新的Adobe人工智能增强功能“Firefly”允许用户通过文字来描述其软件将创建的图像、插图或视频。该公司表示,由于人工智能已经接受了Adobe库存图像、公开授权内容和版权已过期的陈旧内容的训练,因此而产生的创作内容可以安全用于商业用途。

英伟达已开发“阉割版”旗舰芯片H800,可合法出口中国

英伟达公司发言人证实,该公司已开发出其旗舰芯片H100的替代版H800。通过“阉割”掉部分性能,H800可以合法出口到中国。去年,美国监管机构围绕人工智能芯片的规则强加了一项细则,禁止那些同时具有强大计算能力和高芯片到芯片数据传输速率的芯片出口中国。据中国芯片行业的一位消息人士称,H800主要将芯片到芯片的数据传输速率降低到旗舰H100速率的一半左右。

微软Bing支持AI绘画了,输入文字就能出图

据悉,微软宣布将AI生成图像工具Bing Image Creator集成至新版Bing搜索引擎和Edge浏览器中,该工具由OpenAI的图像生成器DALL-E模型提供支持。目前,这一工具仅适用于新Bing和Microsoft Edge预览版,并且,其目前仅集成于Bing Chat的创意功能下。而对于那些尚未获得新Bing体验资格的用户,微软将会在网页端提供体验版入口,目前仅支持英语描述文本内容。

阿里达摩院低调上线文本生成视频大模型:仅支持英文输入

近日,阿里达摩院已在AI模型社区“魔搭”ModelScope上线了“文本生成视频大模型”。根据官方介绍,目前文本生成视频大模型由文本特征提取、文本特征到视频隐空间扩散模型、视频隐空间到视频视觉空间这3个子网络组成,整体模型参数约17亿,仅支持英文输入。

三星入局UWB芯片

消息称,三星推出了自己的Exynos品牌UWB芯片系列,可能用于智能手机和下一代三星对象跟踪器。据悉,三星推出的Exynos Connect U100芯片,其名称与苹果UWB功能的U1芯片非常相似。新的三星芯片将射频、闪存、基带和电源管理技术结合到一个芯片上,使其适用于紧凑型设备,例如下一代Galaxy SmartTag +。该芯片还具有板载加扰时间戳序列 (STS) 功能――一种物理加密技术,允许对数据包的时间戳进行设备级加密。

比亚迪新车全系要用N【【微信】】芯片

昨日,在NVIDIA召开的【【微信】】上,NVIDIA宣布已与比亚迪达成合作。从明年开始,比亚迪将在其全系车辆中使用N【【微信】】高性能计算平台,包括下一代王朝系列和海洋系列的多款车型。双方相信,未来的汽车将具有可编程的能力,从基于许多嵌入式控制器演变为高性能集中式计算机,在汽车整个生命周期内,通过软件更新带来新功能和服务。

Siri遭前工程师吐槽无法与ChatGPT竞争,传团队开始内测AI语言生成模型

前苹果工程师John Burkey接受《纽约时报》采访时表示“Siri 太笨,根本无法与ChatGPT竞争!”他进一步表示,“Siri 不可能成为像ChatGPT那样的创意助手,笨拙的代码使其难以添加新功能。”此前,有报道称Siri的团队已经在内部开始测试人工智能语言生成模型。

阿里副总裁贾扬清即将离职,回应称“暂未创立公司”

昨日,有自媒体爆料阿里巴巴集团副总裁、阿里硅谷研究院负责人贾扬清将于近期离职创业,创业方向将聚焦于人工智能架构领域,目前已获得了首轮融资意向。对此,贾扬清回应称:现在并没有创立公司,目前还在和团队进行顺畅的交接当中。关于个人后面的规划,也期待在不久的将来和大家分享。

阿里M6大模型前带头人杨红霞加盟字节跳动

据36氪报道,从多处独立信源获悉,阿里M6大模型的前带头人杨红霞已加入字节AI Lab(人工智能实验室),参与语言生成大模型的研发。一名知情人士表示,杨红霞在语言生成大模型团队中处于领导地位,直接向字节跳动副总裁杨震原汇报。

Intel显卡部门人事巨震 GPU大牛Raja突然离职:搞AI去了

消息称,从AMD跳槽过去的GPU大牛Raja Koduri离开了Intel公司,将进行AI创业。Raja Koduri本人已经在推特上证实了此事,还跟Intel CEO及Intel显卡部门在推特上互相感谢、道别,但没有提到离职的原因。至于他未来发展,消息称会成立一家尚未确定名字的AI新公司,主要从事游戏、多媒体及娱乐方面的生成式AI。

中国电信:2022年净利润275.9亿元,同比增长6.3%

中国电信发布公告称,2022年实现营业收入4749.67亿元,同比增长9.4%;归属于上市公司股东的净利润275.93亿元,同比增长6.3%;基本每股收益0.3元。拟以2022年末总股本915.07亿股为基数,每股派发末期股息0.076元(含税)。

腾讯发布2022年第四季度及全年财报

财报显示,第四季度腾讯实现营收1450亿元,同比增长1%;Non-IFRS净利润297.1亿元,同比增长19%。其中,第四季度国际市场游戏收入增长5%至139亿元,贡献了游戏总收入的33%;本土市场游戏收入下降6%至279亿元;金融科技及企业服务收入472.44亿元,占总收入33%。截至2022年12月31日,微信及【【微信】】的合并月活跃账户数为13.132亿,同比增长3.5%。全年营收5545.5亿元,同比下降1%;公司权益持有人应占盈利1882.4亿元,同比下降16%,算下来每天盈利超过5亿元。研发方面,四季度研发开支同比增长13.5%,全年研发开支达到614亿元,2019年以来,腾讯累计研发开支已经超1826亿元。腾讯将继续大力投入人工智能与云基础设施建设。

京东工业完成B系列优先股交易,总额3亿美元

近日,京东集团旗下从事工业供应链技术与服务业务的子集团――京东工业宣布完成B系列优先股交易,总额3亿美元。本轮投资由阿布扎比主权基金Mubadala和阿布扎比投资基金42XFund共同领投,大型资管集团M&G、私募巨头EQT旗下的亚洲平台BPEA EQT(原霸菱亚洲投资)和老股东红杉中国跟投。交易完成后,京东集团仍为京东工业的控股股东。

腾讯2022年人均年薪102.5万

腾讯控股昨日发布了2022年第四季度及全年财报。截至2022年底,腾讯共有108436名员工,较去年同期减少4335人,减员幅度为3.8%。2022年度员工薪酬总额为1111.82亿元,相比去年同期955.23亿元的增长了16.4%。以此计算,腾讯2022年员工人均年薪为102.53万元,而去年同期为84.7万元,人均年薪增加了近20万元。

男子放弃阿里百万年薪,去宜家卖窗帘

据媒体报道,今年39岁的胡尕峰曾经在阿里巴巴呆过,职级P7,曾经搞过创业,并得到了携程的投资,年入上百万,还在上海买了房子,但他总是觉得“狗屁工作”让自己变得陌生,极度厌恶过去把人变成数字的工作,讨厌开会,讨厌复杂的大厂架构。2021年9月,37岁的他主动离开职场,骑自行车送外卖,去卖场卖货,目前在上海宜家当销售,处理数据、分析用户、整理货物、推荐产品,一切从头学起。他说,卖窗帘这两个月,最大的感受就是自由,每一天都很快乐。

余承东:鸿蒙智能座舱是车机天花板

华为常务董事、智能汽车解决方案BU CEO余承东先生发文表示:被称作车机“天花板”的鸿蒙智能座舱,得到了很多问界车主的好评,我个人特别喜欢HarmonyOS 3的超级桌面功能。超级桌面让华为手机上的丰富应用秒上车机,而且应用会根据车机的屏幕大小比例自动进行适配。无论是看新闻、刷视频、还是玩游戏,大家都能有舒适的大屏体验。鸿蒙智能座舱不断通过OTA升级,让大家的问界汽车常用常新。

五部门:做好2023年享受税收优惠政策的集成电路企业或项目、软件企业清单制定工作

据国家发改委官网,国家发展改革委等五部门发布《关于做好2023年享受税收优惠政策的集成电路企业或项目、软件企业清单制定工作有关要求的通知》:经研究,2023年享受税收优惠政策的集成电路企业或项目、软件企业清单制定工作,延用2022年清单制定程序、享受税收优惠政策的企业条件和项目标准。


IHFX分享|从图灵测试到ChatGPT——人机对话的里程碑及启示

图灵测试的操作过程,图灵测试采用的方案以及图灵测试结果反映的意义,图灵测试结果,图灵测试的方法

IHFX share | from the Turing test to ChatGPT - milestones and Re【【微信】】chine dialogue

图灵奖得主、深度学习之父辛顿(Geo? Hinton)说:“深度学习的下一个大的进展应当是让神经 网络真正理解文档的内容。”机器学习著名学者乔丹( Michael Jordan)说:“如果给我 10 亿美元,我会 用这 10 亿美元建造一个 NASA级别的自然语言研究项目。”图灵奖得主杨乐昆(Yann LeCun)说:“深 度学习的下一个前沿课题是自然语言理解。”微软全球执行副总裁沈向洋说:“下一个十年,懂语言者 得天下。”微软创始人比尔 ・盖茨( Bill Gates ) 2019 年 6 月在华盛顿经济俱乐部午餐会接受采访时说: “我将创建一家人工智能公司,目标是让计算机学会阅读,能够吸收和理解全世界所有的书面知识。”

这些人工智能学界的著名人士不约而同地把他们的慧眼都聚焦到自然语言处理问题,都主张让计 算机理解自然语言,可见,自然语言处理是人工智能的一个非常重要的问题。本文描述自然语言处理 从图灵测试到 ChatGPT 的发展历程中的几个关键事件,借此探讨技术、数据和范式发展的趋势。

一、人工智能与语言的最初碰撞:图灵测试

早在 1936 年,英国数学家图灵( Alan M. Turing)在研究可判定问题时就已提出,可以让计算机 理解自然语言,从而证明计算机能够具备人的思维能力( Turing 1936 )。

1946 年,第一台电子计算机 ENIAC 问世。1950 年,图灵在《计算机器与智能》一文中提出,检验计 算机是否具备智能,最好的办法是让它说英语并理解英语。为此,图灵亲自设计了“图灵测试”(Turing test)。图灵测试采用问与答的模式进行。让密闭在小屋中的一个测试者通过控制打字机与小屋外的两个测 试对象通话,其中一个测试对象是没有生命的计算机,另一个是活生生的人。小屋内的测试者不断提出各 种问题,通过回答辨别小屋外的究竟是计算机还是人(Turing 1950)。如果计算机能够非常好地模仿人回答问题,以至于测试者在充分的交流中误认为它是人而不是机器,就可以称这台计算机能够思维。

图灵借由行为主义的观点来判断智能的存在,这一关键行为就是人类语言(中的对话)。这可视 为语言与人工智能的最初碰撞。

二、早期受限对话的代表: ELIZA

美国科学家魏岑鲍姆(Joseph Weizenbaum)1966 年设计了一个叫作 ELIZA 的程序,这个程序模仿 一个同名机器人医生与用户的对话来做图灵测试( Weizenbaum 1966 )。ELIZA 系统能与用户进行有一 定限制的对话。在对话中,ELIZA 模仿用户说话的表达方式,使用模式匹配的方法来处理输入,并且 把这种处理过的输入转换成适当的输出来回答用户的问题。这是一个非常简单的模式匹配系统。

尽管在 ELIZA 系统中,计算机只是使用模式匹配的方法模仿人的语言行为,实际上并没有理解语 言;然而,由于魏岑鲍姆设计得很巧妙,以至于很多与 ELIZA 对话的人都相信,ELIZA 确实理解了他 们所说的话以及他们提出的问题。

在这一阶段,受限于数据规模、计算能力,基于规则的系统是主流。对 ELIZA 而言,写好的对话 模板充当了语言系统规则的作用。ELIZA 实际上是在遵循一系列规则的引导,从对话开头走向结尾。这 些精细规则的制定由语言学家和计算机专家合作完成。扩充规则的成本巨大,且规则规模达到一定程度 后,对其进行管理十分困难。显然这样的系统泛化能力很弱,不能应对超出规则之外的语言现象。、

三、对话能力是否代表智能的争议:“中文屋子”问题

美国哲学家塞尔( John. R. Searle )1980 年在《心智,大脑和程序》一文中,提出了所谓“中文屋 子”( Chinese room )的问题,对图灵测试进行质疑( Searle 1980)。塞尔提出,假设有一个只会英文 的人被关在一间屋子里,要求他回答从小窗递进来的纸条上用中文书写的问题。他面前有一组英文指 令,说明中文符号和英文符号之间的对应关系和操作关系。他首先要根据指令中的规则来操作问题中 出现的中文符号,估测出问题的含义,然后再根据规则把答案用中文逐一写出来。虽然他完全不会中 文,但是,通过这种操作,他可以让屋子外的人以为他会说流利的中文。塞尔以此说明,计算机只是 善于根据规则做机械的操作而已(这与当时基于规则的语言处理系统十分相似),这并不能证明计算 机具备智能。塞尔的批评是对图灵测试的一个挑战。

塞尔提出“中文屋子”问题以来,哲学家和人工智能研究者关于图灵测试究竟是否适合用来测试 智能的争论持续了很多年,至今还没有平息。

如果我们使用人机对话技术,就能够在很多应用方面给众多用户提供更加自然的交互界面。这就产 生了一个被称为“智能会话代理”的研究焦点。所谓智能会话代理,就是能够通过会话与人们进行交际 的计算机人造实体,在智能会话代理中,尽管计算机也只是模仿人们的自然语言,但是,人们往往会误 以为计算机理解了自然语言(冯志伟 2014)。这样的代理甚至可以在一些受限领域提供良好的服务(如 医疗问答、酒店预订、交通查询等),在领域落地的实践中,人们不再关心语言能力与心智的哲学问题。

四、数据驱动范式的成功:沃森

进入 21 世纪,人机对话系统在算力增长和数据量扩张的刺激下,取得了飞跃式的进步。计算机“沃森”(Watson)赢得电视问答竞赛的人机大战,则向世界直观地展示了人机对话系统取得的巨大成就。

2011 年 2 月 14 ~ 16 日,美国著名的智力竞答电视节目《危险边缘!》( Jeopardy! )举办了一场人 机竞答比赛。参加比赛的计算机是美国国际商用机器公司(IBM)研制的超级计算机“沃森”,人类 选手则是曾经多次赢得《危险边缘! 》竞答冠军的布拉德 ・布特和肯 ・詹宁斯。首日比赛中,沃森与 布特打成了平手,领先于詹宁斯;次日比赛中,沃森答对了 30 道测试题中的 24 道,詹宁斯和布特分 别只答对 3 道和 2道; 2 月 16 日竞赛揭晓,沃森以绝对优势战胜了人类高手,获得冠军,赢得 100 万 美元奖金(开发者捐给了慈善机构)。这是计算机自动问答系统研究引起世界瞩目的重要成就。

沃森是 20 多名 IBM 研究人员 4 年心血的结晶。它由 90 台 IBM 服务器组成,拥有 15TB 的存储容 量、2880 个处理器线程,每秒可进行 80 万亿次运算。它存储了包括辞书、百科全书和电影剧本在内 的数百万种资料。在 IBM 强大的数据检索、并行计算基础上,沃森充分融合了基于统计自然语言处理 方法的自然语言的结构分析、自然语言的语义技术,然后用自然语言做出回答( Ferrucci et al. 2013 )。 研究人员突破性地给予了沃森用自然语言精确回答问题的能力,推动了人工智能的发展。

20 世纪 90 年代以来,随着互联网兴起和硬件快速发展,自然语言处理所需的数据规模和大规模计算 所需的硬件基础得到了显著提升。自然语言处理的研究和开发由依赖专家知识的规则系统,向依赖大数 据和统计分析的统计路线转换。对话代理在这一阶段逐步发展成熟,开始更深地进入更多日常生活领域。

五、深度神经网络的前沿技术:预训练模型

2012 年以来,自然语言处理开始从统计学习向端到端的神经网络深度学习方法转型,大大地提高 了处理系统的性能,使得自然语言处理进入了崭新的阶段,基本上形成了一套完备的技术体系,标志 着自然语言处理进入了大规模工业化实施的时代(冯志伟 2019 )。

在深度学习和神经网络的研究中,语言数据资源不足是一个严重的问题。例如,商用神经机器翻 译系统需要包含数千万个句子甚至数亿个句子的大数据作为训练语料。如果语言数据不足,自然语言 处理系统的质量就难以保证。为了解决这一问题,学者们开始探讨在小规模语言数据中研制自然语言 处理系统的可行性问题,提出了“预训练语言模型”(冯志伟,李颖 2021 )。如图 1 所示。

图 1预训练语言模型

预训练语言模型使用大规模文本语料库数据(Large-scale text corpus)进行预训练(Pre-training), 建立预训练语言模型( Pre-trained language models),然后使用面向特定任务的小规模语言数据集( Task datasets),根据迁移学习的原理进行微调(Fine-tuning),形成下游任务的模型( Models for downstream tasks)。这样的预训练语言模型使得研究者能够专注于特定的任务,而适用于各种任务的通用的预训 练语言模型可以降低自然语言处理系统的研制难度,从而加快了自然语言处理系统研究创新的步伐。

使用这样的“预训练范式”,研究人员设计出各种预训练模型,可以把通过预训练从大规模文本数据中学习到的语言知识,迁移到下游的自然语言处理和生成任务模型的学习中。预训练模型在几乎 所有自然语言处理的下游任务上,都表现出了优异的性能,进一步验证了预训练模型确实是一个功能

强大的大语言模型,在自然语言处理的研究和应用领域产生了广泛的影响。

由 OpenAI 公 司 开 发 的 基 于 转 换 器(Transformer)的 生 成 式 预 训 练 模 型( Generati【【微信】】rmer,GPT)已经成为当前自然语言处理研究的核心技术。GPT 利用转换器模型的编码器和解 码器,从语言大数据中获取了丰富的语言知识,在自然语言生成任务上达到了相当高的水平。这样一 来,生成式预训练模型 GPT 便成为深度学习神经网络时代自然语言处理研究最重要的语言模型。

六、生成式预训练模型的强大展示: ChatGPT

GPT 的训练参数越来越多。2018 年 6 月开发的 GPT 有 1.17 亿个参数。2019 年 2 月开发的 GPT-2 有 15 亿个参数,实现了无监督的多任务学习,具有一定的自我纠偏能力。GPT-2 开始训练的数据取 自著名社交站点 Reddit 上的文章,累计有 800 万 篇。2020 年 5 月,GPT-3 启动,有 1750 亿个参数, 开始了大规模的机器学习,把能获取到的人类书籍、学术论文、新闻、高质量的各种信息作为学习 内容,并形成了“基于人类反馈的强化学习方案”(RLHF)。后来,又在此基础上开发出 ChatGPT。 ChatGPT 可以通过使用大量的训练数据来模拟人的语言行为,生成人类可以理解的文本,并根据上下 文语境,给出恰当的回答,甚至还能做句法分析和语义分析,帮助用户调试计算机程序,写计算机程 序的代码,达到了很强的自然语言生成能力。

2022 年 11 月 30 日,ChatGPT 开放公众测试,真正实现了完全自主的“人工智能内容生成”(AIGC), 包括文本生成、代码生成、视频生成、文本问答、图像生成、论文写作、影视创作、科学实验设计等。

现在的 ChatGPT 是由效果比 GPT-3 更强大的 GPT-3.5 系列模型提供支持的,这些模型使用微软 Azure AI 超级计算基础设施上的文本和代码数据进行训练。据说,GPT-4 的参数将高达 100 万亿。这 是真正的大语言模型。

交互式是 ChatGPT 的一大优点,用户可以自如地与 ChatGPT 对话,自然而且流畅。ChatGPT 的回 答是连续的、稳定的、一致的,用户与 ChatGPT 对话,就像是与朋友聊天。

ChatGPT 也承认它还存在一些不足。最近《时代周刊》对 ChatGPT 做了一个专访。聊天记录如下: 记者:我应该相信你刚才说的一切都是真的吗?

ChatGPT :作为一个大型语言模型,我被设计成对各种各样的输入产生类似人类的反应。我 尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,可能不总是能够提供完整或正 确的答案。此外,我不能浏览互联网或访问任何外部的信息,所以我的反应仅限于我所得到的训 练数据和算法。这意味着我的回答中可能有一些错误或不准确的地方,你不应该把我所说的都当 成真实和准确的。在做任何重要决定或采取任何行动之前,运用自己的判断和常识核实多方信 息,才是重要的。

由于 ChatGPT 不能像搜索引擎那样提供实时的信息,有时甚至会提供不符合事实的错误答案,或 者一本正经地胡说八道,或者说一些永远正确的废话。这是因为 ChatGPT 实际上只是一个大规模的语 言模型,只能在大规模数据的基础上对人类的语言行为进行模仿,并没有真正理解聊天的内容。实际 上,ChatGPT 尽管能够针对人类的输入产生类似于人类的反应,然而,它并不知道它知道什么,也不 知道它不知道什么,并不能真正地理解自然语言。

ChatGPT 的成功,归根结底是人类智慧的胜利,因为 ChatGPT 是由人类研制出来的,它的智慧是人类赋予的。ChatGPT 的出现,使得人工智能由感知智能进入了认知智能,而且改变了在此之前的简 单的人机关系,并将带来一个人机合作的新时代。

七、结语

虽然 ChatGPT 具有优异的对话性能,但我们仍要清醒地认识到,人类对于自然语言的理解,除了 依靠语言内部各种关系的知识之外,还需要依靠外部物理世界、外部精神世界和外部社会历史世界等 背景知识。自然语言文本中的每一个符号、每一个合乎规则结构的符号串,在人脑中都与外部的客观 世界有着千丝万缕的联系。这些复杂联系不仅以语言数据中的符号形式表现出来,还具有更深入的心 理感情表征以及社会文化背景。然而,ChatGPT 使用生成式预训练模型从大规模语言数据中获取的大 量参数,基本上都是基于自然语言数据的参数,还没有这些语言数据与语言外部的客观世界的千丝万 缕联系的参数。因此,ChatGPT 只是处理自然语言本身的数据,并不能处理丰富多彩的语言外信息。 所以,我们认为,ChatGPT 尽管已经取得了很大进步,已经具有强大的处理人类语言数据的能力,但 是它处理外在世界的普通常识以及社会历史背景的能力还十分有限。从本质上说,ChatGPT 具备的智 能还不是完善的人类智能,只是初级阶段的人类智能,而语言是人类的高级智能活动,不仅涉及语言 内部的结构,还涉及语言外部的日常生活知识、科学技术知识、历史知识、社会知识、文化背景知 识、人们的情感愿望、人们的心理状态等丰富多彩的因素。自然语言是极为复杂的,要进一步提高自然语言处理的水平,让计算机真正地理解自然语言,仍然还是一个极为困难的任务。我们还要继续努 力,用新技术来探索自然语言的奥秘(冯志伟,张灯柯 2022)。

与此同时,纵观从图灵测试到 ChatGPT 人工智能中人机对话系统的历程,其背后数据资源、技术 迭代和科学范式都发生了巨大的变化。人工智能借由人机对话深入地介入了语言生活。这一发展过程 中,语言学和语言学家在不同时期有所介入,但总体而言并不多。随着人机对话性能的飞速提升,语 言学和语言学家需要正视冲击,并进行反思。语言中知识的表示和挖掘方法,语言使用中的伦理,都 是当今人机共生语言生活中亟待研究的问题(饶高琦 2022)。面对新时代的要求,语言学家应当与时 俱进,进行更新知识的再学习,成为适应数智时代需要的语言学家。