庆云古诗词

庆云古诗词

chatgpt 需要语义分析吗 ChatGPT 用了哪个机器学习模型

淘文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt,chatgpt是什么意思,chatgpt官网,chatgpt中文

分享嘉宾 | 邱锡鹏 整理 | 禾木木,梦依丹

出品 | CSDN(ID:CSDNnews)

ChapGPT 自问世以来,便展现出了令世人惊艳的对话能力。仅用两个月时间,ChatGPT 月活跃用户就达一亿,是史上用户增速最快的消费应用。对于学术界、工业界、或是其他相关应用来说都是一个非常大的机会和挑战。

事实上,ChatGPT 的成功并不是偶然结果,其背后多有哪些创新之处,本文整理于「ChatGPT 及大模型专题研讨会」上复旦大学邱锡鹏教授带来的《对话式大型语言模型》的分享,他从大规模预训练语言模型带来的变化、ChatGPT 的关键技术及其局限性等角度深入地介绍了大规模语言模型的相关知识。

邱锡鹏,复旦大学计算机学院教授,MOSS 系统负责人

为什么是大语言模型?

随着算力的不断提升,语言模型已经从最初基于概率预测的模型发展到基于 Transformer 架构的预训练语言模型,并逐步走向大模型的时代。为什么要突出大语言模型或是在前面加个 "Large"?更重要的是它的涌现能力。

当模型规模较小时,模型的性能和参数大致符合比例定律,即模型的性能提升和参数增长基本呈线性关系。然而,当 GPT-3/ChatGPT 这种千亿级别的大规模模型被提出后,人们发现其可以打破比例定律,实现模型能力质的飞跃。这些能力也被称为大模型的 " 涌现能力 "(如理解人类指令等)。

上图是多个 NLP 任务随着模型规模扩大的性能变化曲线,可以看到,前期性能和模型规模大致呈线性关系,当模型规模大到一定程度时,任务性能有了明显的突变。

因此,通常以百亿 / 千亿级参数量作为 LLM 研究的分水岭。除此之外,大规模语言模型基座的可扩展性很强,其能够很容易和外部世界打通,源源不断地接受外部世界的知识更新,进而实现反复自我迭代。因此,大规模语言模型也被看作是实现通用人工智能的希望。

ChatGPT 的三个关键技术

目前,很多公司和组织都在跟风 ChatGPT,推出类似的聊天机器人产品。这主要是因为 ChatGPT 的成功,给人们带来了信心,证明了聊天机器人技术的可行性和潜力,让人们看到了聊天机器人在未来的巨大市场和应用前景。

ChatGPT 的三个关键技术为:情景学习、思维链、自然指令学习,接下来将详细介绍一下这三个技术。

情景学习(In-context learning)

改变了之前需要把大模型用到下游任务的范式。对于一些 LLM 没有见过的新任务,只需要设计一些任务的语言描述,并给出几个任务实例,作为模型的输入,即可让模型从给定的情景中学习新任务并给出满意的回答结果。这种训练方式能够有效提升模型小样本学习的能力。

情景学习的示例图

可以看到,只需要以自然语言的形式描述两个情感分类任务输入输出的例子,LLM 就能够对新输入数据的情感极性进行判断。例如,做一个电影的评论,给出相应的任务模型,即可输出正面的回答。

思维链(Chain-of-Thought,CoT)

对于一些逻辑较为复杂的问题,直接向大规模语言模型提问可能会得到不准确的回答,但是如果以提示的方式在输入中给出有逻辑的解题步骤的示例后再提出问题,大模型就能给出正确题解。也就是说将复杂问题拆解为多个子问题解决再从中抽取答案,就可以得到正确的答案。

思维链示意图

如思维链示意图所示,左边是直接让模型进行数学题的计算会得到错误的结果,而右侧在解题过程加入了一个示例,引入解题过程则可以激发模型的推理能力,从而得到的正确的结果。

这就是一个简单的可以通过计算能力从思维链中分离,有助于大模型完成任务,从而减轻神经网络的负担。

由于 CoT 技术能够激发大规模语言模型对复杂问题的求解能力,该技术也被认为是打破比例定律的关键。

自然指令学习(Learning from Natural Instructions)

早期研究人员希望把所有的自然语言处理任务都能够指令化,对每个任务标注数据。这种训练方式就是会在前面添加一个 " 指令 ",该指令能够以自然语言的形式描述任务内容,从而使得大模型根据输入来输出任务期望的答案。该方式将下游任务进一步和自然语言形式对齐,能显著提升模型对未知任务的泛化能力。

自然指令学习示意图

如自然指令学习示意图所示,左边是自然指令的测试场景,人们把 NLP 任务做到 1000 多种,目前最新模型可以做到 2000 多种 NLP 任务,接下来再对 NLP 任务进行分类,比如能力 A、能力 B,大模型指令能力、泛化能力非常强,学到四五十个任务时就可以泛化到上百种任务。但距离真正的 ChatGPT 还有一步,那就是和真实的人类意图对齐,这就是 OpenAI 做的 GPT。

核心逻辑非常简单,一开始时让人写答案,但是成本太高,改成让人来选答案,这样对标注员的能力要求稍微低一点,可以迅速提升迭代和规模。基于打分再训练一个打分器,通过打分器自动评价模型的好坏,然后用强化学习开始迭代,这种方法可以大规模地把数据模型迭代给转起来,这是 OpenAI 做的 Instruct GPT 逻辑,强化学习的人类反馈。

Instruct GPT 逻辑示意图

基于 Instruct GPT 技术路线,ChatGPT 从技术上并没有特别好的创新,但它最伟大之处是赋予了大型语言模型对话的能力,这是个产品化创新,这个创新非常棒!

如何构建一个大语言模型?

目前,主要可以从下面四个维度来衡量大语言模型的能力。

Know Knowns:LLM 知道它知道的东西。

【【淘密令】】:LLM 知道它不知道哪些东西。

【【淘密令】】:LLM 不知道它知道的东西。

Unknow Unknowns:LLM 不知道它不知道的东西。

构建对话式大型语言模型

ChatGPT 通过更大规模的预训练,得到了更多的知识,即 Knowns 范围扩大。

另外,ChatGPT 还关注了伦理问题,通过类似解决 【【淘密令】】 的方式,利用人工标注和反馈,拒绝回答一些包含伦理问题的请求。

这里,我们也不得不提国内首个对话式大型语言模型 MOSS,从 2 月 21 日发布至公开平台,便引起高度关注。" 对话式大型语言模型 MOSS 大概有 200 亿参数。和传统的语言模型不一样,它也是通过与人类的交互能力进行迭代。" 邱锡鹏教授在分享中谈到,MOSS 为何会选择 200 亿参数,原因非常简单,它恰好具备涌现能力,与人对话的成本低。

MOSS 是基于公开的中英文数据训练,通过与人类交互能力进行迭代优化。目前 MOSS 收集了几百万真实人类对话数据,也在进一步迭代优化,也具有多轮交互的能力,所以对于指令的理解能力上,通用的语义理解能力上,和 ChatGPT 非常类似,任何话它都能接得住,但它的质量没有 ChatGPT 那么好,原因在于模型比较小,知识量不够。

ChatGPT 的局限性

为什么说 ChatGPT 对于学术上来说有一定的重要性,因为它不仅展示了通用人工智能的大框架,更是因为它可以接入多模态信息,增强思考能力、增加输出能力,从而变成更好的通用人工智能底座,可以在学术上带来更多的应用。

相较于 ChatGPT 本身的能力而言,它的局限性相对较少且都比较容易解决。图灵奖得主、人工智能三巨头之一 Yann LeCun 认为 ChatGPT 的缺点有以下几点:

目前形式有限。当前的 ChatGPT 仅局限于文本方向,但如前面所说,可以在上游使用一些多模态模型初步解决这个问题。

并不可控。目前已有不少报道通过各种方式解锁了模型的 Ethic 和部分 【【淘密令】】 限制,但这部分可以通过更多的人工标注和对齐解决。

推理能力较差。通过思维链的方式,一定程度上可以增强模型推理能力。

无法与现实世界相接触。这也是目前 ChatGPT 最大的问题之一,作为大型语言模型,它无法实时与外部世界互动,也无法利用如计算器,数据库,搜索引擎等外部工具,导致它的知识也相对落后。

而未来它更应该做到提高适时性、即时性、无害等等。

总的来说,如果将 LLM 作为智能体本身,能够与外部交互之后,这些模型的能力一定会有更大的提升。

但我们要始终保证这些 AI 模型的模型可信:有助、无害、诚实。

关于「ChatGPT 及大模型专题研讨会」



复旦大学邱锡鹏教授解剖ChatGPT

复旦 邱锡鹏,邱武强复旦大学,复旦大学邱礼恒,邱锡鹏 github

来源:高校人工智能与大数据创新联盟

邱锡鹏教授详细深入地介绍了以【【微信】】为核心的大规模语言模型的相关知识及未来的发展方向。得益于邱锡鹏老师的个人魅力和【【微信】】的火热,现场的老师和同学都踊跃发言,积极交流互动,碰撞出了许多思维火花。

、前言丨【【微信】】的前世今生

ChapGPT自2022年底问世以来,便展现出了令世人惊艳的对话能力。仅用两个月时间,【【微信】】月活跃用户已达一亿,是史上用户增速最快的消费应用。对于学术界、工业界、抑或是其他相关应用来说都是一个非常大的机会和挑战。

事实上,【【微信】】的成功并不是偶然结果,在目前的版本开放出来以前,OpenAI已经在训练大规模语言模型的道路上深耕多年。【【微信】】的发展路径可以由下图概括:

从2017年Transformer框架被提出后,OpenAI在第二年就提出基于Transformer架构的预训练语言模型,GPT,开始了(大规模)预训练语言模型道路的探索。2020年提出的GPT-3则是首个参数量达到千亿级别的模型,称得上是真正的“大规模”语言模型(Large Language Model,LLM)。2021年,OpenAI提出的CodeX模型在GPT-3的训练数据里引入代码数据,使得模型能够从代码数据中学习严谨的逻辑结构和问题拆解能力,为GPT引入了思维链(Chain-of-Thought,CoT)的能力。同年,GPT的另一条发展方向是和搜索引擎相结合,诞生了具备搜索能力的WebGPT,其能够根据搜索的交互数据来进一步提升语言生成的可靠性和准确性。2022年OpenAI再次提出InstructGPT,使得GPT能够理解更贴合人类自然语言的指示,并根据该指示作出正确的文本生成。同年,【【微信】】横空出世,其强大的对话能力和高质量的回答内容刷新了人们对AI的认知,被认为是人工智能里程碑式的应用。

总的来说,【【微信】】这种LLM的优点主要来自于以下几个关键点:

1. 模型结构。GPT一族的模型都是基于Transformer结构的。Transformer的高并行性使其很容易扩展到大规模模型上(百/千亿级别参数量),这使其能够从更大规模的数据中学习更多的知识,显著提升知识储备能力。

2. 训练数据。由于代码是一种逻辑非常严谨的文本,且函数之间的调用关系本质上是将复杂问题拆解为多个小问题来组合解决,因此引入代码数据来训练模型能够有效提升模型的思维链能力。

3. 训练数据的形式。Instruct learning构造了更符合自然语言形式的训练数据,在提升GPT语义建模能力的同时也提升了模型在多种未知下游任务的泛化能力。

更进一步,大规模语言模型基座的可扩展性很强,其能够很容易和外部世界打通(如WebGPT和搜索引擎相结合),源源不断地接受外部世界的知识更新,进而实现反复自我迭代。因此,大规模语言模型也被看作是实现通用人工智能(AGI,Artifical General Intelligence)的希望。

接下来,邱锡鹏老师从大规模预训练语言模型带来的变化、【【微信】】的关键技术、训练方式、能力分析及其局限性等角度深入地介绍了大规模语言模型的相关知识。

一、大型语言模型带来的变化

01

模型性能

随着算力的不断提升,语言模型已经从最初基于概率预测的模型发展到基于Transformer架构的预训练语言模型,并逐步走向大模型的时代。当模型规模较小时,模型的性能和参数大致符合比例定律(scaling law),即模型的性能提升和参数增长基本呈线性关系。然而,当GPT-3 / 【【微信】】这种千亿级别的大规模模型被提出后,人们发现其可以打破比例定律,实现模型能力质的飞跃。这些能力也被称为大模型的“涌现能力”(如理解人类指令等等)。

下图是多个NLP任务随着模型规模扩大的性能变化曲线,可以看到,前期性能和模型规模大致呈线性关系,当模型规模大到一定程度时,任务性能有了明显的“飞升”。因此,当前研究通常以百亿/千亿级别参数量作为LLM的分水岭。

02

模型使用方式的转变

对于“传统”的预训练语言模型,科研工作者们的使用方式主要是对模型参数在下游任务上做微调来使预训练模型适应相应领域的任务。而大规模语言模型模型参数量大,微调困难,且预训练的模型已经具备强大的基础能力,因此提示学习(prompt learning)是激发大规模模型在多种不同下游任务上性能的更好方式。能够根据提示进行学习是LLM所涌现出的能力之一。

03

自然语言处理的范式迁移

上面的LLM模型使得生成范式,即(M)LM((Masked) Language Model),逐渐替代分类范式成为主流。从下图中可以看到,近几年(M)LM模型有逐渐统一语言模型范式的趋势。

注:这里的(M)LM主要指的是自回归式的给定前缀生成下一个单词的大规模模型,通常由解码器(decoder)实现,将MLM(Masked Language Model,掩码语言模型)包含进该概念是因为MLM本质也是预测(生成)单词的模型,只是包含了编码器(encoder)结构。

同时,正如前文所述,NLP的任务训练方式也逐渐修改,由预训练+微调(【【微信】】+fine-tuning)来调整语言模型参数的方式,逐渐变为根据下游任务修改自身描述(如加入指令),使得任务本身更靠近自然语言的形式,从而激发预训练模型的丰富潜能。

二、【【微信】】的三个关键技术

01

情景学习(In-context learning)

对于一些LLM没有见过的新任务,只需要设计一些任务的语言描述,并给出几个任务实例,作为模型的输入,即可让模型从给定的情景中学习新任务并给出满意的回答结果。这种训练方式能够有效提升模型小样本学习(few-shot learning)的能力。下图是一个情景学习的示例。

可以看到,只需要以自然语言的形式描述两个情感分类任务输入输出的例子,LLM就能够对新输入数据的情感极性进行判断。

02

思维链(Chain-of-Thought,CoT)

对于一些逻辑较为复杂的问题,直接向大规模语言模型提问可能会得到不准确的回答,但是如果以提示(prompt)的方式在输入中给出有逻辑的解题步骤(即将复杂问题拆解为多个子问题解决再从中抽取答案)的示例后再提出问题,大模型就能给出正确题解。

如图所示,直接让模型进行数学题的计算会得到错误的结果,而引入解题过程则可以激发模型的推理能力,从而得到正确的结果。

有时,甚至不用给示例,在输入后面接一句“Let’【【微信】】”,模型的输出就是一步一步“思考”后的各个子问题的结果,再将该输出拼到输入后构造第二次输入数据,大模型就能进一步将上一步的输出整合,得出正确的复杂问题的解。(so amazing!)

目前有研究发现,由于数据集中存在的大量代码数据,得益于代码的强逻辑性,通过将问题中的文本内容替换为编程语言能够进一步提升模型的CoT能力(Program-aided Reasoning)。

由于CoT技术能够激发大规模语言模型对复杂问题的求解能力,该技术也被认为是打破比例定律的关键。

03

自然指令学习

(Learning from Natural Instructions)

这种训练方式会在输前面添加一个“指令(【【微信】】)”,该指令能够以自然语言的形式描述任务内容,从而使得大模型根据输入来输出任务期望的答案。该方式将下游任务进一步和自然语言形式对齐,能显著提升模型对未知任务的泛化能力。

三、模型训练方式

在训练方式上,【【微信】】沿用了InstructGPT的训练方式,即基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF),区别仅在于【【微信】】将训练数据改为对话的形式(由于【【微信】】并没有公开论文,该观点来自作者的博客,链接如下,https://openai.com/blog/chatgpt/)。因此我们在这里介绍一下InstructGPT是如何应用RLHF来训练模型的。由于文本生成的优劣很多情况下是很主观的,取决于人类的偏好和价值观。因此现有的文本生成评价指标很难衡量人们对于文本生成优劣的感知。RLHF的目的就是通过人类对生成文本的反馈(即人工标注数据)来训练模型,使得模型生成的文本更符合人类的期待。RLHF的训练方式如下所示:

第一步:首先从大量的包含人类真实意图的指令集合中采样指令作为输入数据,并聘请专职标注员标注这些指令的输出,这部分相对而言是一个高质量的小数据集。数据收集完成后,使用GPT-3.5在该数据集上进行有监督的微调(【【微信】】g)。

第二步:得到上一步微调好的GPT-3.5之后,再次从指令集合中采样指令作为输入数据,从GPT-3.5得到多个不同的结果,并聘请专职标注员标注这些输出的好坏顺序,例如输出D>输出C>输出A>输出B。由于只需要标注模型不同输出的好坏,这部分标注的成本会降低很多,因此数据规模也会较大。得到这些人工标注的输出顺序之后,可以训练得到一个打分(reward)模型。

第三步,获得打分模型之后,接着从指令集合中采样一些新的指令作为输入数据,并结合打分模型,使用PPO(一种强化学习算法)方式来训练得到最终的【【微信】】。

四、【【微信】】的能力发展

目前,主要可以从下面四个维度来衡量LLM模型的能力

1、Know Knowns:LLM知道它知道的东西。

2、【【淘密令】】:LLM知道它不知道哪些东西。

3、【【淘密令】】:LLM不知道它知道的东西。

4、Unknow Unknowns:LLM不知道它不知道的东西。

从上图中GPT-3到【【微信】】的能力发展过程可以看到:【【微信】】通过更大规模的预训练,得到了更多的知识,即knowns范围扩大。事实上,模型在应用时并不能完全解锁自己的所有知识储备,正如我们在CoT章节中介绍的,当我们直接给模型一个复杂数学题时,他并不能给出正确答案,而当我们在prompt中加入“Let’【【微信】】”,模型则可以给出求解思路,并抽取出正确答案。这种情况我们认为是模型本身潜在地包含了这些知识,只是由于提示不足而没有解锁这部分能力,称为unknow knowns,即knowns包含know knowns 和 unknow knowns。而【【微信】】则通过较强的思维链能力,解锁了一部分【【淘密令】】,进一步扩大know knowns的占比。因此,邱锡鹏老师也在报告中提到,解锁unknow knowns的关键是CoT技术。有研究发现,【【微信】】的思维链能力可能一定程度上来源于在代码数据上的预训练(如上文中提到的Program-aided Reasoning),但这部分的研究还需要进一步开展。同时,配合指令学习和人工反馈,【【微信】】可以使得自己的回答更符合人类预期,即增强Know knowns/Unknowns的能力,例如,当人们提问“2026年世界杯冠军是哪个国家”时,【【微信】】会老实的回答自己没有预测能力,而不会胡说八道(这会降低人们的使用好感度)。通过上述三部分的增强,最终的Unknow Unknowns部分也相对变得很小。

另外,【【微信】】还关注了伦理问题,通过类似解决【【淘密令】】的方式,利用人工标注和反馈,拒绝回答一些包含伦理问题的请求。

五、【【微信】】的能力分析

首先来分析【【微信】】的know knowns能力,之前的工作主要关注于模型的准确性,针对现有模型能力评价工作局限于模型准确性的问题,HELM(Holistic E【【微信】】odels)这篇工作提出应当从多个维度关注模型能力,包含准确性,鲁棒性,公平性,有偏性,效率等等。

现有的针对LLM的基准测试都有着一系列局限性,包含范围受限,不够通用等等,导致基准测试的难度提升逐渐滞后于模型的迭代。为了解决这一问题,邱老师团队提出使用高考题(GAOKAO-Bench)作为评测LLM的一种方式,高考题作为评测方式有着如下有点:1)具有挑战性且灵活;2)简单直观;3)数量多,多领域,质量高;4)稳定,有相应解释,便于测试人员分析。

邱老师团队在GAOKAO-Bench上对【【微信】】进行了评测,取得了相当惊人的结果。(发现【【微信】】的客观题能力与500分左右高考生相当,其在政史地等学科的主观题上成绩也不错。)

当然,【【微信】】对求解GAOKAO问题还存在一些不足,如缺乏语音信息(听力题)和图片信息(图片题)的理解能力。之后科研工作者们可以考虑在【【微信】】的上游使用一些多模态模型将语音信息和图片信息转换为【【微信】】可以理解的文本信息来增强这一部分的能力。

六、【【微信】】的能力局限

相较于【【微信】】本身的能力而言,它的局限性相对较少且都比较容易解决。图灵奖得主,人工智能三巨头之一Yann LeCun认为【【微信】】有如下缺点:

1)Limited in their current form,即目前形式有限。当前的【【微信】】仅局限于文本方向,但如前面所说,可以在上游使用一些多模态模型初步解决这个问题。

2)Not easily controllable,即不易控制。目前已有不少报道通过各种方式解锁了模型的Ethic和部分know unknowns限制,但这部分可以通过更多的人工标注和对齐解决。

3)【【微信】】 capabilities,即推理能力较差。前面也提到过,通过思维链的方式,一定程度上可以增强模型推理能力。

4)Disconnected to the underlying reality of the real world,即无法与现实世界相接触。这也是目前【【微信】】最大的问题之一,作为LLM模型,它无法实时与外部世界互动,也无法利用如计算器,数据库,搜索引擎等外部工具,导致它的知识也相对落后。不过OpenAI的另一条道路,WebGPT则一定程度上实现了和外部世界的接通。

总结一下,后续我们如果将LLM作为智能体本身,能够与外部交互之后,这些模型的能力一定会有更大的提升。但我们要始终保证这些AI模型的模型可信:有助、无害、诚实。

邱老师精彩的讲座调动起了在场听众们极大的热情,各位老师同学们踊跃地进行了提问,由于篇幅原因仅摘录如下两个QA对话。

Q & A

Q:通过与【【微信】】这样拥有大量世界知识的LLM交互,是否存在能够把一些隐私黑出来的可能,是否存在一些隐私问题以及如何解决。

A:隐私问题一定存在,包括之前的GPT等语言模型,都从数据侧和模型侧进行了限制。数据侧的主要方法是请标注人员标注一些隐私数据不能够训练,模型侧的主要方法是限制模型回答一些包含隐私话题的问题(类似ethic方向上的限制)。但这两个方法均不能完全解决这个问题,未来在隐私问题上的研究也会是一个open problem。

Q:【【微信】】在训练过程中使用了强化学习的技术,那能否参考从AlphaGo到AlphaZero的技术演变思路,从向人类学习演变到机器自我对抗增强能力?比如说让一个【【微信】】提问,另一个【【微信】】回答。如果通过这种方式训练【【微信】】超越了人类的表现,该如何处理?

A:这是一个很好的思路,从原理上来讲是可行的。【【微信】】的出现让我们对AI的发展有了更好更新的思路,提供了更多的研究机会。对于第二个问题,我们在【【微信】】能力限制中也提到过,他的表现如果真的超越了人类,也一定要保证它的模型可信性。

来源:人大高瓴人工智能学院

AI联盟

全国高校人工智能与大数据创新联盟

版权声明:转载文章和图片均来自公开网络,推送文章除非无法确认,我们都会注明作者和来源。如果出处有误或侵犯到原作者权益,请与我们联系删除或授权事宜

往期精彩文章(单击就可查看):

1.

2.

3.

4.

5.

6.

7.

8.

9.

10. 高职大数据专业排行榜 2022全国882所高职高专院校大数据技术(与应用)专业教育教学综合实力一览表

11.

12.

13. 办

14.

15.

16.

17.

18.

19.

20.

21.

22.

23.

24.

25.