庆云古诗词

庆云古诗词

open ai 训练方法 open ai可以训练模型吗

互联资讯 0

在昨天我们跟大家分享了关于GPT-3.5模型的初学者教程指南《OpenAI 的 GPT-3.5-Turbo 模型初学者指南》,今天这篇文章,我们再来分享一个关于构建 ChatGPT 的 GPT-4 聊天机器人的过程,其中包含分步说明和完整的代码片段。我将介绍有关 GPT-4 API 的基本信息,并提供实用的见解来帮助您创建一个功能强大、引人入胜的聊天机器人。

我们将深入研究模型定价,探索聊天完成令牌的确切计算方式。此外,我将讨论 GPT-3.5-turbo 和 GPT-4 之间的区别,比较它们的性能,让您全面了解 GPT-4 必须提供的功能。

1.了解 GPT-4 模型

如果您阅读了本文教程,您很可能已经熟悉 OpenAI 和 ChatGPT。GPT 模型 API 允许像我们这样的开发人员访问和使用 GPT 系列中的预训练语言模型,例如 GPT-4 和 GPT-3.5-turbo。这些模型能够生成类似人类的文本,执行自然语言处理任务,并支持广泛的相关应用。

GPT-4 是 OpenAI 的 GPT 模型家族中最新且功能最强大的成员。OpenAI 声称 GPT-4 在大多数测试基准中都超过了 ChatGPT,这意味着我们有更好的机会实现我们想要的结果。

此外,它还具有改进的安全功能。然而,GPT-4 并不是 GPT 模型的全部和终结,并不意味着我们应该立即停止使用其他模型。我将在本教程后面的与 GPT-3.5-turbo 的比较部分进一步讨论这一点。

2.获得对 GPT-4 模型的访问权限

在撰写本教程时,公众可以通过两种方式访问 GPT-4 模型。

ChatGPT Plus 订阅:通过订阅 ChatGPT Plus,您将获得对 GPT-4 的有限访问权限。此订阅允许用户每 3 小时发送 25 条聊天消息。

GPT-4 API(仅限受邀者):目前只有受邀者才能通过等候名单访问 GPT-4 API。我在注册后大约 48 小时收到了我的邀请邮件。

请记住,可用性可能会随着时间的推移而改变,因此请确保及时了解 OpenAI 的公告。

3.使用 GPT-4 模型构建聊天机器人

升级到新的 GPT-4 模型 API 非常简单,因为它使用与 GPT-3.5-turbo 相同的聊天完成方法。如果我们有权访问,我们可以期望我们现有的代码能够与 GPT-4 无缝协作。

在本教程中,我将演示如何在 Node.js 中使用 GPT-4 API 构建聊天机器人。但是,相同的概念适用于您选择的其他编程语言。

如果您不确定提示完成和聊天完成的概念,请务必查看 GPT-3.5-Turbo 教程《OpenAI 的 GPT-3.5-Turbo 模型初学者指南》,我在其中提供了两者的详细比较和示例。

在继续之前,请确保您已获取 OpenAI API 密钥并相应地设置您的项目。

现在我们已经掌握了基础知识,让我们开始构建我们的 GPT-4 支持的聊天机器人。

4.安装必要的 NPM 包

这些库有以下用途:

  • dotenv:允许我们将 API 密钥安全地存储为环境变量。
  • openai:用于轻松调用 OpenAI 模型 API 的官方 Node.js 库。
  • chalk:由于我们正在构建一个在我们的终端中运行的聊天机器人,我们将使用 Chalk 为对话添加一些风格,使其更具可读性和视觉吸引力。
  • 【【微信】】:一个内置的 Node.js 库,我们将使用它来读取用户输入,从而可以轻松地通过命令行与我们的聊天机器人进行交互。

代码片段:打造您的聊天机器人

 

要有效地使用聊天完成构建聊天机器人,请按照以下步骤操作:

  1. 为用户输入和输出做准备:我们为聊天机器人设置了一种方式来接收来自用户的消息,并使用“【【微信】】”库通过命令行发送响应。
  2. 跟踪对话:我们创建一个名为 GPTMessages 的数组来存储用户和聊天机器人之间交换的消息。我们还在 modelName 变量中指定要使用的 GPT 模型(例如 GPT-3.5-turbo 或 GPT-4)。
  3. 制作聊天机器人功能:我们创建一个名为 GPT 的功能,它将用户的消息发送到 OpenAI API 并接收响应。它还会跟踪聊天机器人在其响应中使用了多少令牌,并返回内容和令牌使用情况。
  4. 创建来回对话:我们构建一个名为 askUser【【微信】】 的函数,它要求用户输入,将输入保存在 GPTMessages 数组中,并通过调用 GPT 函数获取聊天机器人的响应。然后它使用“chalk”库以格式良好的方式显示聊天机器人的响应。
  5. 启动聊天机器人:我们输入一条欢迎消息,让用户知道他们正在与哪个聊天机器人聊天。然后,我们通过使用初始消息的“系统”角色调用 askUser【【微信】】 函数来开始对话。

提示:在写这篇文章的时候,GPT-4 模型有点不稳定,你会经常看到服务器错误、使用限制问题。我建议你为 GPT 函数实现一个自动重试功能,如果服务器没有返回状态 200,它允许应用程序延迟重试 API 调用。这个自动重试功能应该有配置最大值的选项 重试次数和重试之间的延迟。

5.GPT-4 聊天机器人在行动:一个演示

下面是我们的聊天机器人的一个例子,展示了它如何有效地回答问题并在整个聊天过程中保持对话的上下文。请注意,由于 max_tokens 设置为 100,部分响应可能会被截断,您可以根据您的要求进行调整。

请注意,在此实现中,根据邀请电子邮件,对话会话的最大令牌限制为 8k。不过,OpenAI 还有一个 32k 的 GPT-4 模型,可以一次性生成多达 50 页的文本。截至目前,似乎还无法访问此模型,或者可能仅适用于他们的企业合作伙伴。

当您使用提供的代码运行聊天机器人时,您可以与模型进行对话,它会记住聊天记录以相应地回答新问题。这有助于为与聊天机器人交互的用户创造更加无缝和自然的对话体验。

当您测试聊天机器人并探索其功能时,您会发现 GPT-4 相对于之前模型的改进,包括更好的响应质量、上下文理解和安全功能(值得商榷


OpenAI 最新解密,ChatGPT 的本质是无损压缩器

openai官网,openai api key获取,openai和chatGPT什么关系,openai gpt4

费斌杰 熵简科技 CEO

作者 | 费斌杰 熵简科技 CEO

自从去年 12 月 ChatGPT 问世以来,AI 的发展正式进入快车道,整个行业开始 " 按日迭代 "。从 1957 年以来,人类在经历了数轮 AI 浪潮后,这次通用人工智能(AGI)是真的要来了。

我们团队在 2 月发表了对 ChatGPT 技术原理的深度剖析,得到了业内专家朋友们的广泛认可。但随着研究的深入,越来越多的问题浮出水面:

ChatGPT 强大的一个重要原因是大语言模型的涌现能力(Emergent Abilities),那么涌现能力究竟为何产生呢?

GPT-5 会有哪些意想不到的性能表现?

AGI 会走向何方,对社会经济活动又会产生怎样的影响?

在这篇文章中,我们针对以上问题进行深入探讨,并且给出尽可能详实的分析过程。本文浓缩了我们团队的研究成果,共分为以下四个部分:

大语言模型的本质:性能强大的无损压缩器

视觉信息是知识的富矿:从文本走向多模态

大数据时代的数据荒:运用合成数据破局

AGI 对人类社会经济活动影响:展望与思考

写在前面:熵简科技是一家专注于帮助资管机构实现投研数字化的科技公司,主要客户包括中金、中信、广发、建投、国信、招商、华夏、嘉实、银华、博时、汇添富、兴全、易方达等证券与基金公司。我是熵简科技的创始人费斌杰,但在写下这篇文章的时候,我更多是纯粹作为一个在新技术浪潮下,既兴奋又紧张的见证者和参与者,尽可能客观地评述分析这项新技术对我们行业会带来怎样的影响与冲击。以下分享是我们熵简团队的研究成果,LLM 技术发展日新月异,当前时点的分析难免错漏,欢迎各位指正。

大语言模型的本质:性能强大的无损压缩器

在最近 OpenAI 的学术分享会中,Jack Rae 提出了一个重要的论断: 大语言模型的本质,其实是一个性能强大的数据无损压缩器。

LLM=Compression

这个论断并不是很直观,但却揭开了 " 通用人工智能 " 非常重要的一角,值得高度重视。为了让大家理解这个观点,我们从" 学习 "这件事本身来探讨。

上个世纪以来,人类普遍认为 " 学习 " 是一种人类特有的才能,机器无法真正地掌握 " 学习能力 "。随着深度神经网络技术的发展,人们通过构建 " 人工神经元 " 来模拟大脑中的 " 生物神经元 ",从而使得机器开始具备一定的学习能力

图:生物神经元(左)与人工神经元(右)对比

而现在,OpenAI 得出了关于 " 学习 " 的最新结论: " 学习 " 这件事本身,可以理解为对有效信息进行无损压缩的过程。

为了更好地理解这个观点,让我们来做一个思想实验。 假设我们需要搭建一个模型,用来处理英译中的翻译任务。

最简单粗暴的方式,就是列举出每个英文单词对应的中文,即rule-based mapping。假设我们枚举完了所有英文单词的中文对照表,写出了一本 1000 页的词典。

但通过这本词典,我们真的能够有效完成所有英译中的翻译任务吗?答案是否定的。因为基于规则的映射系统是非常脆弱的,只要在翻译过程中遇到一个之前没有遇到过的新单词,系统就崩溃了。

因此,这个模型的翻译性能是很弱的,可以理解为 " 该模型没有真正学会翻译 "。

重点来了,现在请你把这本 1000 页的词典," 无损压缩 " 成一本 200 页的手册。字数减少了,但是信息量不能少,因此你不能简单地从 1000 页中抽取 200 页构成一本 " 小词典 ",而需要通过对数据进行 高维编码 ,从而实现 无损压缩

经过压缩后的这本 200 页的手册中,不再是简单的单词映射,而是包含了主谓宾、定状补、虚拟语气、时态、单复数在内的英语语法。相比于一本 " 词典 " 来说,它更像是一本 " 教材 "。

图:降低任务描述长度等价于增加对任务的理解

注意,在这个压缩的过程中," 学习 " 作为一种隐式的过程,起到了知识编码的作用。通过把一本 1000 页的词典压缩成一本 200 页的手册,模型" 学会 "了英语语法,掌握了英译中的知识。 通过这个例子,不难发现: 学习的本质,可以理解为对有效信息进行无损压缩的过程。压缩率越大,学习的效果就越好。

根据 OpenAI 的最新观点,基于 GPT 的大语言模型的是 性能卓越的数据压缩器语言模型的本质,是不断预测下一个词的概率分布,从而完成生成式任务。

但是从 " 无损压缩 " 的角度来看,如果模型对下一个词的预测更加准确,就意味着其对知识的理解更深,从而获得对这个世界更高的分辨率。 随着模型规模的提升,基于信息熵计算出的压缩率也会逐渐提升,这就解释了为什么模型的性能会随着规模的增加而增加。

而提升模型的压缩率并不只有 " 增加规模 " 这一种方法,正如 Jack Rae 所言:Scaling is not all you need更好的算法架构、基于 Plugin 的工具集成、合成数据的运用 都能够有效提升模型的压缩率 ,从而实现模型性能的进一步提升。

图:提升模型压缩率的几种方法

视觉信息是知识的富矿:从文本走向多模态

既然大语言模型发展的目标,是不断提升对有效信息的压缩率。那么自然地,如何获取尽可能多的有效信息,就成为了一个重要命题

人类是一种拥有语言能力的视觉动物,我们大脑皮层中约有三分之一的区域是用于视觉信息解析的。因此, 视觉信息是人类知识的富矿

图:大脑皮层中的视觉信号中枢

举个例子,我们都知道 " 太阳从东边升起,西边落下 ",这是一个常识。但如果分析一下我们是如何学到这个知识的,我相信绝大多数人是通过眼睛亲眼看到的,而不仅仅是通过书本学习到的。

推而广之, 视觉信息往往是人类知识的源头。由于人类具备语言和写作能力,人们会把通过视觉获取到的信息慢慢地转变为文本形态传播出来。

因此,如果把人类已获得的全部知识看作一座冰山,那么以 " 文本 " 为载体的数据只是冰山一角,而以 " 图像 "、" 视频 " 为载体的数据才是人类知识真正的富矿。这也是 OpenAI 的 GPT-5 会基于海量互联网视频进行学习的原因。

具体而言,如果给模型看大量的天文观测视频,模型有可能学习出一个隐式的开普勒定律;给模型看大量的带电粒子运动轨迹,模型可能会学习出洛伦兹力的数学表达;当然,我们也可以更大胆一些,如果给模型学习强子对撞机的海量实验数据,模型是否可以解开希格斯玻色子的秘密,从而解答物质的 " 质量 " 之谜,这一切都相当值得期待。

图:基本粒子模型与上帝粒子

大数据时代的数据荒:运用合成数据破局

虽然人类社会早已进入了大数据时代,全球经济活动产生了大量数据资产,但是LLM 所需的训练集膨胀速度更快。 根据预测,到 2026 年文本数据将被训练完,图像数据将在 2040 年左右用完。

图:大语言模型对互联网存量数据消耗的预测

这对于 " 大力出奇迹 " 的大语言模型来说,并不是个好消息。如果训练集体量不够,模型便无法继续 scaling up,从而不断提升性能天花板。

这个时候, " 合成数据 " 成为了重要的破局方法。顾名思义," 合成数据 "(Synthetic Data)指的是通过算法生成的训练集,而非从现实世界中采集到的样本

根据 Gartner 的预测,2026 年模型训练数据中的 50% 将由合成数据构成;2030 年合成数据的质量将全面超过人类标注的真实数据。

图:Gartner 对合成数据发展的预测

OpenAI 在 GPT-4 的技术文档中重点提到了合成数据的应用,可见 OpenAI 对该领域的重视。

图:GPT-4 技术报告中对合成数据应用的探讨

更进一步来看,如果合成数据的质量能够全面超越人类标注的质量,那么未来 AGI 便可以 自我迭代 ,进化的速度会大幅提升。到这时,人类可能就成为 AGI 的启动脚本(Boot Loader)了。

这不禁让我联想到马斯克曾在 2014 年做出的预言。他认为从 " 物种进化的尺度 " 来看, 以人类为代表的 " 碳基生命 " 可能只是以 "AI" 为代表的 " 硅基生命 " 的启动脚本

这个预言令人毛骨悚然。放在 14 年那会儿,绝大部分人会认为这是危言耸听。但是当下我们再回头审视这个判断,不难发现这与 " 合成数据 " 的发展目标不谋而合。

合成数据领域的突破,可能成为 AGI 跨过奇点的重要里程碑 ,让我们拭目以待。

图:Musk 在 14 年对 AI 发展的判断

AGI 对人类社会经济活动影响:展望与思考

在刚结束的 GTC 大会上,NVIDIA 的 CEO 黄仁勋将 ChatGPT 的诞生类比为移动互联网的 iPhone 时刻。但从人类科技发展史的尺度来看,我认为 ChatGPT 的诞生更像是拉开了 " 第四次工业革命 " 的序幕,会带来社会生产力和生产关系的质变

虽然有点不恰当,但如果把人类看作一台 " 生物化学计算机 ",我们不妨比较一下人类与 AGI 的效率异同:

首先,从 " 通信效率 " 的角度来看,人类之间的数据传输主要依靠交流,而交流的本质是以空气为媒介的机械。与此相对,AGI 之间的数据传输则主要通过 GPU 之间的 NVLink,数据传输的带宽显著提升

其次,从 " 工作效率 " 的角度来看,人类受限于生物体内复杂的免疫机制、神经元修复机制等原理,需要保持充足的睡眠,才可以换取白天良好的工作状态。但是 AGI 只需要有充足的能源供给,便可以做到7*24 的高强度作业,工作效率显著提升

再次,从 " 协作效率 " 的角度来看,由 100 个人组成的团队整体的工作效率往往会低于 10 人小组产出总量的 10 倍。随着组织人员规模的增加,人均产出不可避免的下降,需要通过 " 富有经验的管理艺术 " 才能激发团队协作的活力。相反,对于 AGI 来说,增加运算节点便可以扩大产能,并不会出现边际效用递减的管理与协作难题

图:人工智能与人类智能的发展曲线

以上分析了相比于人类而言,AGI 的生产力优势。但是人类在以下几个重点方面依然具备着不可替代的价值:

首先,虽然 AGI 在知识的广度上会远超人类,但是在具体领域的知识深度上,人类目前依然占据优势。

以金融投资为例,一位资深的投资经理可以根据不完整的市场信息做出模糊推断,从而获得超额收益;以科学研究为例,一位优秀的科学家可以从看似无关紧要的实验误差中推断出全新的理论体系。这些都是当前 AGI 难以企及的。

其次,社会经济活动的运转,高度依赖于人与人之间的 " 信任 ",这种信任是 AGI 难以取代的。 比如当你去医院看病的时候,即使 AGI 能够根据你的症状描述做出相当准确的诊断,你依然大概率会拿着诊断结果去咨询边上的人类医生,寻求一个值得信任的诊疗建议。类似的 " 信任机制 " 构成了医疗、教育、金融等领域中经济活动的重要基石。

随着 AGI 的发展,许多经济活动的游戏规则会悄然发生改变,而这个规则改变的契机,则会以 AGI 在该领域超过人类中的最强者作为分界线,正如 AlphaGo 的诞生彻底改变了围棋界的规则一样。

结语

这是最好的时代,也是最坏的时代。悲观者可能永远正确,但确实毫无意义。

纵观历史,人类科技史的发展并不是连续的,而是跳跃的。 或许我们正在经历的正是一次人类科技水平的跳跃,无论如何,能够亲眼见证并参与其中,我们都是幸运的。

最后,分享一句我特别喜欢的话,这是 OpenAI 的 CEO Sam Altman 在 30 岁生日时给自己的人生建议:

The days are long but the decades are short.

参考文献

[ 1 ] Power, Alethea, et al. "Grokking: Generalization beyond o【【微信】】orithmic datasets." arXiv preprint arXiv:2201.02177 ( 2022 ) .

[ 2 ] Bubeck, S é bastien, et al. "Sparks of artificial general intelligence: Early experiments with gpt-4." arXiv preprint arXiv:2303.12712 ( 2023 ) .

[ 3 ] Eloundou, Tyna, et al. "Gpts are gpts: An early look at the labor market impact potential of large language models." arXiv preprint arXiv:2303.10130 ( 2023 ) .

[ 4 ] Wu, Shijie, et al. "BloombergGPT: A Large Language Model for Finance." arXiv preprint arXiv:2303.17564 ( 2023 ) .

[ 5 ] Liang, Percy, et al. "Holistic e【【微信】】odels." arXiv preprint arXiv:2211.09110 ( 2022 ) .

[ 6 ] Brown, Tom, et al. "Language models are few-shot learners." Ad【【微信】】ation processing systems 33 ( 2020 ) : 1877-1901.

[ 7 ] Kaplan, Jared, et al. "Scaling laws for neural language models." arXiv preprint arXiv:2001.08361 ( 2020 ) .

[ 8 ] Zhou, Yongchao, et al. "Large language models are human-le【【微信】】." arXiv preprint arXiv:2211.01910 ( 2022 ) .

[ 9 ] Wei, Jason, et al. "Emergent abilities of large language models." arXiv preprint arXiv:2206.07682 ( 2022 ) .

[ 10 ] Zellers, Rowan, et al. "HellaSwag: Can a machine really finish your sentence?." arXiv preprint arXiv:1905.07830 ( 2019 ) .

[ 11 ] Barocas, Solon, Moritz Hardt, and Ar【【微信】】. "Fairness in machine learning." Nips tutorial 1 ( 2017 ) : 2017.

[ 12 ] Ouyang, Long, et al. "Training language models to follow instructions with human feedback." Ad【【微信】】ation Processing Systems 35 ( 2022 ) : 27730-27744.

[ 13 ] Devlin, Jacob, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding." arXiv preprint arXiv:1810.04805 ( 2018 ) .

本文来自微信公众号" 熵简科技 【【微信】】"(ID:Shangjian-Tech),作者:熵简 CEO| 费斌杰,36 氪经授权发布。