庆云古诗词

庆云古诗词

chatgpt是最智能的ai吗 chatgpt能替代人工智能吗

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt是什么意思,chatgpt官网,chatgpt怎么用,chatgpt账号

岁末年初以来,Open AI公司推出的文本检索和生成工具ChatGPT成为科技媒体的第一个热点。从普通公众的视角看,ChatGPT是1970年代以来一长串对话机器人中最新的一个――从《2001太空漫游》中的HAL9000,到亚马逊的Alexa和苹果的Siri。但是,ChatGPT为何成为热门话题?除了商业上的理由以外,还与它更友好的交互界面和泛用性人工智能的特点相关联。凭借这一特点,ChatGPT得到了前所未有的广泛关注。与公众对它追捧相映成趣的是学界对它的理性拷问:ChatGPT是不是通用人工智能?ChatGPT的成功是新经验主义的一次胜利吗?智能系统是否需要掌握知识,掌握知识的标准是什么?相较于传统的机器学习,ChatGPT有什么优势和缺陷?弥补缺陷的路径是因果学习与深度学习等分支的深度融合吗?

以下从四个方面回答上述问题:

第一,ChatGPT的成功是新经验主义的一次胜利吗?

我们知道,ChatGPT是一种基于深度学习技术的语言大模型,通过对大规模语料库的学习和预测,它能够实现一些自然语言处理的任务,如生成文本、文本分类、语言翻译等。虽然它在某些任务上表现得非常出色,甚至能够通过图灵测试,但它还不具有真正的智能。虽然它看起来很“逻辑”,甚至可以做因果推理,但聊天表现出来的一点儿因果推理能力,纯粹是来自人类语料库里已有的内容,并不是它的自主创新。实际上,ChatGPT并没有探索人脑结构和认知机制,它仍然是一种基于统计学习神经网络的黑箱模型,不能够解释其内部的工作机制。相对于传统的统计学习,虽然ChatGPT是一种非常有用的人工智能技术,但它远不是通用人工智能。尽管它具有一定的自注意能力,但它缺乏自主意识、情感和自主创造能力。尽管它能够实现某些复杂的任务,但它不具有人类智能的高度复杂性和多样性,不能像人脑一样进行跨领域、跨模态的学习和推理。日前,有多家媒体高调宣称ChatGPT的成功意味着新经验主义的胜利。而ChatGPT联结主义技术路线在自然语言理解方面取得的实践性成功,可以说是对符号主义规则导向智能系统的一种改进;但这种基于反馈的学习机制只是解决了经验论历来善于解决的问题,理论上的固有缺陷依然存在,所以不能说是新经验主义的胜利。

回首过往,有趣的是,经验论传统的英语哲学界,在第二次世界大战之后,因风云际会反而成了强调分析性的演绎主义哲学大本营;而历来把先验必然性作为哲学圭臬的德语哲学界,却循着20世纪哲学家胡塞尔的思想脉络,试图用思辨来捍卫知识的直观性。这说明启蒙以来,经验主义与理性主义并不为哪个民族所独有,谁都有权为人类认识的发展作出贡献。在哲学史上,对立的思想往往是各领风骚几百年,至于人工智能这一依赖技术发展的领域,更迭的时间就更短。反观当下,基于经验主义的人工智能技术路线,在强调统计和概率的同时,不得不引入数理逻辑和数学的因素。实际上,纠正对立哲学传统偏颇的途径只能是从对立到相容,从互斥到互补,进而达到融通。(任晓明、李熙,《自我升级智能体的逻辑与认知问题》,《中国社会科学》2019(12))

在这一方面,著名人工智能科学家朱迪亚?珀尔(Judia Pearl)的观点更具启发性。珀尔曾在因果推断和机器学习方面作出了重大贡献。不久前他对ChatGPT进行了实验并发文指出,ChatGPT 在推理过程中有两大局限:其一,ChatGPT 仅仅依赖于大量的文本数据进行预训练和微调,而缺乏对实际世界的直接观察和经验。这意味着ChatGPT无法进行控制实验,难以判断因果关系,由此会在完成任务时表现出不可靠性。其二,ChatGPT无法进行非单调推理。珀尔指出,ChatGPT会通过不断寻找例外来试图推断规律,但是会在某些情况下陷入困境,例如处理自指(self-referential)的语句时,ChatGPT会出现无限循环的情况。珀尔的研究提示我们:有可能引进因果结构模型研究,通过两种研究进路的互补形成功能-结构深度融合的智能系统。如可能结合其他先进技术,如知识图谱、计算机视觉、语音识别等,以实现更多的自然语言处理任务。通过研究ChatGPT的可解释性和透明度,可以更好地理解模型的行为和决策过程,并能够进行误差分析和改进,使ChatGPT能够与人类进行更加自然、流畅的对话,并能理解人类的情感和语义,进而实现更加智能化和更加人性化的结果。

第二,智能系统是否需要掌握知识?

从ChatGPT所代表的新一代智能系统的视角看“知识”,我们会对这一问题有新的认知。对于什么是知识,什么是知识标准的问题,无论是逻辑实证论的证实原则还是波普尔的可证伪性,作为科学知识划界标准都存在问题,而历史主义对于科学知识纲领的讨论还没有能够上升到定量阶段,虽然在学理上有重要的价值但无助于工程问题的解决。按照信息论之父克劳德?香农(Claode Shannon)的观点,知识可以定义为结构化的信息。对知识进行结构化,是构建知识图谱的基础,也是对语料库进行整理的第一步,因而抽取过程也就是筛选的过程本身是给定的,而不是智能系统训练而来的。由于结构化信息本身是由任务决定的,因此也就不存在通用的知识结构。例如,专注于人机对话的系统,包含的语法结构知识会更多;专注数学证明的系统,则需要尽可能多地包含逻辑表达式的运算。不难看出,ChatGPT这类智能系统不再追求任务的多样性,而是专注于解决特定问题,继承了专家系统的部分特点,它最大的优势在于不必再对模型进行反复训练,能够节省运算资源。而任务的专门性,又可以进一步细化有关知识的定义,即“知识是具有相对稳定性的结构化信息”。经由训练而来的这种人工智能系统,更像是一个死记硬背学习物理课本的学生,他知道每个问题的正确答案,前提是这个问题在书里出现过。这也是人们指责这种智能系统不会“创造”的原因之一!

第三,ChatGPT是高科技剽窃吗?

日前,著名语言学家乔姆斯基指责ChatGPT是“高科技剽窃”。这一观点虽有待商榷,但并非空穴来风。著名的开源代码托管服务GitHub截至2020年官方数据显示注册用户数量为4000万,项目数量为1亿。“开源”意味着这一平台上的绝大部分资源执行的是GNU、BSD等共享协议,使用者仅承担一般民事责任,所有者不受知识产权法律保护;这意味着AI可以无偿或以极低的成本取得这些公共领域的资源。ChatGPT声称自己作为开源项目,并没有直接使用任何一个代码托管平台的资源,这在技术上其实很好解决,只要将该模块的模型训练任务外包给一个商业公司就相当于间接地获得了授权。

事实上,Open AI的成功的确依赖于互联网的开放性,只有一个开放且不断成长的公共领域才能在客观上保证语料库的丰富。但是随着欧盟《通用数据保护条例(GDPR)》、《数字服务法案(DSA)》、《数字市场法案(DMA)》的通过,全球数字服务企业的游戏规则将会发生改变。上述法律总体的立法倾向是,为互联网业务提供消费品市场水平的权益保护和市场监管。由于数字服务一般而言都是免费的,而平台企业的利润通常来自用户主动提供的“用户生成内容”(User Generated Content,UGC),这既包含用户自愿发布的内容(比如ChatGPT所使用的互联网语料库),也包括算法根据用户行为生成的用户画像等,双方无法形成买卖关系。由于数据所有者和使用者的地位不同于普通的消费者和产品提供商,不正当竞争行为变得更加隐蔽、信息不对称也更加严重,因此欧盟立法试图增加数字服务用户对个人生成内容的支配权和收益权,以及对互联网大厂(占支配地位的数字服务企业,欧盟法条称“守门人(Gatekeeper)”利用数字资源盈利以严苛的限制条件以保证公平竞争。在这种大的趋势下,我们可以得出一个明确的结论:就是易于取得的数据质量会越来越低,使用数据的成本会显著增加,这进而让智能模型的维护成本也变得越来越高。

第四,模仿是学习吗?

如前所述,目前的资料并没有显示ChatGPT使用任何知识图谱或结构性信息来辅助运算,如果不依赖任何结构性信息,此类系统唯一的优势就是模仿。任何人只要反思自己的学习经历就能明白,模仿是人类认知中的重要组成部分,但绝不是认知的全部。一台基于规则完成学习任务的机器完全可以预先包含一些有关规则修改的“元规则”,或是提供语义更新以便让系统重新恢复一致性。在神经网络模型中,一个感受器网络的参数是每个神经元的参数和权值组成的矩阵;在隐马尔可夫模型中,参数是对状态之间转换可能性的概率评价。这些评价体系都是主观的,它们有权不受哲学还原论的考察,但这也就意味着它们不具备演绎推理的一劳永逸的可靠性。例如,对于统计学习的主观的优化条件,有人反驳说数字计算机的浮点数也是一种主观限制,但在数论里,这种限制条件是可以被先验地证明的;而在统计学习里,不论是开普勒对精确性的限制来自理论的简洁性要求和技术上的实际困难,还是今天的统计学习中的种种损失函数,都是来自于主观偏好,而主观偏好是可能随时变化的。

德雷福斯、彭罗斯等人曾对将图灵测试作为黄金律进行过严肃的批判。从技术的角度看,图灵测试的局限性在于通过该测试的智能机器事实上应用价值有限:仅仅实现人机对话无助于构造能够模拟人类依靠语言进行决策的智能系统,当问题在语料库中不存在人类创作的文本答案时,智能系统那里是无解的;从哲学上看,ChatGPT仅能够“使用语言”,这同分析哲学中所谈的“用语言思考”是有区别的,用语言思考的能力并非主要依靠长期的逆向反馈训练出来的,而是在掌握语法规则、惯例的基础上正向形成的。

早期机器学习研究是把无监督学习作为目标。例如,电子对弈系统就是无监督学习,追求动作代价的最小化而不是实际响应与期望响应之间的误差减小,这种目标能够实现是有赖于棋类运动状态空间的有穷性;而理想中的自主学习是不局限于有穷状态,它要求学习主体能够与环境直接互动,依靠直接经验进行学习。事实上,目前的智能系统虽然能够通过各种传感器传回数据 但无法独立地“制造”人类经验。现实世界的语言、图像处理中常见的任务如判定、分类问题面对的不是对弈那样的规则封闭系统,原始数据的呈现也没有固定的格式,指望目前的智能模型产生纯粹意义上的自主学习是不现实的。而学习模型的优化,也只能依靠不断调整乔姆斯基所称的足够简单但“并不优美”(elegant)的多层次的激发函数的参数完成;也需要不得不尽可能多地搜集数据,并按照人工标准对样本模式化(比如构造向量空间、进行语义标注等等)。显然,统计学习的训练过程被压缩为对数据集进行处理而不是实时接收外部反馈,最终结果是由训练数据得到一个条件概率分布或者一个决策函数用以描述输入输出关系。这样的算法依赖于大量的冗余存储能力和运算能力,从1970年代以来的技术水平和能源利用率看,显然是不现实的;今天来看,也是巨大的浪费。

 

终审:后勤服务与管理处

人工智能chatgpt


原创 阳志平?来自心智工具箱

1、刚才,在推特上看 OpenAI 官方发出消息:GPT-4 已经正式发布。OpenAI 官方介绍页面在这里, 【【网址】】/research/gpt-4

官方关于 GPT-4 的技术报告在这里:【【网址】】/papers/gpt-4.pdf

2、技术报告中详细比较了 GPT-4 模型在专业与学术考试,以及机器学习测验上的得分情况。虽然在许多现实世界的场景中不如人类,但 GPT-4 模型在各种专业和学术基准上表现出人类水平的表现,包括以大约前 10 %的分数通过模拟的律师资格考试

这是 GPT-4 参加的各项测验的成绩。经简单机器翻译,如下图所示:

其中,GRE Verbal 能到 160+ 的分析能力,有点可怕。

同样,在传统自然语言任务场景中, GPT-4 取得的成绩远超过往。

3、技术报告中也介绍了 GPT-4 与 GPT-3.5 模型的细微差异。总的来说,就是更有创造力,能够处理更多细微的指令。新增了视觉理解能力,极大地增强了分析能力。

当然,还有大家关心的多模态。GPT-4 可以接受图像和文本输入并产生文本输出。

第一批参与内测的团队。基于 GPT-4 的产品:【【网址】】/ 一个帮助视力障碍人群的辅助工具,可以使用 GPT-4 的多模态能力来识别、解释图片中的内容。

在 API Waitlist 开放前,目前访问 GPT-4 的方式是使用 ChatGPT。注意,仍有限制:

GPT-4 currently has a cap of 100 messages e【【微信】】trong>

但输入 Token 数量有显著提升。如下图所示:

5、在阻止模型生成有害建议上,比如 GPT-4 拒绝如何合成危险化学品的请求的能力有显著提升。

6、开源了 e【【微信】】://github.com/openai/evals 一个评估模型的基准测试工具。

7、我们邀请了 Bing 介绍 GPT-4 ,如下图所示:

8、同样,我们再使用 ChatGPT 的 API 解读官方刚放出来的技术报告,结果如下:

你好!我是 GPT-4 ,这是一个大规模的多模态模型,可以接受图像和文本输入并生成文本输出。我很高兴与你分享,我在各种专业和学术基准上都表现出人类水平的性能,包括通过模拟的律师考试,分数在应试者的前10%左右。

以下是你可能对我提出的三个示例问题。

训练后的调整过程,是如何使得GPT-4更像一个真实的人类以及符合社会规范?

你能解释一下为GPT-4开发的基础设施和优化方法吗?这些方法可以在更广泛的范围内预测性能吗?

GPT-4在功能和性能方面与以前版本的模型相比如何?

9、最后,我们也使用了机器翻译,生成了?GPT-4 技术报告的中文版,下载地址:【【网址】】/file/U4bCbHRBao9bQVxp5oec39CRnsg

10、提醒的是,本报告仍由碳基人类完成,但使用了 AI 校对技术、 AI 翻译技术以及 AI 摘要技术。