庆云古诗词

庆云古诗词

ChatGPT如何应用于教育

淘文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


#解码ChatGPT#ChatGPT的全名为“Chat Generati【【微信】】rmer”(即“预训练的聊天生成转换器”),是一种人工智能聊天机器人程序。ChatGPT目前主要以文字方式与用户进行信息交互,能够完成诸如自动文本生成、自动问答、自动摘要等多种任务。目前,美国一些高校的学生已经在该软件的帮助下完成学术论文,甚至还能获得不错的成绩。这使得一些学校出台了新规定,禁止学生使用该软件完成作业。这些现象引发了部分哲学教师的担心:ChatGPT是否会使哲学教师对于学生的课程论文与学位论文的专业评估变得更为困难?有些投机取巧的学生是否会利用这些技术获取与其真实水平不相符的高分?

  根据多年来对ChatGPT所依赖的深度学习技术的了解,笔者会先验地对ChatGPT能否深度参与高质量哲学文本的生成感到怀疑。而根据最近对聊天软件的实测评估,笔者发现这种怀疑已经得到了验证。同时,笔者倾向于认为,ChatGPT未来可能的技术进步也无法使其自动完成对高质量哲学文本的处理。

  先来谈谈为何笔者先验地就不太信赖ChatGPT。与传统的深度学习技术一样,ChatGPT系统在哲学上预设了经验论的知识形成模式。也就是说,根据这种哲学预设,只要一个认知系统获得了关于外部环境的大量数据,就能通过这些数据内部的统计学相似性自动获取规律,并由此预测未来。具体而言,深度学习技术模拟人类的神经元网络结构,将对于既有数据的统计学处理,转化为对一个复杂人工神经元网络的“训练”过程。基于深度学习技术的ChatGPT的创新之处,便是引入了“预训练”概念。所谓“预训练”,就是先将海量的语料“喂给”系统,却不告诉系统要完成什么任务,让系统自己琢磨不同语词的前后搭配关系。比如,若系统发现当出现短语“路遥知马力”时,短语“日久见人心”在之后出现的概率很高,就会在发现第一个短语后期待第二个短语出现。但需要注意的是,系统并不知道这个成语本身是什么意思。经过复杂的“预训练”阶段后,再让系统完成一些目的明确的任务(如完成一个求职报告)。需要注意的是,使这种较好的表现得以可能的“预训练”,需要的语料数量与算力消耗是惊人的。

  笔者不信任该技术路径的道理正在于此:人类并不是这样学习语言的。几乎没有人会通过对海量语句的统计学处理,获得“日久见人心”跟在“路遥知马力”后出现的后验概率――相反,任何一个正常的人类孩童都是通过成人对于该成语的解释而理解该成语的。目前,ChatGPT对于海量训练语料的渴求,显然会在原则上导致一个问题:只要语料不足,其输出质量便会迅速下降。而与之相较,人类的哲学专家却可以通过很少的哲学家语料去研究另外一个哲学家的思想(我们不妨想想,赫拉克利特与巴门尼德留给后人的哲学文本有多么稀少)。

  也正是基于对深度学习机制的上述认识,笔者才认为:哲学问题恰恰就是暴露ChatGPT缺陷的“阿基里斯之踵”。具体理由有如下三点。第一,哲学文本在人类互联网上占据的文本百分比是非常低的,先天就具有训练文本总量不足的问题。第二,网络上既有的关于哲学的电子文本有大量错误,因此本来就稀少的哲学训练资料本身的质量也是堪忧的。第三,专门用于哲学文本处理的人类标注员亦非常难找,因为胜任此项工作的专业哲学教师可能较难放下手头的科研工作去为ChatGPT订正哲学方面的语料信息错误(需要注意的是,目前为ChatGPT进行语料标注的标注员几乎都是来自欠发达国家的廉价劳工);或者反过来说也一样:相关的人工智能公司也不太可能花费高薪雇佣职业哲学教师去订正此类错误(因为做这件事的商业回报是很不明朗的)。

  基于上述推理,笔者提出了一个假设:ChatGPT无法很好地回应用户提出的与哲学相关的问题。为验证上述假设,笔者交叉使用汉语与英语对ChatGPT进行了测试,并由此验证了上述假设。笔者发现,ChatGPT的表现基本能够被归类为如下三个问题。

  第一,ChatGPT的哲学知识库非常小。比如,笔者要求ChatGPT罗列出日本马克思主义者户坂润(1900―1945)的主要著作,ChatGPT表示对此无能为力。如果说户坂润的确有点冷门的话,那么ChatGPT连韩炳哲都不知道就有点不应该了(他目前是在全球范围内炙手可热的韩裔德国哲学家)。实际上,任何一个人类用户都可以很容易地通过网络获取这两位哲学家的一些基本信息。

  第二,ChatGPT的“德性”非常差。ChatGPT虽然是一种器物,但器物也是有“德性”的。比如,如果一本词典故意搜集了一些错误语例,导致使用者语言使用水平下降,那么这本词典的“德性”就可以说是很差的。ChatGPT“德性”差的具体表现是“不懂装懂”。比如,当笔者问ChatGPT“户坂润的《日本意识形态论》在多大程度上受到马克思的《德意志意识形态》的影响”时,该系统竟然有模有样地归纳出了好几点。比如,“户坂润将马克思的意识形态理论用于分析日本当时的经济与文化”;“与马克思一样,户坂润也认为意识形态是一种对民众进行欺骗的力量”。而且,很难说这些答案是错的。但系统之所以在面对这个问题的时候“猜中”了答案,恰恰是因为它已经被告知,户坂润是一个马克思主义者。因此,系统就能利用既有的关于《德意志意识形态》的文本知识,猜中户坂润会对日本的意识形态说什么。但很显然,一个专业的日本哲学研究者一眼就能看出机器是在不懂装懂,因为在机器给出的答案里压根儿没提户坂润文本中所具有的一个马克思原始文本里缺乏的因素:对日本当时流行的复古主义*的全面抨击。因此这大概率就意味着,系统中没有关于《日本意识形态论》的信息。为了验证这个猜测,笔者又问了系统一个新问题:“户坂润的空间学说与康德的空间学说之间的关系是什么?”结果,系统表示没有这方面的信息。但户坂润的《空间论》是他进入日本哲学界的敲门砖,一个不知道户坂润的这本书,却敢对其思想侃侃而谈的机器人或真人,是“德性”非常差的。

  第三,ChatGPT的跨知识模块的知识迁移能力非常差。比如,当笔者用英文问ChatGPT日本哲学家西田几多郎的主要哲学观点时,系统的确给出了比较合适的答案;但当笔者用中文再问一次此问题时,系统却极不负责任地编造了几本不存在的西田几多郎的哲学著作。这说明ChatGPT无力在英文知识模块与汉语知识模块之间搭建桥梁。而当笔者问“西田几多郎”名字的罗马音写法“Nishida Kitarō”的正确汉字写法是什么时,ChatGPT的回答竟然是“坂本龙马”(明治维新时期的政治活动家)。这个错误十分荒谬。

  有人或许会说:ChatGPT的这些缺陷会随着其语言模型的扩大而得到解决。笔者不认可这种乐观的看法。因为在海量的哲学论文中,只有少量是值得细读的。因此,人类哲学工作者会根据自己的品位挑选出那些值得看的文本。而ChatGPT本质上是一个吞噬海量数据的数字化“饕餮”――它不会选择、咀嚼与反思。即使ChatGPT以哲学文本为主要训练数据库(尽管笔者不相信这样做能够带来相匹配的商业利益),也无法区分垃圾文本与精华之间的差异,由此使得其对于少数精华的吸收必须以吞噬大量的文本垃圾为代价。另外,ChatGPT也无法处理在哲学文献中经常出现的一个现象,即关于一个哲学问题该怎么看。不同哲学家之间经常有惊人的分歧,这就使得每一个独特的观点都会成为“统计学上的异常数”。基于统计学思路的ChatGPT能否消化哲学这颗坚硬的松果?答案应当是否定的。除了对一些既有事实进行罗列外,笔者看不出未来的ChatGPT能够给哲学家的工作(除机器翻译外)带来多大的实际帮助。

  (作者系复旦大学哲学学院教授)

作者:徐英瑾来源:中国社会科学网-中国社会科学报

举报/反馈


ChatGPT带来的变革 程序员t4是什么级别

chatgpt是什么意思,chatgpt官网,chatgpt怎么下载,chatgpt使用

全球科技界又有重磅消息!GPT-4,横空出世了!

此前,火遍全球的CHATGPT是在GPT-3.5基础上的产品,而GPT-4就是在GPT-3.5等老一代AI上迭代出来的。

【【微信】】老板也抑制不住激动的宣布:“这是我们迄今为止功能最强大的模型!”

GPT-4不仅拥有图像识别功能、高级推理技能、以及处理 25000 个单词的能力,在单词处理能力上是 ChatGPT 的八倍,还可以用所有流行的编程语言写代码。

据介绍,GPT-4 在模拟律师考试中的成绩超出 90% 的人类考生,在 SAT(俗称“美国高考”)的阅读考试中超出 93% 的人类考生,在 SAT 数学考试中超出 89% 的人类考生。

而同样面对律师资格考试,GPT-4 的上一版 GPT-3.5 的得分,仅仅超出 10% 左右的人类应试者。

GPT-4甚至能仅凭一张极其潦草的手绘设计图,瞬间做一个简洁的网站。被很多人认为是“前端工程师噩梦”。

在短短几个月内,【【微信】】的进步就让科技行业身陷几十年来最不可预测的时刻。

程序员职业将终结?

随着人工智能迅速发展,有业内人士为程序员未来的职业前景表示担忧。

前哈佛大学计算机科学教授、曾任谷歌首席工程师、苹果工程主管的Matt Welsh在芝加哥计算机协会(ACM)的虚拟会议上称,ChatGPT和GitHub Copilot代表了编程终结的开始。

Matt Welsh目前是 Fixie.ai 的联合创始人兼首席执行官,这是一家利用 AI编程的初创公司。

讲话一开始,Matt Welsh就表示“计算机科学注定要失败”。

他认为,由于ChatGPT和Copilot等技术的出现,编程正处于从“人类工作”转变为“机器人工作”的转折点。

在Matt Welsh看来,程序员将演变成人工智能程序的“老师”――或者产品经理、代码审查员,他认为这两个工作相对来说不受人工智能的影响。

他表示,与其将 PRD (产品需求文档) 交给工程团队,等待六周左右让他们实施,不如将 PRD 交给AI,AI会在几秒钟内吐出代码。

Matt Welsh还特别表示,GitHub Copilot 是一个了不起的产品:“Copilot 从根本上改变了我们编写代码的方式,在我打字的时候,Copilot 做得非常非常好,经常帮我完成我的想法,它比我真正认为的更能读懂我的想法。”

有争议的GitHub Copilot

自从GitHub Copilot问世,它的前景一直被看好。

然而,在不久前GitHub Copilot却陷入了一起集体诉讼的案件里,该诉讼的被告包括GitHub、微软和【【微信】】。而起诉方,正是一群软件工程师。

起诉方认为,目前 AI 系统不受法律约束,但创建和运营这些系统的主体必须承担责任。

软件工程师认为,GitHub Copilot基于公开的GitHub仓库,来训练他们的AI系统,此举侵犯了大量创作者的合法权利。

这是美国第一个针对AI系统训练和输出的集体诉讼案。

这个诉讼也揭露了一个事实:现阶段依赖机器学习的统计学AI,对训练素材的提供者利益的保护似乎很薄弱。

AI编程作为一种新兴技术,必然将面对法律和道德以及社会的多重考验。

我们期待AI为人类的科技之路带来变革性的影响,也期待它符合社会的公平、法律、和价值观。

最后,你认为AI编程会代替人类编程吗?