庆云古诗词

庆云古诗词

贾维斯是chatgpt吗 chatgpt 贾维斯

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

贾维斯是幻视吗,贾维斯是什么级别的人工智能,贾维斯是什么时候消失的,贾维斯是哪部电影里的

原标题:配上ChatGPT的AR眼镜?我要有属于自己的“贾维斯”了

(【【微信】】年4月12日讯)日前,美国AR眼镜开发商和零售商Innovative Eyewear宣布,其AR眼镜产品支持ChatGPT语音交互。消息一出,该公司美股股价盘前最高飙升逾200%,随后涨幅回落至130%左右。据悉,Innovative Eyewear是基于一款名为“Lucyd”的手机应用,为其AR眼镜用户提供ChatGPT语音服务。公司首席执行官Harrison Gross在声明中写道,“我们很高兴能成为第一家提供ChatGPT支持的AR眼镜公司,Lucyd将使我们的AR眼镜产品功能更加强大。”

(Lucyd产品宣传图)

AI之于AR

一款消费级的AR眼镜需要满足几个条件:时尚性、佩戴性、智能性。

时尚性,作为一款可穿戴设备,AR眼镜的产品外观应该是向普通的太阳眼镜看齐的。这要求它尽可能简化设备形态,具备潮流好物的时尚质感。

佩戴性,简单来讲就是适合全天候佩戴。轻便是第一要素,AR眼镜应该做到长时间佩戴也不会对用户的面部、眼部、耳部等造成影响或损害。其次就是防水、防高温等,过于精贵的电子产品肯定是不适合随身携带的。

智能性,AR眼镜的目标是成为辅助用户日常工作生活的工具。就像《钢铁侠》等影视作品中呈现的形象一样,AR眼镜应该能够完成识别物体、打电话、收发邮件等功能,既能满足生活娱乐需求,也能提供生产工作辅助。

(网络概念图)

就目前的AR眼镜市场来看,前两者的实现较为简单,不过一旦想要兼顾第三者,就会陷入尴尬的境地。毕竟高度智能化的工作生活辅助不可能凭空出现,那需要以庞大的计算能力作为基础。但想要实现算力设备的集成,就势必会导致AR眼镜变得臃肿不堪,这也就失去了它存在的意义。

(AR眼镜交互概念图)

Innovative Eyewear的方案似乎给出了一个全新的解题思路。根据相关介绍,基于Lucyd应用,用户可以使用AR眼镜内置的麦克风或其他耳戴式设备向ChatGPT提问,并通过立体声扬声器实时听到回答。搭配上ChatGPT的AR眼镜,看起来似乎比以往任何时候都更加实用。

(AR眼镜户外应用概念图)

在业界看来,AR眼镜或许会在未来成为,取代手机的下一代终端设备。不过,AR眼镜的人机交互痛点却一直是困扰着它进一步发展,直接触摸机身的可操作性太低,手势交互的算力需求又太高。AI语音助手的出现,很有可能成为AR眼镜人机交互的新选择。这样,每个人都能拥有属于自己的“贾维斯”,智能可穿戴设备将不再是纸上谈兵。

不再“智障”的AI

相信大部分人,都有过被“人工智障”逼得哭笑不得的经历。ChatGPT与此前的“人工智障”的区别,可以简单地用一句话来概括:从ChatGPT开始,AI有了和人类对话的资格。ChatGPT可以用舒适感很强的表述方式与用户对话,并且用户可以直接得到结果,而不是一堆需要二次人工筛选的信息列表。

(支持ChatGPT第三方插件的11个网站)

就在上个月底,OpenAI(ChatGPT开发商)宣布推出插件功能,帮助ChatGPT访问最新信息、进行计算或使用第三方服务,并开放了网络浏览器、代码解释器两个OpenAI自己的插件。根据官网信息,第一批支持ChatGPT第三方插件的网站共11个,包含旅行计划、电商服务、餐厅预订、知识学习、家庭服务等各个领域。换句话来说,如今,一个简单的指令就能让ChatGPT制作并安排一趟五一之旅。在旅游攻略、交通安排、酒店住宿等方面,它都可以直接提供堪比保姆级的服务。

1+1>2,AR重获希望

书接上文,“堪比保姆级”毕竟不是真正的保姆级服务。距离ChatGPT成为一个无微不至的贴身管家,还缺少一个载体,一个能够将各种安排随时随地告诉用户的设备。没错,就是AR眼镜。AI需要AR眼镜作为载体,AR眼镜需要AI提供人机交互支持。

(网络概念图)

从替代智能手机的角度上来讲,AR眼镜应该是面向C端的。这也就意味着,C端市场的消费者,会把AR眼镜的造型、舒适度、交互功能、价格等方面与已经高度成熟的智能手机产品进行对比,甚至还会和影视作品中特效堆砌而成的“AR眼镜”进行对标。大众的心理预期过高,也就导致了AR眼镜的全方位“失格”,直接表现就是市场遇冷。

根据第三方机构IDC咨询发布的报告,2022年中国AR/VR头显出货120.6万台(sales in口径),其中AR出货10.3万台,VR出货110.3万台。

(百度文心一言宣传图)

随着ChatGPT的跃进式突破,AIGC领域已成为科技行业投资圈的新贵。国内方面,B.A.T三大互联网巨头,百度和阿里都已先后推出自己的AI语言大模型,文心一言、通义千问。市场的反馈永远是最直接和真实的,人工智能的风潮很大。

简单总结一下,上述三段文字所要表达的重点,AI与AR能够互相成就、AR市场遇冷、AI正处于爆火的风口。将AI引入AR眼镜,凭借AI提供的高效语音交互服务,打破AR眼镜高不成低不就的现状,让其成为真正满足用户需求的生产力工具。基于AI的发展,在可预期里的未来里,相信我们可以看到,AR眼镜成为真正意义上的智能可穿戴设备。AR眼镜取代智能手机将不再是梦想。

道阻且长,但前程似锦

当然了,美好的未来蓝图需要描绘,现实的技术难点也不能忽略。想要实现影视作品中的呈现效果,AR眼镜还有很长的路要走。最关键的一点,Innovative Eyewear的方案是通过手机,为AR眼镜提供ChatGPT语音交互服务,但AR眼镜的终极目标却是取代手机。这是一个不可调和的矛盾吗?倒也不是。

(Rokid Air 产品图)

目前的技术条件,需要使用手机或是某个设备为AR眼镜提供语音交互的载体。但随着技术和硬件配置的更新迭代,哪怕不借助外部设备,AR眼镜也能在保持轻便的同时,保证性能强大。这是有例可循的,尽管如今的手机性能非常强大,也有不少服务是通过云端处理的。以云游戏为例,它依赖的就是云端算力,手机只是作为一个信息输入和结果输出的平台。

结语

人工智能的风越刮越大,“万物皆可ChatGPT”似乎已不再只是一句笑谈。作为“过气产品”的AR眼镜,如果能够有效兼容以ChatGPT为代表的人工智能技术,攻克人机交互的痛点。那么,AR眼镜成为真正意义上的智能可穿戴设备,将不再遥远。有诗为证:“好风凭借力,送我上青云”。

本文属【【微信】】原创稿件,转载请洽:【【邮箱】】返回搜狐,查看更多

责任编辑:


郑磊 张宏 | 从技术“玩具”到治理工具:将ChatGPT引入公共治理领域的风险与策略


原标题:郑磊 张宏 | 从技术“玩具”到治理工具:将ChatGPT引入公共治理领域的风险与策略

从技术玩具到治理工具:将ChatGPT引入公共治理领域的风险与策略音频:进度条00:00 14:31 后退15秒倍速 快进15秒

摘 要

横空出世的ChatGPT开启了通用人工智能时代,标志着人工智能具有广泛的学习能力并在大多数领域达到或超过普通人类的水平,其社会影响将巨大而深远。ChatGPT本质上是人工智能生成内容的最新应用成果,面对这一新传播范式,对其风险认知、治理策略研究刻不容缓。类ChatGPT应用嵌入公共治理领域将展现出巨大潜力,同样需要未雨绸缪,预判其可能带来的失灵、失信、失德、失向等风险,使其成为一个可用、可信、可靠和可亲的“推动者”。有乐观者认为,ChatGPT等人工智能内容生成技术的优势将为法治政府建设所用,带来人力所不及之利好;显见的是,作为“聊天机器人”出身,在代表政府与公众互动方面,类ChatGPT应用必将减少大量行政负担。欲知全豹必窥多“斑”,有人提出,可从认知、技术、数据和服务四个方面对ChatGPT等大语言模型嵌入政府治理进行研究探讨;也有从“工具、语伴、智慧体”抽象隐喻视角辨析围绕ChatGPT类智能应用的治理;更有对后ChatGPT时代政策智能发展前景的展望。

关键词:ChatGPT;智能社会;智能治理;人工智能;通用人工智能;AIGC;大语言模型;政府治理

这是一组青年学者笔谈,共8篇,依次为:

何哲,曾润喜,郑磊,张效羽,马亮,翟云,李晓方,张楠,等丨ChatGPT等新一代人工智能技术的社会影响及其治理
ChatGPT:开启通用人工智能时代及其社会影响 何哲
人工智能生产内容(AIGC)传播的变迁、风险与善治 曾润喜 秦维
从技术“玩具”到治理工具:将ChatGPT引入公共治理领域的风险与策略 郑磊 张宏
ChatGPT等人工智能内容生成技术对法治政府建设的影响及应对 张效羽
人工智能、人机交互与行政负担 马亮
ChatGPT等大语言模型嵌入政府治理的四个小切口 翟云 潘云龙
“工具”“语伴”还是“智慧体”?面向不同隐喻的ChatGPT治理 李晓方 彭云
后ChatGPT时代的政策智能前景展望 张楠

从技术“玩具”到治理工具:将ChatGPT引入公共治理领域的风险与策略

郑磊 张宏

复旦大学国际关系与公共事务学院

一、引言

2022年底推出的ChatGPT已经在诸多领域展现出惊人的能力,成为通用型人工智能发展及应用过程中的里程碑,其在个人和商业领域的应用正在不断拓展和深入,而其在公共治理领域的巨大潜力也已被提上议程,包括政策制定、效率提升、服务提供、政民互动等各个方面。

突然“涌现”的新技术常常会像“玩具”一样激发人们的好奇心和探索欲,引出对其各种“玩法”的畅想。然而,马库斯等在《如何创造可信的AI》中提出,在理想与现实之间存在着可被称为AI鸿沟(The AI Chasm)的大坑。以ChatGPT为代表的人工智能技术在公共治理领域能被如何应用?又可能面临哪些风险和挑战?本文将就此作一些初步的思考和探讨。

二、ChatGPT与公共治理的张力与风险分析

在将ChatGPT从技术“玩具”转化为治理工具的过程中,既需要充分认识新事物的优势,也应对其局限性和应用环境有足够了解。在将以ChatGPT为代表的人工智能技术引入公共治理领域的过程中,其在通用化、概率化、类人化、技术理性偏好等方面的特性可能会与公共治理的特性和原则产生张力和风险。

(一)通用化与专业性之间的张力:失灵的风险

不同于AlphaGo等应用于特定领域的人工智能模型,ChatGPT是典型的通用自然语言模型,即能在更广泛的领域范围内模仿人类智能。而这一模型的出色表现很大程度上源于其在训练过程中使用了数量庞大、覆盖了各种主题领域的语料库。

作为一个专业化的领域,公共治理有一套不同于公共互联网的话语体系,ChatGPT等生成的内容还不能直接、简单地适用于公共治理领域,而是需要对模型进行重新训练。然而,政府的文本数据不可能全部公开,如果只使用其中部分公开的语料进行训练,可能会导致模型表现平平或以偏概全。同时,还存在着通用化与专业化之间的矛盾,即ChatGPT要在更懂政府专业领域与更懂“普通人”之间进行选择。若要在公共治理领域表现得更专业,则需要增加政府语料进行训练,以使其能使用更专业的术语和文字风格,从而更加贴近这一特定领域的需要,但这又可能会导致模型“不说人话”;反过来,若要表现得“会说人话”,则又难以符合政府业务的专业要求,还需要进行额外的自然语言处理和语言转换,将专业内容转化为易于普通人理解的语言。在这一转化过程中,技术能否做到在提高输出结果易读性的同时不降低其专业性,仍有待检验。以上这些可能导致将ChatGPT应用于公共治理领域时效果不佳,出现“失灵”的风险。

(二)概率化与确定性之间的张力:失信的风险

作为基于深度学习的模型,ChatGPT输出的答案是由其预训练的神经网络生成的,而神经网络中的参数是随机初始化的,并且训练过程中会根据输入数据进行随机梯度下降优化,这就使得该模型在面对同一个问题时可能会给出不同甚至相反的回答。ChatGPT给出的答案有时会表现得“言之凿凿”,有时会“一本正经地胡说八道”,而在被质疑时又会“随机应变”或“死不承认”,本质上是由于其输出结果是在多个备选答案中随机抽取的、概率化的和无法预测的。对于这样一个日益强大的“数字头脑”,没有人(甚至是它的创造者)能够真正理解、预测或可靠地控制它们。

这种概率化的结果生成方式对于其他领域来说可能成为“灵感”或者“创造性”的来源,但对于公共治理而言则是难以容忍的。毕竟,公共治理是容错率非常低的领域,政府部门处理的是公共事务,承担着公共责任,受到公众监督,具有很强的风险规避型文化。政府追求的方向是控制偶然性、提升确定性,政府基于可靠数据支持决策、利用制度规则保障执行,也是为了实现可预期的治理效果。同样,对于民众而言,来自政府的信息也意味着合法性权威,而这种权威也与确定性直接相关,关系到民众对政府的信任及其对公共政策的认可、接受与支持。因而,简单直接地将ChatGPT等模型生成的具有随机性和不确定性的信息应用到公共治理中,可能会影响政府的信誉,带来“失信”的风险。

(三)类人化与非人格化之间的张力:失德的风险

基于海量自然语言数据的训练,ChatGPT在类人化上取得了前所未有的进展,能够“听懂人话”,并将模型处理的结果以“人话”输出,无论在内容和形式上都在向“常人”贴近。使用者不再需要使用专门的编程语言便能轻易使用,尽管用户对同一问题的不同提问方式会影响所得答案的质量,但整体上这类工具的使用门槛已经前所未有地降低了。

不过,人工智能模型在通过大量学习语料获得理解人类的能力的同时,也难以避免受制于语料本身的局限性。例如,互联网上的文本数据中可能存在着各种各样的偏见和歧视,包括性别、种族、地域、文化等方面。由此,人类自身存在的偏见也被吸收到数据集中,并经由模型的训练而被进一步固定或强化,最终体现在模型输出的结果中。换言之,类人化的AI所模仿的是自身并不完美而有着种种缺陷的人。而且,在这一过程中,原本相对较为明显的偏见也可能变得更加隐蔽,以一种难以察觉的方式对使用者产生影响。

然而,在公共治理领域,非人格化是现代政府的一个重要原则,即政府行为应尽量排除个人因素的影响,按照源于社会共识的制度规则行使权力,实现公平公正的治理,而不能让少数人的偏见扭曲公共权力的使用。政府需要通过建立更透明的决策机制、更规范的执行机制、更多元的监督机制、更广泛的参与机制等方式,尽可能地控制住偏见的干扰。对于已被吸纳在技术模型中的偏见,则很难通过现有的制度规则来发现并对其进行有效约束。因此,如果政府在决策过程中直接基于或过于依赖ChatGPT等人工智能模型导出的结果进行决策,将可能固化和强化既有的偏见和歧视,影响到特定人群的切身权益,加剧社会的不公与鸿沟,这将有违公众对公共治理的基本道德期待,带来“失德”的风险。

(四)技术理性与价值权衡之间的张力:失向的风险

与其他智能工具类似,ChatGPT输出的结果是根据输入或设定的参数通过特定计算方式生成的,这使其倾向于在预设目标的指引下生成技术理性上的“最优”路径或“最佳”方案。而且随着训练数据集容量和参数量的增加,这种技术理性偏好会愈发强烈,即追求模型性能的提升以更高效地实现特定目标,而对这一目标之外的其他未纳入模型的因素则容易被弱化或忽视。

公共治理并非纯粹的技术事务,而是一个政治过程。一项合理的公共政策既要考虑经济效应,又要考虑对社会、政治、文化、生态等方面的影响;既要考虑直接目标群体,又要考虑间接利益相关者;既要考虑内部的成本收益,又要考虑外部性;既要考虑短期效果,又要考虑长期效益,需要对不同价值进行权衡,也涉及到不同利益相关者之间的反复博弈与妥协,往往最终能被各方接受并真正落地的政策并不是在技术判断上最“优”的选择。因此,人类社会和公共事务的复杂性还难以被技术工具完全、精准地计算,若是以ChatGPT等大语言模型的技术理性完全取代价值判断与多方参与,很可能会压制多元利益诉求的表达,使整个社会陷入技术霸权的泥潭,而与增进公共价值的方向背道而驰,出现“失向”的风险。

三、将ChatGPT等大语言模型引入公共治理领域的策略建议

以上张力和风险并不意味着应当将ChatGPT等大语言模型拒于公共治理之外。一方面,这些问题产生于当前的技术能力,可能会在未来通过技术进步得到缓解;另一方面,政府部门也可通过制定适当的策略来应用ChatGPT为自己赋能。正如新加坡政府科技署政府数字服务部门副总监Yeo Yong Kiat所言:“作为政策官员,我们所做的一切,无论是编写会议记录还是批准预算文件,只是为了调动资源(例如人员、资源、计划、系统)来解决一个常见问题。一旦我们从这个角度看待自己,ChatGPT就会成为推动者,而不是破坏者。”

就目前而言,ChatGPT的发展已经为探索公共治理的未来形式提供了许多可能性。如何在将ChatGPT等大语言模型引入公共治理领域的过程中避免失灵、失信、失德、失向等风险,而成为一个可用、可信、可靠和可亲的“推动者”?本文从以下几个方面对其在公共治理中的应用策略提出建议。

(一)实效为上,而非“无所不用其技”

技术执行理论指出,信息技术是赋能者(enabler),而不是决定者(determinator)。信息技术的实施方式和效果受到制度与组织因素的制约,技术逻辑并不必然带来制度和组织的变化。[4]数字治理的持续发展面临着复杂而动态的挑战,取决于社会趋势、人性因素、技术变革、信息管理、治理目标和政府职能之间的相互作用。虽然ChatGPT已被公认为是一项革命性的新技术,但其在公共治理领域中的应用可能仍然无法跳出以上这些分析框架。

在公共治理中,没有最先进的技术,只有最合适的技术,更先进的技术并不必然会带来更好的治理,再好的技术也纠正不了政策和管理自身的问题。在将ChatGPT等大语言模型引入公共治理的过程中,首先要回答的问题不是我们要用ChatGPT玩出点什么,而是仍然要从问题导向和需求导向出发,思考在技术上可行、法律上可为、管理上可控的前提下,ChatGPT能有助于解决哪些公共治理问题,满足哪些公众需求?并能产生哪些实际效果?政府承担着为全民提供公共服务和管理社会的职责,既要充分利用各种成熟可靠的新技术,也不能一味追逐技术热点,“无所不用其技”,陷入技术崇拜或“唯技术论”,把公共治理领域变成各种尚未经过充分验证的新技术的“试验田”,却忘记了守护公共利益的底线和初心。

(二)人机协同,而非“以机代人”

计算机科学中存在着一种“伊莉莎效应”(Eliza Effect),即人们在阅读由计算机输出的符号序列时往往倾向于从中解读出这些符号本身所不具备的意义,从而认为机器已经具备了人类的情感、价值、道德、逻辑等属性。ChatGPT的流行其实也体现了“伊莉莎效应”的作用。然而,如前所述,ChatGPT等大语言模型只是通过猜出人类在某种情况下最可能说出的话而实现了更“聪明”的模仿,本质上尚无法进行感性的共情,也无法实现理性的逻辑,更难以承担伦理和法律上的责任,因此还难以在公共治理领域中完全取代人的作用。

当然,人难以被完全取代并不意味人不需要做出改变。一方面,ChatGPT模型需要不断优化以更好地满足政府的业务需求;另一方面,人也需要不断学习以提高其应用新工具的能力,未来人机协同将越来越成为政府的常态工作模式。这就对政府公务人员的能力素养提出了新的要求,其中有两项基本能力将变得尤为重要:一是提出恰当问题的能力,政府工作人员需要掌握向ChatGPT等大语言模型恰当提问的技巧,以得到高质量的回答。二是对ChatGPT的回答进行验证和判断的能力,这要求政府工作人员需要具备更高的专业知识和素养,以发现回答中出现的错误和偏差,避免简单化机械化应用ChatGPT可能带来的风险。毕竟,最终能负责任的不是工具本身而是使用工具的人,ChatGPT实际上对政府工作人员的素养能力提出了更高的要求,只有这样才能真正将新技术为人所用、为人赋能。

具体而言,ChatGPT等大语言模型可先在公共治理领域的以下场景下进行探索:

一是内部办公场景。例如,政府内部的公文写作、表格填写与信息录入、任务分配、流程管理与追踪监督等相对而言机械性强、重复性高、有“模板”可循的工作,可以引入ChatGPT等大语言模型以提高效率,减轻事务性工作负担,提升质量。

二是决策支持场景。例如,在舆情分析监测与应对中,ChatGPT等大语言模型可用于帮助决策者更准确、更高效地理解隐藏在各种信源中的“民意”,并通过自动化分析生成具有逻辑性、连贯性和可读性的决策参考报告。

三是服务和互动辅助场景。ChatGPT等大语言模型对自然语言的处理能力使得在公共服务和政民互动中实现更为智能的对话与交互有了更大的可能性,可探索在咨询、办事、投诉、建议等领域接入类ChatGPT大语言模型以协助处理信息并生成初步的回复内容。然而,在初期阶段,ChatGPT等大语言模型应尽量限制在政府后台而非前台使用,与民众进行的直接互动仍应由工作人员在ChatGPT等大语言模型的辅助下完成,由人来做好语言“转换器”和内容“守门员”,实现人机协同,而不是让ChatGPT等大语言模型直接面对公众,成为政府的化身,任其“自由发挥”。毕竟政府所应提供的是在人工智能大语言模型辅助之下的更优质高效的服务而非大语言模型本身。

(三)知识共练,而非“小作坊林立”

ChatGPT可被视为一个集合了海量公开知识并能与人对话的“百科全书”,在一定程度上替代了搜索、查找、整合和初步输出等环节,有利于推动知识的传递、传播和传承。

公共治理是一个既复杂多元又稳定持续的过程,一方面需要处理多样且不断变化中的问题和需求,但另一方面,又确实有许多政府职能是在一个个“标准化”“程序化”“模块化”的工作中实现的。在不同层级、不同区域的同类部门,乃至不同部门之前都存在着大量可共享和复用的知识,如业务流程规范、治理案例经验、应急处置预案等。然而,这些在长期实践中积累下来的知识往往很难突破各自的“知识小作坊”边界,因而未能发挥出更大的作用、产生更大的价值。

在过去的模式下,往往只能通过上级政府的推广或者同级政府的学习等路径进行知识的共享扩散,但这种方式往往是单向输出的,缺少双向反馈和持续积累,由此造成了不同地方和部门的重复“创新”、重复建设和重复总结等问题。未来,在ChatGPT等技术的加持下,可通过对政府内部语料的整合,在保障安全的前提下,打破各个“知识小作坊”之间的壁垒,打造共建共治共享的公共治理知识底座,为大语言模型提供更为海量丰富的专业训练语料,从而提高模型的输出能力,最终降低治理成本、提升治理效率、促进治理创新。

希望上述风险分析和策略建议有助于将以ChatGPT为代表的大语言模型从技术“玩具”引入公共治理领域转化为治理“工具”。

来源:电子政务杂志“刊载于《电子政务》2023年第4期”

构建数据共同共创数字发展力

获取更多精彩

电子政务智库返回搜狐,查看更多

责任编辑: