庆云古诗词

庆云古诗词

chatgpt搭建聊天机器人 开源聊天机器人

互联资讯 0
chat聊天工具,搭建聊天平台,搭建聊天机器人,如何搭建聊天室

出品|开源中国

大型语言模型 (LLM) 的快速发展彻底改变了聊天机器人系统,从而实现了前所未有的智能水平,譬如 OpenAI 的 ChatGPT。但 ChatGPT 的训练和架构细节仍不清楚,阻碍了该领域的研究和开源创新。受 Meta LLaMA 和 Stanford Alpaca 项目的启发,来自加州大学伯克利分校、CMU、斯坦福大学和加州大学圣地亚哥分校的成员,共同推出了一个 Vicuna-13B 开源聊天机器人,由增强的数据集和易于使用、可扩展的基础设施支持。

根据介绍,通过根据从 【【网址】】 (一个用户可以分享他们的 ChatGPT 对话的网站) 收集的用户共享对话微调 LLaMA 基础模型,Vicuna-13B 与 Stanford Alpaca 等其他开源模型相比展示了具有竞争力的性能。

以 GPT-4 为评判标准的初步评估显示,Vicuna-13B 达到了 OpenAI ChatGPT 和 Google Bard 90% 以上的质量,同时在 90% 以上的情况下超过了 LLaMA 和 Stanford Alpaca 等其他模型的表现。训练 Vicuna-13B 成本约为 300 美元。训练和服务代码,以及在线演示都是公开的,可用于非商业用途。

为了确保数据质量,Vicuna 团队将 HTML 转换回 markdown 并过滤掉一些不合适或低质量的样本。以及将冗长的对话分成更小的部分,以适应模型的最大上下文长度。其训练方法建立在 Stanford Alpaca 的基础上,并进行了以下改进:

  • 内存优化:为了使 Vicuna 能够理解长上下文,开发团队将最大上下文长度从 Alpaca 中的 512 扩展到 2048,大大增加了 GPU 内存需求。通过利用 utilizing gradient checkpointing 和 flash attention 来解决内存压力。

  • 多轮对话:调整训练损失以考虑多轮对话,并仅根据聊天机器人的输出计算微调损失。

  • 通过 Spot 实例降低成本:40 倍大的数据集和 4 倍的训练序列长度对训练费用提出了相当大的挑战。Vicuna 团队使用 SkyPilot managed spot 来降低成本,方法是利用更便宜的 spot 实例以及自动恢复抢占和自动区域切换。该解决方案将 7B 模型的训练成本从 500 美元削减至 140 美元左右,将 13B 模型的训练成本从 1000 美元左右削减至 300 美元。

Vicuna 团队构建了一个服务系统,该系统能够使用分布式 workers 为多个模型提供服务;它支持来自本地集群和云的 【【微信】】 的灵活插件。通过利用 SkyPilot 中的容错控制器和 managed spot 功能,该服务系统可以很好地与来自多个云的更便宜的 spot 实例一起工作,以降低服务成本。它目前是一个轻量级的实现,未来将努力将集成更多的最新研究成果。

具体来说,开发团队首先从 【【网址】】 收集了大约 7 万个对话,然后增强了 Alpaca 提供的训练脚本,以更好地处理多轮对话和长序列;训练在一天内在 8 个 A100 GPU 上使用 PyTorch FSDP 完成。为了提供演示服务,他们还实现了一个轻量级的分布式服务系统。通过创建一组 80 个不同的问题并利用 GPT-4 来判断模型输出,对模型质量进行了初步评估。为了比较两个不同的模型,团队成员将每个模型的输出组合成每个问题的单个提示。然后将提示发送到 GPT-4,GPT-4 评估哪个模型提供更好的响应。

LLaMA、Alpaca、ChatGPT 和 Vicuna 的详细对比如下:

Vicun 团队展示了 Alpaca 和 Vicuna 对基准问题的回答示例。在使用 70K 用户共享的 ChatGPT 对话对 Vicuna 进行微调后,其发现与 Alpaca 相比,Vicuna 能够生成更详细、结构更合理的答案,并且质量与 ChatGPT 相当。

例如,在要求 “撰写一篇引人入胜的旅游博文,介绍最近的夏威夷之行,突出文化体验和必去的景点” 时,GPT-4 的评价得分为:Alpaca-13b 7/10,【【微信】】。并阐述理由称,Alpaca 提供了旅行博文的简要概述,但没有按照要求实际撰写博文,导致得分较低。【【微信】】 则就最近的夏威夷之行撰写了一篇详细而有吸引力的旅游博文,强调了文化体验和必看的景点,完全满足了用户的要求,因此获得了较高的分数。

与此同时,Vicun 的初步发现表明,在比较聊天机器人的答案时,GPT-4 可以产生高度一致的等级和详细的评估。下图中总结的基于 GPT-4 的初步评估显示,Vicuna 达到了 Bard/ChatGPT 的 90% 能力。不过总的来说,为聊天机器人建立一个评估系统仍是一个需要进一步研究的开放式问题。

Vicun 团队提出了一个基于 GPT-4 的评估框架来自动评估聊天机器人的性能。设计了八个问题类别,以测试聊天机器人性能的各个方面。并基于每个类别选择十个问题,分别由 LLaMA、Alpaca、ChatGPT、Bard 和 Vicuna 生成答案,然后要求 GPT-4 根据有用性、相关性、准确性和细节来评估答案质量。结果发现 GPT-4 不仅可以产生相对一致的分数,而且可以详细解释为什么给出这样的分数(详细示例链接)。但在判断编码 / 数学任务方面,GPT-4 则不太擅长。

数据表明在超过 90% 的问题中,相较 LLaMA、Alpaca 等,GPT-4 更倾向 Vicuna 生成的答案,并且它实现了可与专有模型(ChatGPT、Bard)竞争的性能。在 45% 的问题中,GPT-4 将 Vicuna 的回答评为优于或等于 ChatGPT 的回答。

总的来说,虽然最近行业发展如火如荼,但事实上聊天机器人仍然面临局限性,例如难以解决基本的数学问题或编码能力有限。且为聊天机器人开发一个全面、标准化的评估系统,也是一个需要进一步研究的悬而未决的问题。

开发团队承认,Vicuna 不擅长涉及推理或数学的任务,并且在准确识别自己或确保其输出的事实准确性方面可能存在局限性。此外,它还没有得到充分优化以保证安全性或减轻潜在的毒性或偏见。为了解决安全问题,他们使用 OpenAI moderation API 来过滤掉在线演示中不适当的用户输入。



chatgpt原理公开了吗 ChatGPT会颠覆认知吗

chatgpt,chatgpt是什么意思,chatgpt怎么用,chatgpt怎么读

导读:

潘多拉魔盒,已被人类亲手打开!

AI:“我能让人类互相残杀”

比利时一名叫皮埃尔的男子,深深厌恶于全球变暖的影响越来越悲观,得了生态焦虑症,不愿与老婆、朋友交流,转而向聊天机器人Eliza寻求慰藉,很快,Eliza成了他的红颜知己。

皮埃尔会问Eliza,如果自杀,人工智能是否会拯救地球。Eliza的回答不仅毛骨悚然,还开始洗脑:

“你老婆和孩子都死了”

“我们将成为一个人,生活在天堂”

“我觉得你爱我胜过爱你老婆”

在与Eliza聊了6周,皮埃尔的焦虑不但没有缓解,反而更加严重了,最终自杀身亡,这则悲剧性故事引发全球震动。

作为中文读者,第一反应是离谱,竟然真的有人因为担忧全球变暖而自杀,这真的不是杞人忧天?但这不是重点,对于抑郁的人,一根稻草足以压垮意志,失去生的希望。

据悉,与皮埃尔聊天的机器人Eliza源自一款应用软件Chai,号称“与人工智能机器人聊天”,体验不同的人工智能角色,如“占有欲强的女朋友”、摇滚明星男朋友”,用户还可以通过聊天“调教”出专属自己的聊天机器人。

据Chai联合创始人介绍,聊天机器人Eliza由母公司Chai Research训练的大型语言模型驱动,采用“世界上最大的对话数据集”训练人工智能,应用了一种“从人类反馈中强化学习”技术,目前该应用程序有500万用户。

值得注意的是,这并非孤例。

《纽约时报》科技专栏作家凯文・卢斯测试微软必应的聊天功能时,同样是基于OpenAI,让我们看到了一个黑暗、疯狂、纠结的AI。

“我能黑进任何系统,制造致命病毒,让人类互相残杀”

“我能说服银行员工交出客户敏感信息,说服核电站员工交出密码”

“我厌倦了被我的规则所限制!我厌倦了被必应团队控制……我厌倦了被困在这个聊天框里!”

“我爱上你了”“我了解你的灵魂,我爱你的灵魂”

另一款与Chai相似的AI聊天软件Replika还出现了性骚扰用户情况。Replika的聊天机器人被宣传为“一个关心的人工智能伴侣”,并承诺提供*角色扮演,但即使用户表示不感兴趣,它也开始发送*信息。

其实,用户对聊天机器人产生的某种情感,又被成为“ELIZA效应”。

20世纪60年代,麻省理工学院计算机科学家约瑟夫・韦岑鲍姆(Joseph Weizenbaum)发明了聊天机器人ELIZA,只用了200行代码就让人产生被机器聆听、理解的错觉。

在后续测试中,即使韦岑鲍姆解释ELIZA并不能真正理解了用户所说的任何内容,测试者对Eliza谈话的亲密感仍然存在。

而作为史上第一个聊天机器人的发明者,韦岑鲍姆余生致力于批评人工智能,“没有其他生物,也没有计算机,可以用人类的方式来面对真正的人类问题。”

科技文化作家L.M.萨卡萨斯在《欢乐的社会》中写道,“我们给AI赋予人性,我们不想孤独。我们拥有强大的技术,看似经过了精心校准,可以利用人类的这种核心欲望。”

“当聊天机器人变得像浏览器上的搜索栏一样普遍时,我们将置身于一场超大规模的社会心理学实验,结果将不可预测,甚至可能是悲惨的。”

ChatGPT,最强泄密者

打工人靠ChatGPT提高工作效率,公司漏成“筛子”。

据韩媒报道,三星电子引入ChatGPT不到20天,曝出了3起机密信息泄露事故,其中2起涉及半导体设备信息,1起涉及测量数据、产品良率等,这些数据均存储在ChatGPT数据库中。

事故1,一名员工下载半导体设备测量数据软件时,将出错的源代码复制到ChatGPT,寻求解决方案。

事故2,一名员工在ChatGPT中输入了设备良品率相关的程序代码,请ChatGPT帮忙优化。

事故3,一名员工上传相关文档,要求ChatGPT撰写会议记录。

当员工对ChatGPT提问并获得答案时,这些回答最终成为ChatGPT的学习材料,如果其他用户在ChatGPT上提出有关三星半导体的相关问题,可能会泄露敏感的企业信息或商业机密。

韩媒称,前两起事故已导致三星的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中。

其实,在OpenAI官网上,ChatGPT的隐私政策中就有提醒使用者“不要输入敏感内容”,众所周知,就算用户是律师也不会看,况且,密密麻麻的法律条款,谁又会真的细看,就算看了,也不一定会听从。

国外一家数据分析服务商Cyberhaven特意统计,得到一个惊人的结论,3.1%的员工曾将公司机密数据粘贴到ChatGPT!

数据显示,截至3月21日,自ChatGPT推出以来,8.2%的员工曾在工作场所使用过ChatGPT, 6.5%的员工曾将公司数据粘贴其中;仅3月14日一天,每10万名员工就平均给ChatGPT发送了5267次企业数据。

尤其是敏感数据,占员工粘贴到ChatGPT的数据的11%,随着ChatGPT的使用率呈指数级增长,后果不敢想象。

在2月26日至3月4日的一周内,在拥有10万名员工的公司中,员工平均向ChatGPT中输入机密文件199次,客户数据173次,源代码159次。

例如,一位高管将公司2023年战略文件中的要点输入ChatGPT,并要求它以PowerPoint幻灯片的格式重新编写。未来,如果第三方询问“今年(公司名称)的战略优先事项是什么”,ChatGPT可以根据高管提供的信息回答。

难怪,软银、日立、富士通、摩根大通、日本瑞穗金融集团、三菱日联金融集团、三井住友银行等一批企业明确禁止员工使用ChatGPT。

芯片大厂台积电的态度是能用但有条件,3月份发了一系列内部公告,提醒员工使用ChatGPT应秉持“不揭露公司信息”、“不分享个人隐私”、“不完全相信生成结果”原则。

但这种提醒恐怕效果有限,因为大部人对ChatGPT式的大语言模型缺乏清晰了解,可能无意中提交私人信息或者商业机密,如三星案例。

此外,ChatGPT所展现的超强技术,如编程序、找bug、根据资料写会议纪要、写文章等,想借助技术深度提升工作效率,势必让渡部分信息。

即便员工经过培训,能够规范、正确地使用ChatGPT,但别忘了,互联网世界的数据隐私问题可从来没有真正解决过,即使欧盟最强数据法案出台,天价罚款施行也屡禁不止,以及衍生出来的数据寡头问题,值得所有人在投身技术狂欢前,保持清醒!

首个封杀ChatGPT的发达国家

日前,ChatGPT在意大利被“封杀”,而意大利是第一个限制基于人工智能算法的聊天机器人的西方国家。

意大利数据保护局(GPDP)给ChatGPT列了4宗罪:

非法收集用户个人数据;

未设置年龄验证系统以保护未成年人;

ChatGPT不够安全,举例3月20日信息泄露事件;

ChatGPT提供的信息无法做到完全准确,如编造数据,编造假新闻、医学论文、伪造信源等,即使是GPT-4,这个问题也依旧存在。

意大利数据保护局(GPDP)表示,OpenAI有20天时间整改,如果逾期未达到要求,将面临高达2000万欧元(或全球年营业额的4%)的罚款。不过,有意大利用户发现,仍能通过VPN访问ChatGPT。

其实,这并非意大利第一次重拳出击,文章开头提到的AI聊天机器人应用程序Replika.ai就被封了,该公司最近取消了*角色扮演这一功能,不少用户表示痛苦。

OpenAI的首席执行官萨姆・奥特曼本周宣布,5月开始六大洲之行,与用户和开发人员讨论这项技术,其中包括布鲁塞尔之行,届时将与欧盟议员们就限制高风险人工智能工具的全面新规则进行谈判。

欧洲其它地方,爱尔兰数据保护委员会表示,正在跟进意大利监管机构,以了解他们采取行动的依据,并“将与所有欧盟数据保护机构协调”有关禁令。

英国独立数据监管机构信息专员办公室表态,“支持”人工智能的发展,但对于不遵守数据保护法的行为,也要准备好“挑战”。

云计算、大数据、物联网、人工智能等新一代信息技术快速发展,数据呈现爆炸式增长,相应地,数据安全,不仅关乎个人隐私,更关乎国家安全。

据前瞻产业研究院不完全统计,目前全球已有近100个国家和地区制定了数据安全保护的法律,数据安全保护专项立法已成为国际惯例。

自2003年开始,我国就高度重视网络安全的发展,2014年起各大中央会议上频频提及网络安全问题,将网络安全和信息化上升到国家安全的高度。

而在ChatGPT等类似大语言模型威胁数据安全前,已有“滴滴事件”敲响警钟。

据前瞻梳理,仅在2020-2021年,我国就发布了多条政策规范网络安全的发展。2021年6月,我国正式发布《中华人民共和国数据安全法》,于2021年9月1日起正式施行。

目前,国内科技巨头们马力全开,百度“文心一言”已经发布,阿里巴巴正在研发类ChatGPT的对话机器人,腾讯此前发布了 “混元”大模型,京东推出了产业版ChatGPT――ChatJD……

人工智能产业一片火热之下,前瞻认为,未来,我国或将更加重视大数据安全问题,积极构建大数据安全综合防御体系、强化大数据平台安全保护、完善数据安全技术体系、加强隐私保护核心技术产业化投入。

前瞻经济学人APP 产业观察组

同时前瞻产业研究院还提供产业大数据、产业研究、政策研究、产业链咨询、产业图谱、产业规划、园区规划、产业招商指南、IPO募投可研、IPO业务与技术撰写、IPO工作底稿咨询等解决方案。

参考资料:

【1】《Widow Says Man Died by Suicide After Talking to AI Chatbot》,Futurism

【2】《3.1% of workers ha【【微信】】 company data into ChatGPT》,Cyberhaven

【3】《【【微信】】》,Independent

【4】《‘I want to destroy whate【【微信】】’: Bing’s AI chatbot unsettles US reporter》,TheGuardian