人工智能ai到底有多可怕 人工智能和ai哪个更可怕
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
国家互联网信息办公室近日起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),旨在促进生成式人工智能技术健康发展和规范应用。《征求意见稿》出台的背景,ChatGPT出圈后,以大模型为底座的人工智能在全球范围的爆火,由此引发了社会各界对于生成式人工智能安全与伦理隐私风险的担忧。
上海市人工智能行业协会秘书长钟俊浩向《科创板日报》表示,比起失控的技术,更有可能失控的是用技术来为非作歹的‘人’。 防止人工智能作恶,关键在于控制背后的人。
能够像人类一样对话的AI,会给社会带来什么风险,是否将取代人类?当赛博朋克电影中老生常谈的命题急风骤雨般映入现实,科技革命加速正在进行时,我们是否准备好迎接以ChatGPT为首的强大人工智能系统带来的挑战?
AI可能会“说谎”,还会“传染”?
据外媒报道,在一份让ChatGPT生成曾有过性骚扰他人历史的法律学者名单中,法学教授乔纳森・特利 (Jonathan Turley) 位列榜上。ChatGPT援引媒体2018年3月的一篇文章作为信源,并且给出了引文详尽细节,指出“乔治城大学法律中心教授乔纳森・特利被一名以前的学生指控性骚扰”。最后,被援引的媒体现身辟谣:这篇文章根本不存在,特利本人也并未在ChatGPT所说的大学工作过。
在人类社会,面临这样的“谣言”,常见的处理方式是要求对方停止散播谣言,运用法律手段等手段维权,但在AI世界,处理人工智能“造谣”并不那么容易,这样的“谣言”还可能出现“机传机”现象,信息溯源难加之传播速度快,带来了潜藏的风险。
在由GPT-4提供支持的微软Bing上重复了“有性骚扰历史的法律学者”问题,Bing重复了对于特利的错误论述,但在消息来源中引用了相关媒体的报道,概述了特利被ChatGPT“诬告”的过程。有评论认为,这表明了错误信息会由一个人工智能传递至另一个人工智能。
几乎在同一时期,澳大利亚一区市长向OpenAI“宣战”――称如果ChatGPT不纠正对他的虚假指控,他将起诉OpenAI公司,如果他提起诉讼,那么这将是全球首例针对生成式AI诽谤诉讼。澳大利亚墨尔本西部赫本郡的市长布赖恩・胡德(Brian Hood)并未真的遭到任何指控,但在ChatGPT的论述中,他“曾因贿赂入狱服刑”。胡德的律师团队与3月21日向OpenAI发出关注信,让对方在28天修改对于胡德的错误描述,否则将提起诉讼。
人工智能“造谣”完全可以避免
针对人工智能侵权追责,上海市人工智能行业协会秘书长钟俊浩在接受《科创板日报》采访时指出,追责大概率会成功,从技术层面而言,人工智能“造谣”完全可以避免,大型语言模型(LLM)不光能通过模型、基于过去的经验自动生成内容,也能基于靠谱的互联网文本源,重新整理并生成新的内容,“无非是后者的响应时间会长一点,运算的过程要多绕一些弯路,但是更靠谱。类比自动驾驶,技术上其实早已基本实现L5了,但是目前只允许低于L3的上路,技术应该在可控范围逐步推广。”
实际上,3月15日,OpenAI正式发布了升级后的GPT-4,官网于4月5日公布了安全地构建、部署和使用 AI 系统的策略,内容安全测试显示,GPT-4的得分比此前的模型GPT-3.5高40%。实际上,在OpenAI官网使用条款中就有对于ChatGPT准确性的论述,“在某些情况下使用我们的服务可能会导致输出不正确,无法准确反映真实的人物、地点或事实。您应该根据您的情况评估任何输出的准确性,包括对输出进行人工审查。”官网4月5日公布的AI安全策略提到,当用户注册使用ChatGPT时,官网关于准确性的论述尽可能做到透明,以避免 ChatGPT 可能给出错误回复。
两起“谣言”并非ChatGPT及其所有者OpenAI第一次陷入舆论风暴中,3月20日起,陆续有用户反映在聊天记录中显示了其他人的 ChatGPT 聊天对话。针对事件,OpenAI于3月25日在推特上发文解释,称“数据被泄露给其他人的用户数量极少,已经联系可能受到影响的用户”,表明了积极处理问题的态度。
生成式人工智能加速中,社会各界表示了对高速发展的AI2.0的担忧。3月底,未来生命研究所发表题为“暂停巨型AI实验”的公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月,包括辛顿、马库斯和马斯克在内的上千位知名企业家、学者签署了这封公开信。
重点要防止利用人工智能作恶
在国内,人工智能技术的使用与管理更是“谨小慎微”。《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务深度合成管理规定》《互联网信息服务深度合成管理规定》等法律、法规均有针对信息技术管理相关规定,如《互联网信息服务深度合成管理规定》规定,AI合成平台必须要求内容创作者实名认证,监督创作者标明“这是由AI合成”类标识,以免误导公众;在提供“换脸”技术前,应该征得“被换脸”者的同意;完善数据管理、保障个人信息安全等。
上海市人工智能行业协会秘书长钟俊浩解释了目前可能由大模型人工智能系统带来的风险,包括知识产权风险、数据安全风险、内容滥用风险等,马斯克等人的联名信更是“一石激起千层浪”,目前针对人工智能2.0的态度整体上可以分为“暂停半年派”、“拥抱未来派”和“彻底封禁派”等。4月11日国家网信办公布的《征求意见稿》是国内有关生成式人工智能的第一个管理条例。在他看来,《征求意见稿》最大的意义在于通过规章确定“生成式人工智能”的规范名称,并强调了国家对人工智能技术和产业持鼓励的态度。
钟俊浩向《科创板日报》记者表示,《征求意见稿》并不是简单叫停,而是通过科技风险的认知和研判,建立更良性健康的发展路途和管控方式,探寻可以接受的研究和创新,“比起失控的技术,更有可能失控的是用技术来为非作歹的‘人’。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。防止人工智能作恶,关键在于控制背后的人。 ”**
目前,国内各个大厂正在铺设自家AI大模型上“开卷”,百度的“文心一言”、阿里的“通义千问”、王小川的“百川智能”、商汤科技的日日新SenseNova大模型、昆仑万维的大语言模型“天工”3.5纷纷加入人工智能赛道。
“(针对人工智能的规范)需要不停追赶AI发展的脚步,掌握行之有效的监管能力”,钟俊浩提到。
(文章来源:财联社)
(原标题:AI会“说谎”?专家:相比技术失控,更要防止利用人工智能作恶)
(责任编辑:3)
做高智能ai都需要怎么做 aigc颠覆哪些行业
ai智能技术怎么入门,目前智能ai谁做得最好,智能ai创作,智能ai好处对于出版来说,
AIGC
具有两面性。一方面,利用人工智能生成内容,这与使用传
统技术完全不同。传统工业技术对出版只有复制、粘贴功能,复制和粘贴使成本递
减,所以图书的大众化普及速度更快。而
AIGC
是一个创造的过程,是一个创造新
内容、创造新价值的过程。在这个基础上提升了标准化、流程化甚至生产线,所以
AIGC
给出版工作带来极大的便利,生产效率也将大大提升。信息、知识传播和大
众化的速度与原来大机器时代相比呈几何式增长。
人工智能一直在漫长的历史中艰难探索,直至今日,大模型的发展才引发了
AIGC
的质变。
AIGC
是一种利用人工智能技术生成内容的方法,其应用之一
ChatGPT
的
横空出世引起全球范围内的广泛关注与思考,
AIGC
热度持续攀升。
一、
AIGC
对未来产生了革命性影响
大数据一直推动着人工智能的发展,在大数据的统计中,往往会自动显现出事物发
展的规律性。
AIGC
代表着
AI
技术从感知、理解世界到生成、创造世界的跃迁,正
推动人工智能迎来智能创作时代。
AIGC
是人工智能算法的一次重大突破,意味着人类对人工智能的运用不再被局限
于其中一特定功能,而是真正迈入了通用人工智能阶段。可以说,
AIGC
开创了模
型主导内容生成的时代,人类将跑步进入传统内容创作和人工智能内容生成并行的
时代。
二、
AIGC
将助力元宇宙数字经济的加速发展
2023
年被称为
“
元宇宙元年
”
,元宇宙的建设需要大量的数字内容来支撑,人工设
计和开发根本无法满足需求。
AIGC
的出现可以最终完善元宇宙生态的底层基础设
施,极大地推动元宇宙的发展。
AIGC
利用
AI
技术解决虚拟化身的生成问题,实现亿万用户的个性化需求;虚拟物
品的生成在未来同样可以借助
AIGC
来实现;
AIGC
还可以助力虚拟场景的生成,
大大降低元宇宙场景的创作门槛。
AIGC
将进一步助推元宇宙的发展。
三、
AIGC
将加速出版业数字化智能化的转型升级
四、
AIGC
的未来发展趋势及影响
未来
AIGC
的应用场景会进一步多元化,涉及领域会更加全面,最终将进一步朝着
实现独立完成内容创作的方向迈进。出版作为国家科学、文化传播的重要领域,将
是
AIGC
的主要使用者行业之一,也是版权、内容质量和数据安全界限界定的探索
者之一、出版人应紧跟国家政策,遵循人工智能的道德伦理要求,维护良好的人工
智能治理秩序。
ChatGPT
对金融科技有三个方面的价值:一是
ChatGPT
对金融科技的直接价值,