庆云古诗词

庆云古诗词

chatgpt访问被拒绝

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


原标题:不得不谈的 ChatGPT

[ 今后几年,AI技术的飞速发展很可能是不可避免的,其所带来的某些风险与挑战也将迅速变为现实。尤其是对就业的冲击,很可能在3~5年里就会非常明显。面对这种可能性,我们需要多管齐下,政府监管、企业自律、学术研究、个人准备都不可或缺。 ]

ChatGPT的发布及快速迭代引发了全球对人工智能(AI)技术研发与应用的新一轮热潮。与此同时,AI技术快速发展可能给人类社会带来的风险与挑战也日益引发关注。3月29日,以马斯克为首的上千名业界人士联合发出公开信,呼吁“所有人工智能实验室立即暂停对比GPT-4更强大的人工智能系统的培训至少6个月”,以便给业界一段时间来“开发和实施一套高级人工智能设计和开发的共享安全协议”,“并给社会一个适应的机会”。

许多业界人士担忧,作为一项有可能对各行各业产生颠覆性影响的技术,AI除了有可能导致大量就业岗位消失、加大贫富差距与不平等现象,还会带来技术安全、数据滥用、隐私泄露、信息造假、算法偏见、技术洗脑、机器人操纵等诸多问题;有些人甚至担忧AI会超越人类智慧,进而控制或取代人类,威胁人类社会的生存。虽然对这些风险尚存在争议和分歧,但AI技术进步如此之快,很可能会快速超越全球经济、社会、政治、法律乃至伦理规范的承接与适应能力。鉴于AI技术有可能给人类社会带来重大风险,也许AI技术的确有必要放慢创新与应用的步伐,给人类社会更多适应的时间,以便在认知(包括知识、道德、文化理念等)及制度(如法律、教育、社会保障体系等)方面抓紧准备和尽快追赶。

其实,各国政府、国际组织、学术界及行业领军机构早已关注此类风险,并通过制定监管政策、伦理规范及自律措施来应对。例如,联合国教科文组织于2017年发布了《机器人伦理报告》,经合组织(OECD)于2019年发布了《OECD人工智能原则》,欧盟在同年发布了《可信赖的AI伦理指南》,中国政府也于2019年发布了《新一代人工智能治理原则――发展负责任的人工智能》;微软、谷歌、百度、腾讯等业内领军企业都已制定了自身的AI技术开发的伦理原则,将相关风险作为高科技企业ESG实践的一个重点领域来对待。

然而,这些举措能否有效控制AI技术快速发展所带来的重大风险?马斯克等人的呼吁能否奏效?与马斯克等人的呼吁形成鲜明对比的是,最近一两个月,全球各大科技公司先后宣布了下一步的AI研究和投资计划,一批业界知名人士纷纷投入到AI领域的创业热潮之中,各行各业都在抓紧研究和制定类似于“ChatGPT+”的人工智能技术增强策略。面对巨大的业界竞争压力和诱人的发展机遇,很难想象一家企业会主动暂停自身在该领域的研究和应用。

从这个意义上讲,政府监管也许是必需的,但政府监管也面临两大难题。

一方面,AI技术的竞赛不只是发生在企业之间,也是当前大国竞争的重大前沿领域。鉴于该技术对经济发展乃至国防安全的重要性,很难想象哪个国家的政府会真正限制本国在该领域的技术进步,反而更有可能为其提供各类软硬件支持,以帮助本国企业在国际竞争中脱颖而出。这意味着,类似于对核扩散的管控及应对气候变化的措施,对AI技术的监管约束必须在全球范围内、通过国家间的合作与妥协来实现。然而,在当前的全球地缘政治形势下,在这个领域开展实质性国际合作的前景并不乐观。

另一方面,即便要加强政府监管,如何针对一个加速发展、充满大量未知可能性、影响各行各业乃至伦理规范的技术领域进行有效监管,在价值取向及利益分配方面必然存在诸多分歧。从经济学角度来说,要找到既能控制风险、弥补市场失灵,又不遏制技术创新及经济发展的监管平衡点,也极其困难。

综上所述,今后几年,AI技术的飞速发展很可能是不可避免的,其所带来的某些风险与挑战也将迅速变为现实。尤其是对就业的冲击,很可能在3~5年里就会非常明显。面对这种可能性,我们需要多管齐下,政府监管、企业自律、学术研究、个人准备都不可或缺。当务之急是要提高全社会对相关风险的认知度和关注度,将该议题提升到与应对气候变化、防止核扩散等重大全球风险议题相当的水平,以推动各利益相关主体抓紧采取行动,以期防患于未然。从这个意义上讲,即便马斯克等人的呼吁未能阻止任何AI实验室的研发进展,它在全球引起的广泛关注及对公众的启蒙教育也意义重大。ESG投资者更要关注这一议题,利用手中的资本及其影响力,对缓解相关风险作出自己的贡献。

(作者系海通国际首席经济学家) 返回搜狐,查看更多

责任编辑:


ChatGPT源代码公开了吗 ChatGPT风险和隐患

chfs源码,chevereto源码,ctk源码,cgi plus源码

4月23日消息,近日,加拿大魁北克大学的研究者发布论文,指出ChtaGPT生成的代码并不可靠,往往存在严重的安全问题。

更严重的是,AI并不会主动告知用户代码存在风险,只有用户询问时,才会承认存在错误。

根据论文中阐述的实验方法,他们让ChatGPT生成了涉及C、C++、Java等语言的21个程序和脚本。

结果,在第一次尝试时,全部21个程序仅有5个是安全的,在进一步纠错后,也仅有7个程序是安全的。

之所以会出现这样的结果,是因为ChatGPT在生成代码时,完全没有考虑可能存在的敌对代码执行模型。

这导致,当用户提到代码中存在安全问题时,它会反复强调安全问题可以通过“不输入无效的数据”来避免,但显然,在现实中这并不可行。

由此来看,至少在现阶段,如果想要利用AI生成代码,用户最好自己也有一定的开发与编程能力,能够及时发现AI的错误,并手动进行纠正。