股票为什么有chatgpt板块 意大利宣布禁止使用chatgpt
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
3月的最后一天,意大利政府数据保护局暂时禁止OpenAI的ChatGPT,并对其展开涉嫌违反隐私规则展开调查,这是风靡全球3个多月的ChatGPT首次遇到挫折。
据瑞银上月发布的一项研究显示,ChatGPT预计在1月份,即推出两个月后,月活跃用户已达1亿,成为历史上增长最快的消费者应用程序。
//OpenAI有20天补救时间 //
意大利当局指责微软支持的OpenAI未能检查ChatGPT用户的年龄,这些用户本应为13岁或以上,并称ChatGPT“没有任何法律依据证明大规模收集和存储个人数据是正当的”。OpenAI有20天的时间做出补救措施,否则可能面临高达2000万欧元(2168万美元)或其全球年营业额4%的罚款。OpenAI表示,应意大利监管机构的要求,该公司已经在意大利下线了ChatGPT。
OpenAI补充称:“我们在训练ChatGPT等人工智能系统时积极减少个人数据,因为我们希望我们的人工智能了解世界,而不是具体个人。”
意大利暂时限制了ChatGPT对国内用户个人数据的使用,成为第一个对人工智能聊天机器人采取行动的西方国家。
自去年发布以来,ChatGPT掀起了一股科技热潮,促使竞争对手推出类似的产品,公司将其或类似的技术集成到他们的应用程序和产品中。这项技术的迅速发展引起了几个国家立法者的关注。许多专家表示,由于人工智能对国家安全、就业和教育的潜在影响,需要制定新的法规来管理人工智能。
欧盟委员会发言人表示:“我们希望所有活跃在欧盟的公司都尊重欧盟数据保护规则。《通用数据保护条例》的执行是欧盟数据保护机构的责任。”欧盟委员会执行副主席Margrethe 【【微信】】在社交媒体上表示,正在辩论《欧盟人工智能法案》的欧盟委员会可能不倾向于禁止人工智能。
另外,马斯克和约1000科学家和行业内部人士,在一封公开信中呼吁暂停开发比OpenAI新推出的GPT-4更强大的AI系统六个月。
OpenAI尚未提供如何训练其人工智能模型的细节。 瑞典乌莫大学人工智能研究员兼副教授Johanna Bj?rklund表示:“缺乏透明度是真正的问题。如果做人工智能研究,应该对自己的研究方式非常透明。”
三另有消息称,星电子引入ChatGPT不到20天,近日便曝出机密资料泄漏的给意外事故,涉及半导体设备测量资料、产品良率等内容,传已经被存入ChatGPT的数据库中。
// A股ChatGPT相关板块涨幅巨大 //
Wind 数据显示,ChatGPT 年初至今涨幅超过80%,人工智能指数年初至今涨幅超过50%,AIGC指数年初至今涨幅接近60%。ChatGPT发展超出预期,大幅提振了人工智能、大数据和云计算等领域的想象力,市场已充分认知本轮AI产业趋势,行情演绎从主题到主线。
随着行业巨头在大模型领域持续发力,特别是OpenAI的ChatGPT和GPT4带来的全新体验,2023年成为了AIGC-人工智能内容生成的元年。至此,大模型极大地推动了通用人工智能的进步,并将这种能力持续延伸到下游应用中,将极大地推动人类生产力的变革,同时也将深刻地改变产业的竞争格局和各国的国际竞争力。
//A股相关板块会受影响吗? //
民生证券表示,3月28日,微软举办基于GPT模型的安全发布会。微软提到,基于GPT4大模型以及微软安全团队每日搜集超65亿网络威胁情报,微软安全Copilot试图通过AI逆向追溯工程黑客们的意图、潜在方法等,将安全策略集成在云端一键部署;此外,微软安全Copilot支持多模态交互、团队协作和根据意见自动优化等特点。
该机构称,意大利率先禁止使用ChatGPT等系列产品的核心原因在于此前的数据泄露及AI安全风险,同时微软也于近期迅速发布SecurityCopilot。两者旨在确保划时代AI技术出现下的数据溯源及反生成AI的技术布局,建议重点关注电子取证与数据溯源安全的稀缺标的。
信息安全一直是每次技术进步的难点,而此次GPT带来的AI浪潮中,安全问题更引人深思,从模型的本身-面向的领域-数据的使用-具体的应用等多维度中均带来全新的考验。本次ChatGPT故障导致数据泄露敲响了新技术带来新安全问题的警钟,此次微软SecurityCopilot带来基于GPT模型的安全模型,我们判断对于网络安全的业态将带来重构的冲击。
(Wind 综合自公开信息、Wind终端数据、机构研报)
chatgpt在意大利怎么用 应对chatgpt对安全带来的挑战
意大利语中che是什么意思,transit意大利官网,意大利citco,cacciatore意大利语怎么读意大利率先在本国禁止ChatGPT的使用后,多国安全机构表示将会考虑对ChatGPT采取措施。
对于外界的普遍关注,OpenAI在4月6日凌晨发表博客回应称:“我们认为,强大的人工智能系统应该接受严格的安全评估。需要有监管来确保这种做法被采纳,我们积极与政府接触,探讨这种监管可能采取的最佳形式。”
另外,OpenAI在与意大利监管机构的会议中,承诺提高个人数据使用的透明度,并表示愿意与该机构进行合作。OpenAI还将增强数据主体权利行使机制以及对儿童的保护措施。
正如ChatGPT引发的争议,在新一轮人工智能浪潮中,海内外科技企业均面临着技术发展与数据安全、隐私保护之间的平衡难题。
面临大面积被禁风险
当地时间3月31日,负责意大利信息监管的意大利数据保护局宣布暂时禁止ChatGPT的使用,同时对ChatGPT背后的OpenAI公司展开调查,限制其处理意大利用户的信息。
意大利数据保护局称,ChatGPT没有任何法律依据证明大规模收集和存储个人信息是为了“训练”这种聊天机器人,OpenAI有20天时间采取补救措施,否则可能面临高达2000万欧元(约合1.49亿元人民币)的罚款。作为回应,OpenAI已在该国下线了ChatGPT的相关服务。
促成意大利数据保护局禁用ChatGPT的是发生在3月20日的聊天记录“泄露门”事件。
北京时间当日16至18时,由于数以百万计的用户蜂拥登录ChatGPT,庞大的访问数量使得服务器一度崩溃,监控网站DownDetector收到的事故报告显示,五个小时之后ChatGPT服务器恢复正常工作,不过在修复之后,用户仅能进行正常访问而无法查看历史聊天记录。
与此同时,有登录者发现,系统中的漏洞开始把一些用户的个人详细信息随机发送给了其他用户,包括他们的名字、与ChatGPT的聊天记录,甚至还有信用卡账号等敏感信息。几个小时过后,这些私密信息便开始在社交平台上传播。
次日,OpenAI回应称,已暂时下线聊天历史功能,并强调发生泄露的只涉及聊天历史的标题,用户无法看到他人的详细聊天内容。3月23日,OpenAI首席执行官阿尔特曼(SamAltman)表示,此次严重问题是由开源代码库的一个程序错误导致的,会有小部分用户可以看到其他用户的聊天记录标题。目前开发团队已发布修复程序,并完成验证。
在颁布禁令时,意大利数据保护局还称,平台没有就处理用户信息情况进行告知,并指责OpenAI未能核查ChatGPT用户的年龄是否在13岁以上。
事件的影响远没有因此结束,意大利的禁令在全球范围内引发讨论,不少国家开始追随意大利,考虑对ChatGPT采取行动。
欧盟国家已有动向。当地时间4月3日,德国联邦数据保护专员UlrichKelber表示,出于对数据安全问题的考量,该国存在暂时禁止使用ChatGPT的可能性。德国联邦数据保护机构已要求意大利监管机构提供其禁止ChatGPT的进一步信息。
据外媒报道,爱尔兰和法国的个人数据监管机构已经和意大利同行取得联系,以了解更多有关该禁令的依据。西班牙的数据监管机构也表示,虽然暂未收到任何有关ChatGPT的投诉,但不排除未来对该软件展开调查的可能性。
英国信息专员办公室已向科技公司发出警告,不要使用个人信息来开发聊天机器人。包括英国信息监管局局长在内的其他监管者都表示,正在密切关注这一情况。
此外,当地时间4月4日,加拿大联邦隐私监管机构宣布,已经对OpenAI展开调查,因为该公司涉嫌“未经同意收集、使用和披露个人信息”。
不过,布洛瑟姆资本公司合伙人伊姆兰・戈里认为,上述禁令是草率的。他表示,“不愿承担风险并且只看缺点是容易的,但我们需要权衡利弊”。
深度科技研究院院长张孝荣表示,在缺乏有效的法律规制之前,ChatGPT或将涉及大量隐私问题和网络安全问题,对世界各国来说都是一种挑战。
潜在安全问题重重
早在今年2月,业界就开始关注ChatGPT可能带来的数据安全问题。在2023世界人工智能开发者先锋大会开幕式上,开放元宇宙基金会董事罗尤・奥布莱恩谈及ChatGPT时,特别提到了安全问题,“我们一定要有保障的规则,要有护栏,确保做坏事的人带来的影响有限。”
安全企业方面也开始对可能的问题进行审查。Fortinet北亚区首席技术顾问谭杰对第一财经表示,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。
距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。
除上述“泄露门”事件外,ChatGPT还疑似有“前科”。2月23日,有外媒报道,亚马逊公司律师称,在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于一些亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息,该律师担心输入的信息可能被用作ChatGPT迭代的训练数据。
ChatGPT等AI技术还极大降低了网络攻击的门槛。“攻击者可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。因此,可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。”谭杰对记者说。
他介绍称,在自动化、AI、“攻击即服务”等技术和模式加持下,网络安全攻击呈现暴涨趋势。ChatGPT火爆之前,业界就已发生多次黑客使用AI技术进行的网络攻击,这种攻击呈现24小时、不间断的特点。
OpenAI在最新发布的安全举措中表示,将构建越来越安全的人工智能系统;从实际使用中学习,以改进保障措施;加强保护儿童措施,要求用户必须年满18岁(或经父母批准年满13岁)才能使用OpenAI工具,并正在研究验证选项;尊重隐私,努力在可行的情况下从训练数据集中删除个人信息。OpenAI称,解决人工智能安全问题的一个切实可行的方法是投入更多时间和资源来研究有效的缓解和校准技术,并在现实世界的滥用情况下测试它们。
就此张孝荣表示,OpenAI的声明表达了一种比较谨慎的态度。该公司会采取力所能及的方法来降低AI带来的风险,但难以解决两个固有问题,一是用户滥用问题,各国用户滥用技术的方法层出不尽,OpenAI无法全面预防,只能采用事后纠正的做法。二是训练数据的缺陷问题,ChatGPT基于公开数据训练,但公开数据质量参差不齐,尽管OpenAI努力做好对齐,但可能永远无法实现。
AI浪潮下的两难
安信证券研报分析,随着深度合成和生成式AI技术的开放开源、产品和服务的增多,此类内容制作的技术门槛越来越低,实现了技术的“平民化”。但一旦技术被滥用,将会造成安全风险与实质性危害,给个人、企业造成肖像、名誉等人格和财产权益损害。因此,反生成式AI的技术需求有望迎来爆发。
人工智能浪潮下的数据隐私安全引发关注,但如何平衡技术发展与数据隐私之间的关系更需考量。一位人工智能行业人士对记者表示,所有AI都是有“偏见”的,这更多是训练数据的问题,也可以通过负例反馈去修正。但要做到完全的数据脱敏和安全没那么容易。毕竟通过原始数据的训练效果和效率是最好的,加入噪声或脱敏会对数据的保真度造成降低。而在监管方面,欧洲GDPR(《通用数据保护条例》)是很好的数据安全保护条例,但反观欧洲的人工智能技术发展如何?
张孝荣也表示,数据隐私安全和技术发展之间是个动态博弈过程,两者难以做到真正的平衡,而是在互相拉扯中实现螺旋式逐渐进步。
科大讯飞高级副总裁杜兰此前在谈及马斯克等近千名科技人员呼吁未来6个月暂停对巨型GPT模型训练时表示,AI的快速发展的确会带来失业、隐私侵犯、信息不对称等问题,但它更多是在提升效率、提升医疗能力、改善环境等发挥了重要作用。
杜兰称,人工智能训练也很难停止,因为不同国家、公司、实验室等都会去争夺领先位置,所以全球范围内的协调和执行可能会面临挑战。
杜兰还表示,对人工智能企业整理和标注后的数据保护是当前最大的问题。目前行业确实存在通过版权、商业秘密路径都无法周密保护数据的问题,所以对于数据应该有明确的权利归属和保护措施。同时,通过AI可以输出一幅模仿梵高或吴冠中的画作,但如果非常刻板地要求每一篇文章、每一幅画、每本书都需要作者同意才能够进入数据库,以今天这么大的数据量来说,执行的成本就太高了。“所以这确实是一个需要去解决的问题。”杜兰称。
清华大学交叉信息研究院助理教授、人工智能国际治理研究院国际交流项目主任于洋表示,ChatGPT改变了人工智能和经济之间的关系,AI已成为一种“有自主意识形态和价值观的界面基础设施”。当人们去理解AI产品时,不能只看表现好不好、速度快不快,还要看它是否能够很好地符合一个地区的法律法规、公序良俗、共识性价值观,不该简单套用对人的监管方式去监管AI。
商汤科技智能产业研究院院长田丰也表示,新生产力工具必须符合人类普适道德伦理,即以人为本、可持续发展、技术可控,这三点普遍适用于数字技术的创新浪潮。