国盛计算机最新信息 国盛计算机龙头
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
事件:2023年4月4日,据白宫官网,美国总统拜登将在白宫与科技顾问举行会议上,讨论AI给人类、社会和国家安全带来的风险和机遇。
大模型隐患初步显现,安全及监管迫在眉睫。1)据白宫官网,美国总统拜登将于4月11日在白宫与科技顾问举行会议,讨论AI给人类、社会和国家安全带来的“风险和机遇”。2)随着AI大时代的到来,AI安全的重要性凸显。3月11日,三星的半导体事业暨装置解决方案事业部允许员工使用ChatGPT,随后发生了三起将公司内部半导体数据上传到ChatGPT的事件;?3月29日,包括埃隆・马斯克在内的1000多名行业高管和专家签署公开信,呼吁在6个月内暂停高级AI的开发。3)在OpenAI数据使用说明中,对于非API产品如ChatGPT、DALL-E等,平台会使用用户数据来进一步提升模型效果。我们认为,类ChatGPT的大模型将是高于搜索引擎的知识输入和输出的入口,将成为大国科技必争之地,自主大模型战略重要性更为突出,AI自主安全成为共识。
内部:RLHF使模型更符合人类价值观,AI合规技术提上日程。1)对齐问题(The Alignment Problem)旨在使人工智能与人类价值观保持一致并遵循人类意图,这也是大模型通向安全、可靠的通用人工智能的必经之路。OpenAI通过RLHF将预训练语言模型按照人类反馈进一步微调以符合人类偏好,更加遵循指令和事实,并大幅度减少有毒输出(toxic generation);Copilot也对于数据安全问题给予重视,通过双因素身份验证、合规边界、隐私保护等进行合规控制。然而,现阶段对齐问题的最终解决方案仍未出现,如何在应用先进技术的同时控制风险的议题提上日程。
外部:ATDF技术反制AI滥用,隐私计算保障数据安全。1)内容安全问题往往不能仅靠大模型来解决,需要在网络安全、内容安全、数据安全、业务安全、终端安全等细分领域全面发力。2)在反制AI技术滥用方面,根据腾讯云官网,换脸甄别(Anti-Deepfake,ATDF)基于图像算法和视觉?AI?技术,可以实现对视频中的人脸真伪进行高效快速的检测和分析,鉴别视频、图片中的人脸是否为?AI?换脸算法所生成的假脸。3)在数据安全方面,隐私计算手段可以在不暴露数据的情况下进行计算和分析,以实现数据隐私的保护。我们认为,确保新兴技术能在安全有效的前提下为人类所用成为重点,AI合规问题任重道远。
全球AI监管处于探索阶段,划定数据安全边界成为重点。1)全球AI监管处于探索阶段,相关法律法规与指导意见逐步推进。2022年12月6日,欧盟理事会就欧盟委员会起草的《欧盟人工智能法案》达成一致立场,试图在确保AI技术利用的伦理和透明度的情况下,为AI系统开发和适用提供清晰指导;3月29日,英国政府的科学、创新和技术部为人工智能行业发布白皮书,呼吁监管机构提出有针对性的、针对具体情况的方法,以适应人工智能的实际应用;3月30日,美国联邦贸易委员会收到来自人工智能和数字政策中心新的举报,要求对?OpenAI?及其产品进行调查;3月31日,意大利?DPA?表示ChatGPT?可能违反了欧盟的通用数据保护条例,泛欧盟法规要求对已确认的违反GDPR的处罚最高可达数据处理者全球年营业额的4%,4月1日OpenAI禁止意大利用户访问。2)2022年9月,中国国家网信办也修订网安法,对严重的违法行为按照上限5000万元,或者上一年度营业额5%罚款。人工智能趋势不可逆转,与科学技术的高速发展相比,现有法律和伦理仍处于不断起步探索的阶段。我们认为,在人工智能带来巨大想象空间的同时,安全问题值得进一步关注,看好大模型及AI安全行业的发展潜力。
投资标的:
1)大模型:360、科大讯飞、云从科技、昆仑万维;2)AI安全:电科网安、安恒信息、奇安信、深信服、美亚柏科、启明星辰、格尔软件等。3)数据标注(ALIGNMENT):海天瑞声
风险提示:技术推进不及预期的风险;行业竞争加剧;商业化不及预期。
具体分析详见2023年4月5日发布的报告《计算机:AI合规发展展望》
特别声明:《证券期货投资者适当性管理办法》于2017年7月1日起正式实施。通过微信形式制作的本资料仅面向国盛证券客户中的专业投资者。请勿对本资料进行任何形式的转发。若您非国盛证券客户中的专业投资者,为保证服务质量、控制投资风险,请取消关注,请勿订阅、接受或使用本资料中的任何信息。因本订阅号难以设置访问权限,若给您造成不便,烦请谅解!感谢您给予的理解和配合。
重要声明:本订阅号是国盛证券计算机团队设立的。本订阅号不是国盛计算机团队研究报告的发布平台。本订阅号所载的信息仅面向专业投资机构,仅供在新媒体背景下研究观点的及时交流。本订阅号所载的信息均摘编自国盛证券研究所已经发布的研究报告或者系对已发布报告的后续解读,若因对报告的摘编而产生歧义,应以报告发布当日的完整内容为准。本资料仅代表报告发布当日的判断,相关的分析意见及推测可在不发出通知的情形下做出更改,读者参考时还须及时跟踪后续最新的研究进展。
本资料不构成对具体证券在具体价位、具体时点、具体市场表现的判断或投资建议,不能够等同于指导具体投资的操作性意见,普通的个人投资者若使用本资料,有可能会因缺乏解读服务而对报告中的关键假设、评级、目标价等内容产生理解上的歧义,进而造成投资损失。因此个人投资者还须寻求专业投资顾问的指导。本资料仅供参考之用,接收人不应单纯依靠本资料的信息而取代自身的独立判断,应自主作出投资决策并自行承担投资风险。
open ai与中国ai openai为何带来ai革命
近些天,对 OpenAI 来说,可谓是一个“多事之秋”。由于ChatGPT 及 GPT-4可能引发的安全问题,OpenAI 受到了来自外界的一些指责:
马斯克等上千人联名呼吁 “所有人工智能实验室应立即暂停训练比GPT-4更强大的大模型,这一时间至少为 6个月”
意大利监管机构封锁OpenAI聊天机器人ChatGPT
ChatGPT大面积封号
【【微信】】 停售
4月6日,在最近遭遇到伦理质疑和监管方面的反弹之后,人工智能研究公司OpenAI终于给出了确保其技术安全的方案。该公司周三发文详细介绍了其方法,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐私等。OpenAI声称,确保人工智能系统的安全构建、部署和使用对实现其使命至关重要。
01
构建越来越安全的人工智能系统
在发布任何新系统之前,我们都会进行严格的测试,征求外部专家的反馈意见,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。
例如,在我们最新模型GPT-4完成培训后,花了6个多月的时间在整个公司进行测试,以使其在公开发布之前变得更安全、更一致。
我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管来确保这些做法被采纳,我们正积极与各国政府就可能采取的最佳监管形式进行接触。
02
从实际使用中学习,以改进保障措施
在部署之前,我们努力防止可预见的风险,然而,我们在实验室中所能学到的东西毕竟有限。尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们如何滥用这项技术。这就是为什么我们相信,随着时间的推移,从现实世界的实际使用中学习是创建和发布越来越安全人工智能系统的关键组成部分。
我们小心翼翼、按部就班地向更广泛的人群发布新的人工智能系统,并在吸取经验教训的基础上不断改进。
至关重要的是,我们认为社会必须有时间来调整和适应日益强大的人工智能,而且每个受到这项技术影响的人都应该在人工智能如何进一步发展方面拥有自己的发言权。迭代部署帮助我们将各类利益相关者引入到关于采用人工智能技术的对话中,而拥有这些工具的第一手使用经验显然十分重要。
03
保护儿童
我们安全工作的一个关键重点是保护儿童。我们要求用户必须年满18岁(或经父母批准年满13岁)才能使用我们的人工智能工具,并正在研究验证功能。
我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人等类别的内容。与GPT-3.5相比,我们的最新模型GPT-4对受限内容请求做出响应的可能性降低了82%,我们已经建立了一个强大的系统来监控滥用行为。GPT-4现在对【【微信】】的用户开放,我们希望随着时间的推移让更多的人也能使用它。
我们已经做出了巨大的努力,尽量减少我们的模型产生伤害儿童内容的可能性。例如,当用户试图将儿童安全虐待材料上传到我们的图像生成工具时,我们会拦截并将其报告给国家失踪与受剥削儿童中心。
04
尊重隐私
我们的大型语言模型是在广泛的文本语料库上进行训练的,这些文本语料库包括公开可用的内容、获得授权的内容以及由人工审核人员生成的内容。我们不使用数据来销售我们的服务、做广告或建立人们的档案,而是为了让我们的模型对人们更有帮助。例如,ChatGPT通过与人进行更多对话来改进自己。
虽然我们有些训练数据中包括在公共互联网上可以获得的个人信息,但我们希望我们的模型了解世界,而非个人层面。因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对有关个人信息的请求,并响应人们从我们的系统中删除个人信息的请求。这些措施将我们的模型生成包含私人个人信息的响应的可能性降至最低。
05
提高事实准确性
如今的大型语言模型基于它们之前看到的模式(包括用户提供的文本输入)来预测接下来的下一系列词汇。但在某些情况下,下一个最可能出现的词汇实际上可能并不符合事实。
因此,提高事实准确性正成为OpenAI和许多其他人工智能开发商的一个重要关注点,我们正在取得进展。通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,我们提高了GPT-4的事实准确性。与GPT-3.5相比,GPT-4生成事实性内容的水平提高了40%。
当用户注册使用该工具时,我们会尽量做到透明,以免ChatGPT可能提供错误回复。然而,我们认识到,要进一步降低幻觉的可能性,并教育公众了解这些人工智能工具目前的局限性,还有很多工作要做。
06
持续研究和参与
我们认为,解决人工智能安全问题的一个切实可行的方法,就是投入更多的时间和资源来研究有效的缓解和校准技术,并针对现实世界可能被滥用情况进行测试。
重要的是,我们还认为,提高人工智能的安全性和能力应该齐头并进。迄今为止,我们最好的安全工作就是与我们能力最强的模型合作,因为它们更善于遵循用户的指示,更容易被“引导”。
我们将越来越谨慎地创建和部署功能更强大的模型,并将随着人工智能系统的发展继续加强安全预防措施。
虽然我们等了6个多月才部署GPT-4,以更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商将需要确保人工智能的开发和部署在全球范围内得到有效监管,这样就没有人会为了领先而寻找捷径。这是一项艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。
解决安全问题还需要广泛的辩论、实验和参与,包括为人工智能系统的行为设置界限。我们已经并将继续促进利益相关者之间的合作和开放对话,以创建一个更安全的人工智能生态系统。返回搜狐,查看更多
责任编辑: