庆云古诗词

庆云古诗词

上海亿道电子科技有限公司 亿道信息产品

互联资讯 0
上海亿道电子科技有限公司怎么样,上海亿道电子科技有限公司招聘,上海亿道电子科技有限公司电话,上海亿道集团怎么样

亿道信息在互动平台表示,教育领域是公司产品应用最重要的场景之一,公司教育类产品包括教育类平板、教育笔记本、教育大屏互动产品、教育智能硬件等等。同时,VR、分体式AR眼镜及AR主运算单元等都广泛地用于授课、科普、培训等教育场景,当然也包括职业教育和企业培训等泛教育场景,其中亿境虚拟定义并研发的VR硬件头盔服务国际知名教育内容客户。依据客户需求,公司可开发、适配AI智能互动类产品,同时公司也将积极跟进以ChatGPT为代表的生成式AI(AIGC)等最新技术的发展及应用情况,加强相关人才储备、产品规划及产品预研。

炒股开户享福利,送投顾服务60天体验权,一对一指导服务!
海量资讯、精准解读,尽在新浪财经APP


人工智能监管最新消息 人工智能在监管领域的应用

人工智能监管问题,人工智能监管概念,人工智能监管机构,人工智能监管规定

  人工智能行业再起波澜。近日,媒体报道称,中国人工智能领域或面临美国全面投资禁令。在此之前,从大厂竞相发布生成式人工智能,到行业从业者发布联合声明建议暂停研究,再到国外政府颁布或撤销使用禁令,人工智能的发展在短短的数月内几经“反转”。ChatGPT的热闹景象背后,是生成式人工智能可以预见“喜忧参半”的局面――硬币的一面是技术突破带来的巨大利益和广阔前景,而另一面则是摆脱不掉的安全风险难题。生成式人工智能依然在竞争与发展中狂飙突进,相比厂商追赶式的研发,构建起针对生成式人工智能的权责边界和监管机制似乎是更加急迫的问题。

  新华社供图

  人工智能再起风云

  以ChatGPT为代表的语言预训练大模型似乎正在进化。年初,ChatGPT被众人熟知的时候,还是一个擅长生成文字对话但时常胡说八道、可以参加标准化考试、可以生成代码但是准确率堪忧的大模型,而进入3月下旬,升级后的GPT-4已经可以生成、编辑具有创意性或技术性的文章,可以给出更精确的答案,也可以理解图表含义并作出进一步的计算。开发者OpenAI也在继续优化和扩展GPT-4功能。有消息称,国外工程师发现,GPT-4已经学会了以合理的方式批评自己的成果。学会“反思”能力的GPT-4不仅将性能进一步提高,也让人工智能行业有了更多的期待和忧虑。

  国内外的各大厂商都在追赶ChatGPT的进度。在国外,谷歌推出了AI对话系统Bard后,将其从基于轻量级LaMDA模型,升级为更大规模的PaLM模型,使其在处理常识推理和编程问题等任务时能力更强。此外,外媒报道称,马斯克计划成立人工智能初创公司,挖掘了数位相关专家与OpenAI竞争。

  在国内,百度的“文心一言”在万众瞩目中发布,阿里云自研大模型“通义千问”开始邀请用户测试,商汤科技推出“日日新SenseNova”大模型体系,腾讯在电话会议中透露未来有可能将生成式AI纳入微信和QQ,“混元”大模型或将成为中长期的重要增量,京东拟发布的“言犀大模型”被业内定义为产业大模型,专注社交分享平台的小红书也筹备起了独立的大模型团队,科大讯飞开放讯飞“星火”认知大模型能力接口以及插件市场。此外,4月18日,GPT产业联盟正式成立。据了解,该联盟由中国移动通信联合会、中国电信、中国移动、中国联通、中国广电等单位共同发起。

  和厂商“人人都做大模型”的狂欢不同,一些从业者和专家开始了关于生成式人工智能的争论。5月,有着“人工智能教父”之称的杰弗里・辛顿从谷歌离职,并坦言是为了可以完全自由地讨论人工智能所带来的危险性。3月,生命未来研究所发布了一封《暂停大型人工智能研究》的公开信,包括马斯克在内,多位科技公司高管和顶级人工智能研究人员,呼吁立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月,使该行业有时间制定人工智能设计方面的安全标准。虽然有业内人士认为,许多大语言模型在安全性和公正性上已经表现得很好,不应该一味地批评,但是不难看出行业内对于生成式人工智能安全性的“焦虑”。

  政府层面显然也看到了生成式人工智能隐藏的风险。为了保证人工智能技术可控地发展,各国政府开始了对生成式人工智能的监管。在国外,早在3月,意大利数据保护局就以涉嫌违反数据收集规则为由,对OpenAI展开调查,并宣布禁止使用ChatGPT;4月,法国国家信息自由委员会决定对ChatGPT提出5项指控,并展开调查;同月,中国下发关于《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”)的通知,并向社会公开征求意见;4月底,七国集团同意“基于风险”推出一项针对人工智能的监管法案。

  可以看到,相比于生成式人工智能带来的风口和红利,人工智能发展同样带来了忧虑――人们没有办法阻止人工智能的发展,但是至少要将人工智能的风险扼杀在萌芽中。

  用监管预判发展危机

  目前来看,关于生成式人工智能的争议问题主要集中在三个方面:知识产权,例如版权、商业秘密保护等问题;涉及数据安全与个人信息保护;涉及数据跨境问题。

  事实上,国家早早就开始了对人工智能技术的监管和保护。在2021年12月,国家网信办、工业和信息化部、公安部、国家市场监督管理总局联合发布的《互联网信息服务算法推荐管理规定》,以及2022年11月国家网信办、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)中均对与人工智能相关的深度合成类算法进行了规范。虽然生成式人工智能的发展势头迅猛,但是目前还在过往法律法规的监控之下。

  然而,在国内外已经出现生成式人工智能存在法律风险、道德风险的大背景下,我国围绕生成式人工智能的技术研发和产业推进都需要一个更加有针对性的法律规范和监管机制,以排除技术迭代过程中可能存在的隐患。

  对于生成式人工智能的监管可以大致归结为几个方面。首先,数据安全是目前各国和各行业的难题。实际上,国内外都已经出现了生成式人工智能训练数据的侵权和泄露问题。各国对于生成式人工智能的监管也大都集中于这一点。因此,国家网信办发布的征求意见稿第7条中明确了利用生成式人工智能提供服务的主体对训练数据的合法性承担责任,包括遵守《网络安全法》的规定、不得侵犯知识产权、个人信息以及保证数据的真实性、多样性等。同时,针对需要通过人工进行标注的方式进行训练的数据,征求意见稿也要求“提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性”。

  对于内容的判定也是监管重点。在过往的应用中,国内外的生成式人工智能都出现了“一本正经地胡说八道”的情况,甚至在某些时刻出现了混淆史实的情况。因此对于人工智能生成内容的判定应该更加严谨。对于国内生成式人工智能行业来说,生成内容除了要审核、识别违法和不良信息外,还应在内容审核方面体现社会主义核心价值观,尊重社会公德、公序良俗。

  另外,针对生成内容的判定,监管还应该引导用户合理使用生成式人工智能。这一点也体现在了《深度合成管理规定》中――国家网信办要求生成式人工智能服务的提供者如果发现违反法律法规,违背商业道德、社会公德行为时,应当暂停或者终止服务。

  此外,对于生成式人工智能的监管最终都将落在责任主体身上。政府层面对于生成式人工智能的监管、备案和处罚的初衷很大程度上在于压紧压实主体责任,从而形成良好的行业自觉性。国家网信办的征求意见稿也对主体责任进行了明确规定,“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。”

  但是值得注意的是,关于人工智能造成损害时的法律责任主体承担的具体法律责任还需要进一步的明确。如《深度合成管理规定》提出,“深度合成服务提供者和技术支持者违反本规定的,依照有关法律、行政法规的规定处罚。”同时,“构成违反治安管理行为的,由公安机关依法给予治安管理处罚;构成犯罪的,依法追究刑事责任”。这就要求相关部门完善人工智能领域针对性的法律、建立协同管理机制,这或许也可以看做生成式人工智能监管的细分发展方向之一。

  结语

  可以看到,国家层面对于生成式人工智能的监管是以已有的网络监管为基础,针对技术发展情况进行细化和优化,反对技术的滥用。我国科技部此前指出,对科技发展要趋利避害,让“利”更好发挥。因此,对于生成式人工智能的监管更多的是为技术发展保驾护航。

  就像征求意见稿提出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。也正是如此,监管才能为技术发展划定合理的底线,以更安全的技术推动行业及上下游产业的升级,帮助各产业高质量、可持续地发展。

  对于厂商和提供者来说,生成式人工智能的监管可能会带来研发成本和安全成本的提升,这也导致厂商在商业化的过程中需要有更多的考量。但是,对于人工智能的监管和规范只会随着技术的发展愈发优化,相应的,经营环境也会愈发友好,厂商的发展空间也会越来越大,并找到平衡成本和利益的合理方式。

  纵观各个风口的发展,激进的增长最终都将迎来市场的负面情绪。如果可以在发展的早期就定下“规矩”,或许可以在一定程度上规避技术和市场野蛮发展后爆发的危机。文/李

海量资讯、精准解读,尽在新浪财经APP