庆云古诗词

庆云古诗词

深度合成(AI换脸、ChatGPT)如何合规?

互联资讯 0
深度ai换脸软件,深度换脸技术,ai换脸合成技术,ai换脸融合

随着人工智能的蓬勃发展,深度合成算法已经成为广泛应用于人们生产生活中的常见技术。这里的深度合成指的是使用了人工智能(深度模型)提供内容生成的相关技术,可以将深度合成看作人工智能的另一种叫法(往往在合规领域这么叫)。代表产品很多,如图像视频领域的AI换脸、人脸风格化、人脸性别转换、人脸年龄转换等;音频领域的人声合成、变声、文字转语音等。

还有人工智能产业的新风口ChatGPT。随着OpenAI提供的ChatGPT和相关产品在国内爆火,目前国内很多企业都已开始研究开发类GPT大模型基于ChatGPT接口为用户提供AIGC内容。这些产品可能是聊天机器人、智能音箱、写作助手。

深度合成算法已经成为广泛应用于人们生产生活中的常见技术,在推动经济社会发展的同时,也带来一定的社会管理潜在风险。最近看到相关的应用风险不少,引起热议。

广州地铁一女子照片被用 AI「一键脱衣」,被造黄谣受害人如何维权?AI 应用还面临哪些法律与道德挑战?男子合成与迪丽热巴亲吻视频是否属于性骚扰?比利时男子与ELIZA聊天机器人密集聊天6周后自杀身亡,如何看待这一事件,人工智能有责任吗?如何看待马斯克,Bengio等千位AI科技人士签署暂停巨型 AI 实验公开信?

我们的重点关注的是合规风险。即国内厂商提供深度合成技术支撑或使用深度合成技术(自研的或第三方提供的)开展深度合成相关服务时,应当关注哪些重点,保障服务合规上路,提前规避相关风险,在赛道选择、产品研发运营上少走弯路。

避免陷入下面的尴尬情境:

卢松松:因开发ChatGPT应用被约谈

合规风险主要包括证照合规、内容监管合规、数据合规、算法合规、运营合规。我们重点关注算法合规和算法相关监管合规要求,也是企业最主要的痛点难点问题。

炽卯科技 - 算法备案-算法安全评估-算法合规咨询

根据《网络安全法》、《数据安全法》、《个人信息保护法》、《互联网信息服务管理办法》等法律、行政法规,国家互联网信息办公室联合工业和信息化部、公安部发布了

互联网信息服务深度合成管理规定-中共中央网络安全和信息化委员会办公室

该规定是目前我国针对互联网信息服务深度合成技术出台的最为系统的专门性部门规章。

规定明确了使用深度合成技术开展服务的企业的行为规范。从合规开展服务的角度来说,包括建设完备的信息安全主体责任、制定和公开相关的规则规范、开展用户身份认证、加强深度合成内容管理、建立健全辟谣机制,设置投诉、举报入口等。具体深度合成合规要点和合规风险点梳理请私信联系。

从具体配合监管的操作上来看,企业在开展深度合成服务时应当开展算法备案、算法评估和配合算法检查。

具体包括:具有舆论属性或者社会动员能力的深度合成服务提供者、技术支持者应当履行备案和变更、注销备案手续。上线具有舆论属性或者社会动员能力的新产品、新应用、新功能的,应当开展安全评估。深度合成服务提供者、技术支持者应当依法配合网信部门和有关主管部门开展的监督检查,并提供必要的支持和协助。

《互联网信息服务算法推荐管理规定》第二十条 具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。《互联网信息服务深度合成管理规定》具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。

算法备案信息包括算法主体信息和算法信息两部分。

算法主体信息是指备案主体的基本信息,包括主体名称、证件信息、法人信息、责任人信息等。

算法信息包括算法基本属性信息、算法详细属性信息、算法产品及功能信息。

详细内容可以参考另一篇文章。

困惑:算法备案详细解析

《互联网信息服务深度合成管理规定》

第十三条互联网应用商店等应用程序分发平台应当落实上架审核、日常管理、应急处置等安全管理责任,核验深度合成类应用程序的安全评估、备案等情况;对违反国家有关规定的,应当及时采取不予上架、警示、暂停服务或者下架等处置措施。第十五条 深度合成服务提供者和技术支持者应当加强技术管理,定期审核、评估、验证生成合成类算法机制机理。深度合成服务提供者和技术支持者提供具有以下功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估:(一)生成或者编辑人脸、人声等生物识别信息的;(二)生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的

可以看到,这里的评估主要有两个作用,一个是应用市场上架需要,一个是针对特殊的深度合成类型需开展安全评估。这些两种评估在内容上、主管部门上并不相同,同时评估可以自行开展、委托评估机构或由主管部门开展,又有不同的方案与流程。

相比备案,由于评估的复杂性,需根据企业的具体情况和需求出具针对性方案,具体可以参考:

困惑:算法评估、深度合成评估、算法安全自评估、互联网服务评估,傻傻分不清楚

为防控深度合成技术使用带来的相关风险,更为了保障企业的合规合法运行,严格落实《网络安全法》、《数据安全法》、《个人信息保护法》、《互联网信息服务深度合成管理规定》等相关规定。在算法合规上配合监管相关要求,在相关道路的选择上,不同应用类型、服务方式、服务对象所适用的场景和合规要求亦有所不同。对此,企业应依据自身实际情况选择更优的合规规划。



滥用chatgpt会带来哪些风险 警惕chatgpt带来信息安全威胁

滥用成语的作文,滥用成语手抄报,滥用成语广告牌图片,滥用成语的例子200个

原标题:涉嫌数据泄露遭封禁,ChatGPT个人信息保护之困

近日,OpenAI发布声明称,与任何技术一样,ChatGPT会带来一定安全风险,并介绍了包括尊重隐私在内的六方面的安全部署。这份声明发出的不久前,ChatGPT被曝数据泄露――部分用户能够看到其他用户的姓名、邮箱、聊天记录标题以及信用卡最后四位数字等。

此后,意大利数据保护机构宣布“封禁”ChatGPT,并要求OpenAI在20天内按要求提供整改措施,否则将被处以最高2000万欧元或全球年营业额4%的罚款。不只意大利,德国联邦数据保护专员也称类似ChatGPT的产品有可能被封禁,加拿大隐私专员办公室则已因数据问题开始调查OpenAI。

有专家表示,在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。个人信息的收集、使用和传输都面临着安全挑战。在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度,并建立与数据类型和安全级别相配套的数据保护标准与共享机制。

文丨路欣冉 孙朝

意大利封禁:缘起ChatGPT的数据泄露

当地时间4月5日,OpenAI发布声明宣布了一系列整改措施,包括“保护儿童”“尊重隐私”等。

在尊重隐私上,OpenAI方面表示,尽力在可行的情况下从训练数据集中删除个人信息,微调模型来排除收集个人信息,并回应用户删除个人信息的请求。

南都记者梳理发现,这次调整或源于半个月前的一次数据泄露。

当地时间3月20日,多名ChatGPT用户表示看到其他人与ChatGPT的对话记录、电子邮件。OpenAI首席执行官Sam Altman发文称,系开源库出现错误导致部分聊天记录标题泄露,“对此我们感到很难过”。

31日,意大利数据保护机构(Garante per la protezione dei dati personali,GPDP)宣布,即日起禁止使用ChatGPT,并开始立案调查。

GPDP认为,OpenAI为了“训练”平台所依赖的算法收集和处理了大量的个人信息,缺乏法律依据。在3月20日ChatGPT出现的信息泄露事件中,该平台没有就处理用户个人信息进行告知。

另外,GPDP还表示,尽管根据OpenAI的条款,ChatGPT针对13岁以上的用户,但该平台缺乏年龄验证机制,儿童可能收到不适合他们年龄和意识的回复。

最后,上述数据保护机构强调,OpenAI必须在20天内按照要求提供整改措施,否则将被处以最高2000万欧元或全球年营业额4%的罚款。

在意大利的“封禁令”到来后,OpenAI立即表示,已在意大利禁用了ChatGPT,并认为已遵守隐私相关法律的规定。

“我们在训练我们的人工智能系统(如 ChatGPT)时积极努力减少个人数据,因为我们希望我们的人工智能了解世界,而不是了解个人。”OpenAI的新闻发言人说道。

对于GPDP的指控,北京炜衡(成都)律师事务所网络与数据法律师魏冬冬告诉南都记者,本次意大利数据监管机构指控的未部署方案获得未成年人监护人同意的事由,其实不是ChatGPT特有的,很多应用软件都缺乏这样的机制,但由于ChatGPT提供的服务主要就是信息内容的输入与输出,所以尤其需要设置未成年人保护的机制,在这个问题上引起监管高度注意是必然的。

而对于意大利封禁ChatGPT这一决定,魏冬冬认为,结合意大利政府反对封禁ChatGPT和意大利数据监管机构独立于政府的地位来看,此举应出于个人数据保护上的考量,个人数据权利早已提高到欧盟基本*的位置。“这个案例尚没有透露出对AI伦理、AI知识产权、垄断和不正当竞争的考量。”她补充道。

中国政法大学数据法治研究院教授张凌寒则认为,“封禁不仅仅是出于安全考虑,也有国际竞争的因素。欧盟多个国家讨论ChatGPT的使用限制问题,也是国际博弈的一部分。”

南开大学法学院副院长、教授、中国新一代人工智能发展战略研究院特约研究员陈兵曾在今年2月公开撰文称,虽然ChatGPT表示,存储训练和运行模型所需的数据会严格遵守隐私和安全政策,但在未来可能出现的网络攻击和数据爬取等现象下,仍存在不可忽视的数据安全隐患。特别是对涉及国家核心数据、地方和行业重要数据以及个人隐私数据的抓取、处理以及合成使用等过程中的安全保护与流动共享的平衡处置,这不仅涉及数据安全,还涉及国家安全、行业安全及个人安全等。

多国表态:厘清ChatGPT的数据风险

意大利宣布“封禁”ChatGPT之后,当地时间4月4日,加拿大隐私专员办公室(Office of the Pri【【微信】】,OPC)宣布开始调查OpenAI,涉及未经同意收集、使用和披露个人信息的指控。

此外,多个欧盟成员国的数据保护机构也公开表示对ChatGPT数据安全的担忧。

当地时间4月3日,据德国商报报道,德国联邦数据保护专员Ulrich Kelber表示,原则上,类似ChatGPT这样的AI软件“在德国被禁用也是有可能的”。

法国和爱尔兰的数据监管机构则表示,已联系意大利数据监管机构,并讨论其调查结果。爱尔兰数据保护机构的一位发言人在接受采访时表示:“我们正联系意大利监管机构以了解他们采取行动的依据,我们将与所有欧盟数据保护机构协调此事。”

目前来看,意大利的封禁举措为欧盟各国开了先例,隐藏于ChatGPT高速发展之下的数据安全风险被凸显出来。

张凌寒认为,在个人信息保护方面,深度合成的训练数据主要来源于互联网,其中就可能包括个人隐私数据。她认为,用户生成合成内容需要上传照片、视频或与ChatGPT直接明文的对话。生成合成类算法应用既往就产生过换脸换声的欺诈、人格权侵权、隐私泄露等案件。

张凌寒进一步表示,在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。“这些个人信息可被用于用户画像和训练模型,个人信息的收集、使用和传输都面临着安全挑战。”她说。

争议焦点:底层技术与数据保护

对于ChatGPT类生成式AI的争议焦点,离不开其底层技术与数据保护之间的讨论。

魏冬冬认为,ChatGPT这样的大语言模型,其底层技术与GDPR遵循的数据保护思路有矛盾的地方,这一矛盾主要集中在训练数据的获取和算法模型的透明化上。“在训练数据的获取上,ChatGPT很难满足个人对训练数据的控制权;ChatGPT也很难向用户去释明算法的黑盒是如何使用训练数据和用户输入数据进一步优化模型的。”

她亦表示,ChatGPT可能在用户对个人信息的控制权、正当竞争、数据泄露、商业秘密侵权和未成年人保护这五个方面存在风险。

“ChatGPT的训练数据部分来源于百科类和问答类网站,且没有付出任何成本,但反过来ChatGPT又在一定比例上替代了百科类和问答类,这就可能在竞争的层面侵犯了百科类和问答类网站的权益。”魏冬冬说。

张凌寒表示,可以把(ChatGPT类)大语言模型看做是一个大型的数据处理者,要求其承担GPDR相关的数据保护并无不妥,但是在技术上提出了更高的要求。

魏冬冬表示,ChatGPT的训练数据大量来自网络文档、各类百科网站、书籍个人问答等互联网上的文本数据库,这里面包含大量个人信息,而这些个人信息主体却不知道自己的数据被用于训练ChatGPT,也就是没有对个人进行告知,并获取同意。但另一方面,逐个去获取分散在各个平台的个人的告知同意无论在成本还是可行性上,对OpenAI来说都是不现实的,这将是ChatGPT在数据隐私保护上面临的重大问题。

治理思路:完善AIGC领域法律法规,对数据分类分级

ChatGPT的数据风险引发了多国忧虑的同时,或许将拉开治理序幕。

陈兵公开撰文称,必须正视ChatGPT爆火背后潜在的法律风险,及时更新、科学完善AIGC(人工智能生成内容)领域的相关法律法规,建立健全相关行为规范和伦理指南,用系统观念和法治思维及方法来推动AIGC在我国规范健康持续发展。

具体而言,他指出,在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度,譬如可根据数据主体、数据处理程度、数据权利属性等方面对训练数据集中进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。

陈兵撰文表示,在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制,同时,AIGC还涉及数据跨境流通问题,应当在考虑国际通行标准和做法的基础上,制定合理的跨境数据安全执法规则,加强与其他国家和地区规则的衔接,促进数据安全跨境执法合作。

张凌寒认为,深度合成的治理,一是需要保障生成内容安全的基础法益,二是应依据生成型人工智能改进监管框架实施全链条治理,三是需要适应技术的进一步发展,完成深度合成监管工具的升级。

陈兵表示,在技术层面,需要加快推动“隐私计算”技术在AIGC领域的应用,这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,在进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。

张凌寒进一步指出,不宜将深度合成尤其是生成型人工智能一概纳入高风险治理框架,而应根据生成型人工智能的预训练大模型、海量数据等特征单独设计监管制度;区分技术、产业和应用层面分级分类设计制度,在技术与产业层面加大扶持力度,在应用层面参考现有分级分类标准完善监管制度;应建立敏捷治理体系,并留足前瞻性制度发展空间,以保障技术的长远发展。返回搜狐,查看更多

责任编辑: