庆云古诗词

庆云古诗词

大规模封亚洲IP、遭意大利禁用、泄露芯片机密...ChatGPT遇滑铁卢?

互联资讯 0
大规模封亚洲ip,遭意大利拒绝,亚洲封闭国家,亚洲涉嫌简介

原标题:大规模封亚洲IP、遭意大利禁用、泄露芯片机密...ChatGPT遇滑铁卢?

近日,一则有关 ChatGPT 大规模封号的消息传遍互联网。

消息显示,OpenAI 官方从 3 月 30 号开始大面积封号,甚至一些开通了付费会员的账号也无法正常启用。据了解,一部分用户在付费后会出现只扣款但订阅不开启的情况,一部分用户的付费Plus原本可用,但近期却突然失效,乃至账单里无法查询相关记录。

在社交平台上,不少网友透露自己的账号被封。

数据显示,OpenAI 的本次封号处理主要集中在亚洲地区,尤其是使用中文对话的用户和批量注册的账号。

除了封号,有网友还曝出 OpenAI 已经暂停注册新账号,注册网页无法进入,很多收码平台近期已关闭。

综合上述情况,网友给出建议:

●尽量用非亚洲节点登录

●不要用同一台设备先后登录不同账号

●不要用不同设备登录同一个账号

不过,4月3日,有媒体报道,经访问 OpenAI 官网发现,账号注册界面已经开放,原有的账号能够成功登录,ChatGPT的响应也很快。

有分析认为,此次出现封号的背后原因,可能是“批量注册”和“API调用”。

前者主要是由于用户在手动注册之外,入手了大量由第三方途径收入的账户;后者则是由于用户在操作过程中存有滥用API的嫌疑,而这违反了OpenAI API的使用规则。

值得注意的是,火爆的 ChatGPT 正遭遇更严的审查和挑战。

首先是来自意大利的“禁令”。由于涉嫌侵犯用户隐私,ChatGPT 近日在意大利被暂停使用。

上周五,意大利数据保护机构对 OpenAI 公司非法收集用户信息展开调查。意大利个人数据保护局宣布,即日起禁止使用聊天机器人 ChatGPT,并限制开发这一平台的美国人工智能公司处理意大利用户信息。同时,意大利个人数据保护局指出了三个问题:

●3月20日,ChatGPT 平台出现了“用户对话数据和付款服务支付信息丢失”的情况。

●该平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息以训练平台算法的法律依据。

●尽管 OpenAI 称其服务面向 13 岁以上的用户,但却未设立检查年龄的验证机制,可能使儿童收到绝对不适合他们年龄和意识的答案。

OpenAI 公司需在 20 天时间内来说明其将如何解决上述隐患,否则最高面临 2000 万欧元(约1.49亿人民币)的罚款。

这也是首个禁用 ChatGPT 的西方国家。

但给 OpenAI 带来的麻烦不仅是罚款方面,如若该公司不能为自己做出合理的辩护,势必会有更多的欧洲国家加入“禁用ChatGPT”的行列。

据悉,德国已有此方面的考虑。4月3日,德国联邦数据保护专员发言人称,出于数据保护方面的考虑,暂时禁止在德国使用ChatGPT原则上是可能的。该发言人称,禁止使用该软件的动作将属于德国联邦数据保护机构的职权范围。

其次,因存在泄密风险,三星考虑禁用 ChatGPT。

上周,韩媒披露,三星电子引入 ChatGPT 不到 20 天的时间,便曝出 3 起内部机密资料外泄事件。

据韩国媒体《economist》3月30日报道,近日,三星内部发生三起涉及 ChatGPT 误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。报道称,半导体设备测量资料、产品良率等内容或已被存入ChatGPT学习资料库中,随时面临泄露的风险。而出现这些事故的根源,均是因为员工将涉密内容输入到了 ChatGPT。

目前,三星正在制定相关保护措施,告知员工谨慎使用该应用,若之后仍发生类似事故,公司内部网络可能会切断 ChatGPT 连接。

事实上,ChatGPT 泄露用户聊天记录的事件已发生多次。上月,Reddit 上有用户发布截图称遇到了一个BUG,其 ChatGPT 聊天历史栏出现了不是自己的聊天记录标题。同时期,网络上有人反馈 ChatGPT Plus 支付页面会随机曝光用户注册邮箱。多起事件引发了大家对于 ChatGPT 在隐私安全方面存在漏洞的担忧。

尤其是很多企业员工都在将公司内部数据输入到 ChatGPT,让它帮忙处理。在数据泄露事件发生后,多家企业开始重视隐私安全问题,包括软银、日立、富士通、摩根大通等企业都明确禁止员工使用 ChatGPT。

此外,千余名科技大牛呼吁暂停 ChatGPT 研发。

包括马斯克在内的上千名科技大佬就曾联合署名要求,至少 6 个月内,暂停发展更高级别的 GPT,担心更高级别的 AI 会脱离人类的掌控,主要还是出于对技术安全问题的担忧。

上月中旬,GPT-4 刚发布,被马斯克请愿叫停的则是更先进的 GPT-5。据悉,GPT-5 能力会大幅提升,可能会首次实现 AGI,也就是通用人工智能。这将成为 AI 发展的一个转折点,意味着 AI 首次比人类更聪明。

AI 发展太快,相关的监管和法律没有跟上,人们的担忧也就愈发强烈。

无论如何,创新技术不应该被阻止,但因为人工智能技术可能会面临伦理方面的挑战,被纳入监管是有必要的。

如何对人工智能进行监管,也成为欧盟内部正考虑的问题。

据报道,由于 AI 生成图片近期在网上疯传,尤其是 Midjourney 这类 AI 生成图片的应用软件被滥用引起了混乱。比如,“美国前总统被捕”、“马斯克和通用汽车女掌门人手牵手”等图片在国外社交媒体上泛滥,这些看似细节丰富的图片却非事实,其都出自人工智能驱动的图像生成技术。

针对 AI 生成图片引发的混乱,欧盟内部市场专员、工业和信息化产业负责人蒂埃里・布雷顿公开表示表示:欧盟希望对 AI 生成的内容进行强制性的规定。

其表示,欧盟将是首个做出明确规定的政府,人工智能生成的一切,无论是文本还是图像,都有义务告知它们是由人工智能完成的。如果有人在社交网络上发布由 AI 生成的图像却不表明是由 AI 生成的,他们将面临法律诉讼。

欧盟人工智能法案将于本月起正式进行投票,生成式 AI 也将作为被监管的重点对象被纳入其中。

生成式 AI 内容需注明来源,这一规定将利于我们更好的辨别虚假信息。但人工智能发展的过程中,保护用户隐私同样至关重要。聊天机器人该如何加强自身的隐私政策透明度?让用户清楚地知道自己授权的信息会被用在哪些方面?希望相关的法律制度尽管完善,切实保护用户的隐私权益。

最后再次提醒,鉴于 ChatGPT 曾多次出现数据泄露事件,最好不要和它聊隐私。返回搜狐,查看更多

责任编辑:


自然语言处理词库是什么 自然语言处理与翻译

自然语言处理属于人工智能吗,自然语言处理技术有哪些,自然语言处理和计算机视觉哪个难,自然语言处理的应用有哪些

向AI转型的程序员都关注了这个号&#【【微信】】;&#【【微信】】;&#【【微信】】;

人工智能大数据与深度学习 ?公众号:【【微信】】

1.维基百科(wiki2019zh),100万个结构良好的中文词条

2.新闻语料(news2016zh),250万篇新闻,含关键词、描述

3.百科问答(baike2018qa),150万个带问题类型的问答

4.社区问答json版(webtext2019zh),410万个高质量社区问答,适合训练超大模型

5.翻译语料(translation2019zh),520万个中英文句子对

大规模中文语料?获取方式:

关注微信公众号 【【微信】】 ?然后回复语料即可获取。

AI项目体验地址【【网址】】

为什么需要这个项目

中文的信息无处不在,但如果想要获得大量的中文语料,却是不太容易,有时甚至非常困难。在2019年初这个时点上,普通的从业者、研究人员或学生,并没有一个比较好的渠道获得极大量的中文语料。笔者想要训练一个中文的词向量,在百度和github上上搜索了好久,收获却很少:要么语料的量级太小,要么数据过于成旧,或需要的处理太复杂。

不知道你是否也遇到了这样的问题?

我们这个项目,就是为了解决这一问题贡献微薄之力。

结构:

例子:

效果:

250万篇新闻( 原始数据9G,压缩文件3.6G;新闻内容跨度:2014-2016年)

数据描述

包含了250万篇新闻。新闻来源涵盖了6.3万个媒体,含标题、关键词、描述、正文。

数据集划分:数据去重并分成三个部分。训练集:243万;验证集:7.7万;测试集,数万,不提供下载。

可能的用途:

结构:

例子:

150万个问答( 原始数据1G多,压缩文件663M;数据更新时间:2018年)

数据描述

含有150万个预先过滤过的、高质量问题和答案,每个问题属于一个类别。总共有492个类别,其中频率达到或超过10次的类别有434个。

数据集划分:数据去重并分成三个部分。训练集:142.5万;验证集:4.5万;测试集,数万,不提供下载。

可能的用途:

结构:

例子:

公开评测:

欢迎报告模型在验证集上的准确率。

任务1:类别预测。

报告包括:#1)验证集上准确率;#2)采用的模型、方法描述、运行方式,1页PDF;#3)可运行的源代码(可选)

基于#2和#3,我们会在测试集上做测试,并报告测试集上的准确率;只提供了#1和#2的队伍,验证集上的成绩依然可以被显示出来,但会被标记为未验证。

410万个问答( 过滤后数据3.7G,压缩文件1.7G;数据跨度:2015-2016年)

数据描述

含有410万个预先过滤过的、高质量问题和回复。每个问题属于一个【话题】,总共有2.8万个各式话题,话题包罗万象。

从1400万个原始问答中,筛选出至少获得3个点赞以上的的答案,代表了回复的内容比较不错或有趣,从而获得高质量的数据集。

除了对每个问题对应一个话题、问题的描述、一个或多个回复外,每个回复还带有点赞数、回复ID、回复者的标签。

数据集划分:数据去重并分成三个部分。训练集:412万;验证集:6.8万;测试集a:6.8万;测试集b,不提供下载。

可能的用途:

结构:

例子:

在该数据集上的公开评测和任务:

任务1:话题预测。

报告包括:#1)验证集上准确率;#2)采用的模型、方法描述、运行方式,1页PDF;#3)可运行的源代码(可选)

基于#2和#3,我们会在测试集上做测试,并报告测试集上的准确率;只提供了#1和#2的队伍,验证集上的成绩依然可以被显示出来,但会被标记为未验证。

任务2:训练社区问答(cQA)系统。

要求:评价指标采用MAP,构建一个适合排序问题的测试集,并报告在该测试集上的效果。

任务3:使用该数据集(webtext2019zh),参考OpenAI的GPT-2,训练中文的文本写作模型、测试在其他数据集上的zero-shot的效果,或测评语言模型的效果。

520万个中英文平行语料( 原始数据1.1G,压缩文件596M)

数据描述

中英文平行语料520万对。每一个对,包含一个英文和对应的中文。中文或英文,多数情况是一句带标点符号的完整的话。

对于一个平行的中英文对,中文平均有36个字,英文平均有19个单词(单词如“she”)

数据集划分:数据去重并分成三个部分。训练集:516万;验证集:3.9万;测试集,数万,不提供下载。

可能的用途:

结构:

例子:

阅读过本文的人还看了以下文章:

不断更新资源

深度学习、机器学习、数据分析、python

?搜索公众号添加:?【【微信】】

长按图片,识别二维码,点关注

AI项目体验

【【网址】】