庆云古诗词

庆云古诗词

openai注册被阻止 open ai api 封号吗

互联资讯 0
openai是哪个公司的,openai api key获取,openai创始人,openai怎么使用

据网友反馈,今天 OPENAI 似乎又开启了一*规模封号,其中重灾区是此前批量注册 OPENAI 账号出售的商家,这些商家早期利用 ChatGPT 风控比较宽松,注册并囤积海量账号进行出售。

从网友讨论来看,即便已经成功绑卡开通 ChatGPT Plus 也无济于事,账号仍然会被封禁。

如果账号被封,你会看到如下提示:Oops!Account deactivated. 【【微信】】gh our help center at help.openai.com if you need assistance. (error=account_deactivated)

综合来看小编总结以下几点可能会被封号的原因:

1. 前期账号是批量注册的,即相同或类似 IP 地址批量注册大量账号,这些账号不论是否被出售使用都会被封禁;

2.IP 地址不符导致的封号:OPENAI 严格显示服务所在区域,如果用户在暂时不支持的区域使用 ChatGPT,那也会被封号,无论账号是自己注册的还是购买的;

3. 因 API 问题导致的封号:部分开发者自己注册或批量购买多个账号获取 API 对外提供服务,这种属于 API 滥用,当 OPENAI 检测到同一个 IP 或类似 IP 不停地更换 API 发出请求,则账号也会被封禁;

4. 注册 IP 与使用 IP 不符:这个目前反馈的用户似乎还不多,如果注册 IP 属于某个地区,长期使用的 IP 属于另一个地区,也可能会被封号;

另外 OPENAI 最近还升级了 ChatGPT Plus 的风控等级,这么说不准确,有可能是 OPENAI 支付接口提供商 Stripe Payments 升级了封控,例如信用卡账单地址与 IP 地址不符,则可能会被拒绝,这个与信用卡号段似乎没有关系,主要是 Stripe 的支付风控。

还有个事儿是这两天 OPENAI 间歇性暂停 ChatGPT 的新用户注册,明面理由是负载比较高,但按理说也不至于三天了还间歇性停止注册,所以如果你自己尝试注册账号不成功,暂时也只能继续等待了,尽量不要去买账号,因为购买的账号大概率也会被封号。

更多相关技术内容咨询欢迎前往并持续关注六星社区了解详情。

想高效系统的学习Java编程语言,推荐大家关注一个微信公众号:Java圈子。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Java入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。



GPT-5要停?OpenAI凌晨发文回应:保障AI安全,我们没有「偷工减料」

openai gpt-3,open ai gpt3,openai gpt4,openai gpt-3申请

新智元报道

来源:学术头条

编辑:好困

【新智元导读】人工智能系统正在成为(人类)日常生活的一部分。关键问题是要确保这些机器与人类的意图和价值观保持一致。――Mira Murati,OpenAI CTO

近些天,对 OpenAI 来说,可谓是一个「多事之秋」。

由于 ChatGPT 及 GPT-4 可能引发的安全问题,OpenAI 受到了来自外界的一些指责和阻挠:

  • 马斯克等上千人联名呼吁 「所有人工智能实验室应立即暂停训练比 GPT-4 更强大的大模型,这一时间至少为 6 个月」;

  • 意大利禁用 ChatGPT,OpenAl「必须在 20 天内通过其在欧洲的代表向他们通报公司执行这一要求而采取的措施」;

  • ChatGPT 大面积封号;

  • 【【微信】】 停售;

这些事件表明,尽管 AI 已经证明有能力为人类社会带来诸多好处,但技术总是一把双刃剑,也会为人类社会带来带来真正的风险,AI 也不例外。

4 月 6 日,OpenAI 官方发布了一篇名为「Our approach to AI safety」的博客文章,探讨了如何「安全地构建、部署和使用人工智能系统」的方法。

OpenAI 致力于保持强大的人工智能安全和(人类社会的)广泛受益。我们的人工智能工具为今天的人们提供了许多好处。

来自世界各地的用户告诉我们,ChatGPT 有助于提高他们的生产力,增强他们的创造力,并提供量身定制的学习体验。

我们也认识到,像任何技术一样,这些工具也有真正的风险――所以,我们努力确保在各个层面上将安全纳入我们的系统。

1. 建立越来越安全的人工智能系统

在发布任何新系统之前,我们都会进行严格的测试,让外部专家参与反馈,努力利用人类反馈的强化学习等技术改善模型的行为,并建立广泛的安全和监测系统。

例如,在我们最新的模型 GPT-4 完成训练后,我们所有员工花了 6 个多月的时间使其在公开发布前更加安全和一致。

我们认为,强大的人工智能系统应该接受严格的安全评估。需要有监管来确保这种做法被采纳,我们积极与政府接触,探讨这种监管可能采取的最佳形式。

2. 从真实世界的使用中学习,以改进保障措施

我们努力在部署前预防可预见的风险,然而,我们在实验室中能学到的东西是有限的。尽管进行了广泛的研究和测试,我们无法预测人们使用我们技术的所有有益方式,也无法预测人们滥用技术的所有方式。这就是为什么我们相信,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的一个关键组成部分。

在有大量的保障措施下,我们谨慎地逐步发布新的人工智能系统,将其推送给一个稳步扩大的人群,并根据我们学到的经验不断改进。

我们通过我们自己的服务和 API 提供我们最有能力的模型,这样开发者就可以直接在他们的应用程序中使用这种技术。这使我们能够监测滥用情况并采取行动,并不断建立缓解措施,以应对人们滥用我们的系统的真实方式,而不仅仅是关于滥用可能是什么样子的理论。

现实世界的使用也使我们制定了越来越细微的政策,以防止那些对人们构成真正风险的行为,同时还允许我们的技术有许多有益的用途。

至关重要的是,我们相信社会必须有时间来更新和调整,以适应能力越来越强的人工智能,而且每个受这种技术影响的人都应该在人工智能的进一步发展中拥有重要的发言权。迭代部署帮助我们将各种利益相关者带入关于采用人工智能技术的对话中,比他们没有亲身经历过这些工具的情况下更有效。

3. 保护儿童

关于安全的一个关键工作是保护儿童。我们要求使用我们的人工智能工具的人必须是 18 岁或以上,或 13 岁或以上并得到父母的批准,我们正在研究验证选项。

我们不允许我们的技术被用来产生仇恨、骚扰、暴力或成人内容,以及其他(有害)类别。我们的最新模型 GPT-4 与 GPT-3.5 相比,对不允许的内容请求的回应率降低了 82%,我们已经建立了一个强大的系统来监控滥用。GPT-4 现在可供 【【微信】】 用户使用,我们希望随着时间的推移,能让更多人使用。

我们作出了很多努力,尽量 减少我们的模型产生伤害儿童的内容的可能性。 例如,当用户试图向我们的图像工具上传儿童安全虐待材料时,我们会阻止这一动作,并向国家失踪和受剥削儿童中心报告。

除了我们的默认安全护栏外,我们还与非营利性的可汗学院等开发商合作--该学院建立了一个由人工智能驱动的助手,既是学生的虚拟导师,也是教师的课堂助手--为他们的使用情况定制安全缓解措施。我们还在开发一些功能,使开发者能够为模型输出设定更严格的标准,以更好地支持那些希望获得这种功能的开发者和用户。

4. 尊重隐私

我们的大型语言模型是在一个广泛的文本语料库上训练出来的,其中包括公开的、授权的内容,以及由人类审查者产生的内容。我们不使用数据来销售我们的服务、广告或建立人们的档案,我们使用数据来使我们的模型对人们更有帮助。例如,ChatGPT 通过对人们与它的对话进行进一步的训练来提高能力。

虽然我们的一些训练数据包括公共互联网上的个人信息,但我们希望我们的模型能够了解这个世界,而不是私人。因此,我们努力在可行的情况下从训练数据集中删除个人信息,对模型进行微调,以拒绝对私人信息的请求,并对个人提出的从我们的系统中删除其个人信息的请求作出回应。这些步骤最大限度地减少了我们的模型可能产生包括私人信息的内容的可能性。

5. 提高事实的准确性

大型语言模型根据它们之前看到的模式,包括用户提供的文本输入,预测、产生接下来的一系列的词。在某些情况下,下一个最有可能的词可能在事实上并不准确。

提高事实准确性是 OpenAI 和许多其他人工智能开发者的一个重要工作,我们正在取得进展。通过利用用户对被标记为不正确的 ChatGPT 输出的反馈作为主要数据来源,我们已经提高了 GPT-4 的事实准确性。与 GPT-3.5 相比,GPT-4 产生事实性内容的可能性增加了 40%。

当用户注册使用该工具时,我们努力做到尽可能透明,即 ChatGPT 可能不总是准确的。然而,我们认识到,要进一步减少出现幻觉的可能性,以及引导公众了解这些人工智能工具目前的局限性,还有很多其他工作要做。

6. 持续的研究和参与

我们认为,解决人工智能安全问题的实用方法是投入更多的时间和资源来研究有效的缓解措施和调整技术,并针对现实世界的滥用进行测试。

重要的是,我们认为,提高人工智能的安全性和能力应该齐头并进。迄今为止,我们最好的安全工作来自与我们能力最强的模型之间的合作,因为它们更善于遵循用户的指示,更容易引导或「指导」。

随着能力更强的模型的创建和部署,我们将越来越谨慎,随着我们人工智能系统的进一步发展,我们将继续加强安全防范措施。

虽然我们为了更好地了解 GPT-4 的能力、好处和风险,等了 6 个多月才将其部署,但有时可能需要比这更长的时间来提高人工智能系统的安全性。因此,政策制定者和人工智能供应商将需要确保人工智能的发展和部署在全球范围内得到有效的管理,没有人会为了尽快取得成功而「偷工减料」。这是一个艰巨的挑战,需要技术和制度上的创新,但这也是我们渴望做出的贡献。

解决安全问题也需要广泛的辩论、实验和参与,包括在人工智能系统行为的界限上。我们已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。

参考资料:

【【网址】】/blog/our-approach-to-ai-safety