庆云古诗词

庆云古诗词

open ai 创始人聊人工智能 open ai 消灭人工智能

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


  OpenAI创始人:越接近通用人工智能,我们就越谨慎

  来源:华尔街见闻 卜淑情

  Altman认为,AGI的能力强大得超乎想象,应用不当可能对社会造成灾难性的后果,因此必须更加谨慎创建和部署AGI模型,有意放慢其发展速度,帮助世界以更平稳、更渐进的方式向AGI时代过渡。

  近些日子状况百出的AI顶流ChatGPT引发了背后公司OpenAI创始人的一些反思。

  上周,OpenAI首席执行官Sam Altman在公司官网公布了对通用人工智能(AGI)当下和后续规划。AGI专注于研究像人一样思考并从事多种用途的机器。

  在文章中,Altman承认AGI技术能够帮助人类的创造性实现质的飞跃,但他更担心,AGI的能力强大得超乎想象,应用不当可能对社会造成灾难性的后果。

  因此,Altman认为必须更加谨慎创建和部署AGI模型,有意放慢其发展速度,帮助世界以更平稳、更渐进的方式向AGI时代过渡,比如,通过部署低版本的AGI来适应更加复杂的环境,或者对产品的应用进行限制等等。

  AGI应用的三个原则

  Altman在文中列出了OpenAI最关心的AGI应用的三个原则:

1. 我们希望AGI能让人类在宇宙中最大限度地繁荣发展。不期望未来的世界是个不合格的乌托邦社会,但希望最大化好处,最小化坏处,让AGI成为人类的放大器。

2. 我们希望广泛和公平地分享AGI的好处、获取和治理。

3. 我们希望成功应对巨大风险。在面对这些风险时,理论上看似正确的事情在实践中往往表现得比预期的更奇怪。我们认为必须通过部署功能较弱的技术版本来不断学习和适应,尽量减少“一次性成功”的情况。

  越接近AGI,越谨慎

  短期来看,Altman认为OpenAI应为AGI时代的到来做好准备,他建议,更加谨慎的创建和部署模型,对AGI应用范围进行限制,并对某些重大问题展开全球对话。

  Altman写道:

首先,随着我们不断建立功能更强大的系统,我们希望部署它们并获得在现实世界中操作它们的经验。我们相信,这是谨慎管理AGI的最佳方式――逐步过渡到一个有AGI的世界要比突然过渡好。我们期望强大的AI能使世界更快进步,我们认为最好是逐步适应这一点。

我们目前认为,成功应对AI部署挑战的最佳方法是建立一个快速学习和谨慎迭代的紧密反馈循环。社会将面临AI系统被允许做什么,如何消除偏见,如何处理工作岗位流失等等的重大问题。最佳决策将取决于技术的发展路径,就像任何新领域一样,迄今为止大多数专家的预测都是错误的。这使得脱离实际进行规划非常困难。

随着我们的系统越来越接近AGI,我们对模型的创建和部署越来越谨慎。我们的决定需要比社会通常对新技术的应用更加谨慎,也比许多用户所希望的更加谨慎。

其次,我们正在努力建立日益具有一致性和可控性的模型。我们从GPT-3的第一个版本到DirectGPT和ChatGPT的转变就是一个早期的例子。

特别是,我们认为社会在AI的应用方面达成一致是非常重要的,但在这些范围内,个人用户有很大的自由裁量权。我们最终希望,世界各机构就这些宽泛的界限定义达成一致; 在较短期内,我们计划对外部投入进行试验。世界各机构需要增加能力和经验,为关于AGI的复杂决定做好准备。

我们产品的“默认设置”可能会受到很大限制,但我们计划让用户更容易改变他们使用的AI的行为。我们相信赋予个人自主决策的权力以及思想多样性的内在力量。

随着我们的模型变得更加强大,我们将需要开发新的对齐(alignment)技术(并且在现有技术失败时候进行理解测试)。我们的短期计划是使用AI来帮助人类评估更复杂模型的输出和监控复杂系统,长期计划是使用AI来帮助我们提出更好的对齐技术的新想法。

重要的是,我们认为必须在AI的安全性和能力方面均取得进展。把两者分开讨论是错误的,它们在许多方面是相互关联的。最安全的系统来自能力最强的模型。也就是说,提高安全进步与能力进步的比率很重要。

第三,我们希望就三个关键问题展开全球对话: 如何治理这些系统?如何公平分配它们产生的好处?以及如何公平共享访问?

除了这三个领域之外,我们还试图建立一种结构,使我们的激励措施产生良好的结果。我们的章程中有一个条款,即协助其他组织提高安全性,而不是在AGI开发的后期阶段与他们竞争。

我们对股东获得的回报设置了一个上限,这样公司就没有动力去自由地榨取价值并冒险部署一些具有潜在灾难危险性的东西(当然也是作为一种与社会分享利益的方式)。

我们认为发布新系统之前进行独立审计诸如此类的做法很重要,我们将在今年晚些时候讨论更多细节。

  关键时刻减速可能很重要

  展望更远的未来,Altman认为,为了防止AGI对世界造成灾难性的打击,必须对AGI模型的建立进行更严格的审查,遇到重大决策时应该进行公共咨询。

我们相信,人类的未来应该由人类决定,与公众分享进步的信息很重要。应该对所有试图建立AGI的行为进行严格审查,并就重大决定进行公共咨询。

第一个AGI将只是智力连续体上的一个点。我们认为,从那里开始进步还将继续,速度可能会在很长一段时间内以我们过去十年中看到的那样保持。如果这是真的,世界可能会变得与今天截然不同,风险也可能会非同寻常。如果一个超级智能的AGI发生错位,可能会对世界造成严重伤害,一个拥有决定性超级智能领导的专制政权也具有同样的杀伤力。

我们认为较慢的起飞速度更容易保证安全,AGI在关键时刻减速可能很重要(即使在一个我们不需要这样做来解决技术调整问题的世界里,减速对于给社会足够的时间来适应可能也很重要)。

成功地过渡到一个拥有超级智能的世界,或许是人类历史上最重要、最充满希望、最可怕的项目。成功远非板上钉钉,利害关系(无限的风险和无限的好处)将有望把我们所有人团结起来。

  风险提示及免责条款

  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。



openai创始人谈未来社会发展 openai孵化的人工智能巨头

openai创始人谈未来十年,open的创始人是谁,openai公司上市了吗,openai 官网

chatgpt创始人:人工智能开源是不理智的行为

3月17日消息,人工智能公司chatgpt最近表示,他们不会开源他们最新的人工智能模型GPT-4,因为人工智能开源是不明智的行为。chatgpt创始人Ilya Sutskever表示,这些模型非常强大,随着人工智能性能的不断提升,它们有可能会被滥用,给社会带来巨大的风险和威胁。他认为保护公众利益至关重要。chatgpt的CEO Sam Altman也提出了类似的观点,指出对人工智能工具进行监管是必要的,因为世界可能离可怕的人工智能工具并没有那么远。

chatgpt是一个一直秉承互联网开源精神的公司。但是,从GPT-3.5开始,他们不再像以前那样开源他们的人工智能模型。这一决定让人们开始质疑chatgpt的策略。在此次采访中,Sutskever解释了chatgpt不开源的原因,并强调了保护公众利益的重要性。

Sutskever指出,人工智能的发展给人们带来了很多便利,但同时也存在滥用风险。他认为,通过不开源模型,chatgpt可以更好地控制使用它的人数,从而减少可能的滥用行为。他还表示,人工智能的性能不断提升,保持秘密也是有原因的。

据ITBEAR科技资讯了解,此次采访中,Sutskever还谈到了chatgpt的下一步计划,称他们将会持续投入更多资源,研发更先进的人工智能技术,以帮助人们解决更多实际问题。他表示,chatgpt将会在保护公众利益的前提下,推动人工智能的发展和应用。

总的来说,chatgpt不开源GPT-4的决定是出于保护公众利益和防止滥用的考虑。这一决策表明,chatgpt意识到人工智能可能带来的风险和威胁,并愿意采取措施来解决这些问题。同时,他们仍然致力于研发更先进的人工智能技术,以帮助人们解决更多实际问题。