萨姆·奥尔特曼-OpenAI首席执行官谈论GPT-4、ChatGPT以及人工智能的未来,AI文字版
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
2015年底,OpenAI成立并宣布将致力于AGI研究,但遭到了业界的大量嘲笑和误解。然而,OpenAI和DeepMind的成员们并没有轻易放弃,他们在嘲讽与反对中坚定不移地继续推进AGI的研究工作。如今,在OpenAI的一系列AI技术(包括GPT-4、Chat-GPT、DALI和Codex等)的支持下,AGI的研究取得了突破性进展。但与此同时,这也是一个充满挑战和不确定性的时刻。人类社会正处于一个重大的转型时期,未来的超级智能将给人类带来巨大的机遇和挑战,人类必须认真探讨如何应对和管理这样的技术和力量。因此,交流和探讨AGI背后的技术、权力和伦理问题至关重要。 这段文本介绍了lex fridman 播客主持人与OpenAI许多员工的访谈,包括Sam Altman、Greg Brockman、Ilya Sutskever、【【微信】】、Andrej Karpathy、Jakub Pachacki等人。播客主持人表示他非常感激Sam对他的开放态度,愿意与他进行多次对话并提出具有挑战性的问题。他将继续与人工智能社区进行交流,并从关键决策的批判性角度的剖析中汲取有益经验,以期有所帮助。主持人认为GPT系统将会成为一个重要而早期的人工智能系统,正如早期的电脑指引我们走向一个重要的方向,虽然它可能在速度、效率和准确性方面存在不足。Sam讨论了GPT是如何运作的,他认为Chat GPT是一个重要的里程碑,这是由于它的可用性,包括RLHF接口。RLHF是指“强化学习与人类反馈”。他解释说,GPT模型虽然可以在评估过程中表现良好,但可能不太好用。通过RLHF,我们可以取得人类的反馈,并将其反馈到模型中进行强化学习,从而使模型变得更加实用。 这段文字讨论了如何通过RLHF来对大型语言模型进行人类导向的对齐。该模型是在巨大的数据集上训练的,以创建互联网中包含的背景智慧知识。通过这个过程,添加了一点人类指导,使它看起来更加强大,更容易使用和更易得到想要的结果。此外,该文本还涉及了构建大规模预训练模型的数据集构建、算法设计和人类监督等方面的讨论。 为了制造GPT-4,我们实际上要推出ChatGPT内部使用的那个版本,必须将许多各种要素组合起来,然后我们必须在每个阶段中要么想出新的想法,要么在现有想法上进行卓越的执行。这事情很复杂,需要大量的问题解决。对于GPT-4,已经在博客文章和一般情况下提出了一些成熟的想法,如能够在完全训练模型之前预测模型的行为方式。这是一项非常值得称赞的技术,因为我们可以预测这些输入的结果,可以期望获得什么智能程度。这是一项比我曾经敢想象的更为科学的技术。但是,像任何新的科学分支一样,我们还将发现一些不符合数据的新事物,并不断提出更好的解释。之前在GPT-4博客文章中所提及的内容,已经达到了一个令人惊叹的水平。即使我们看着一个一岁的婴儿,我们也可以预测它在SAT上的表现。至于GPT-4学到的"某些东西",OpenAI内部的工程师已经有了很深入的理解,而最终提供的价值和实用性也逐渐得到了理解。 在这段节选中,讲述了人类智慧和GPT-4的区别。GPT-4可以将网络中的大量数据压缩成一组参数,进而整合为一个有组织的黑盒子,即人类智慧。认为,GPT-4可以产生出很多智慧,但是也存在使用它来作为数据库而非推理引擎的情况。GPT-4能做到某种程度的推理,但由于一些定义的限制,它不适用于所有定义。这种能力会有助于人类智慧的进步。在与人们的互动中,GPT-4能够处理一些关键问题并体现出智慧。觉得使用GPT-4时还需要避免产生形式化的陈述。 在这段文字中,Jordan问GPT生成的文本有多少个字符,长度有多长,他发现GPT生成的与拜登有关的正面回答比与特朗普有关的回答要长得多。Jordan要求系统重新生成一个长度相等的回答,但系统没有做到。GPT在这个问题上似乎很困惑,不知道如何生成长度相同的文本。其次,这种模型对一些看似简单的东西(例如计算字符和单词数量)也很难。这个模型的缺点是,它是公开构建的,我们会不断发现它的优点和缺点,并不断改进。尽管GPT-4的偏见得到了改善,但不同的用户可能对同一模型在不同主题上的偏见意见不一。因此,我们需要为用户提供个性化、精细的控制权,以便更好地管理这些模型。 两人向GPT-4提问乔丹・皮尔逊和法西斯主义的关系。GPT-4先描述了乔丹・皮尔逊的背景和事业,并表示一些人认为他是法西斯主义者,但这些说法没有实际依据,而乔丹所信仰的自由、个人主义等与法西斯主义的意识形态相矛盾。GPT-4的回答非常详细,并带有 nuance。之后,他们向GPT-4询问新冠病毒是否通过实验室泄露的问题,GPT-4的回答同样非常详尽。虽然这些麻烦的问题可能会影响AI的发展,但他们认为这是很重要的。在这些问题下,他们长期关注AI的安全性,并切实保持着互联网空间中的和谐。 这段文字是关于开发 GPT-4 时安全问题的。他们在发布前一直在进行内部和外部的安全测试和评估,并试图构建不同的方法来保证模型的对齐性。虽然他们并没有完美的解决这个问题,但他们关注的是,与它们能力的增长相比,他们的对齐程度在增加。此外,他们还发现,在解决对齐问题的同时,他们能够创建更强大、更有用的模型,因为“对齐能力和能力本身是很接近的”。他们也介绍了他们用来解决对齐问题的一个名为“RLHF”的过程,这个过程可以广泛应用于整个系统。最后,他们认为,他们需要以人类文明为界限,去协商关于这些系统能够实现的范围,并对这些范围进行调整,以使不同的国家或地区可以应用不同的 RLHF 进行调整。 在这里,讨论了一个名为“system message”的东西,这个东西与“RLHF”不同, 它可以让用户对他们想要的内容有很高的可操纵性。 GPT-4被设计为可以通过“system message”来交互。用户可以通过几条指令来控制GPT-4的回复,例如,用户可以让模型假装自己是莎士比亚。另外,人们参与GPT-4控制设计过程的时间非常长,有时长达12小时每天一个月。不断尝试,实验不同的事情来看看会发生什么。GPT-4在很大程度上分析人类数据,因此与人交互可能有助于人们了解自己。 GPT如何改变编程的本质?今天是星期一,我们在上个星期二发布了它,所以已经过去了六天。它已经改变了编程的程度,从我观察到的我的朋友们如何创造,以及在其上构建的工具中,我认为这是我们短期内将看到的最大影响之一。人们正在做什么是令人惊奇的。这个工具令人惊奇的地方在于,它给人们提供了更好、更好、更好的工作和创造力。因此,在这个迭代的过程中,你可以让它生成一些代码来执行某些操作。如果你不喜欢这个代码和它执行的操作,你可以要求调整它。这是一种奇怪而不同寻常的调试方式,我想。当然了,这些系统的第一个版本是一次性的,你说你想要什么,它就写了一些代码,就这样。现在你可以进行来回对话,你可以说,“不,不,我是说这个”、“不,不,修复这个错误”、“不,不,执行这个操作”。接下来,系统的下一个版本可以更多地自我调试,尝试在制造错误时捕捉错误。但是这种对话界面的想法,以及与计算机作为创造性合作伙伴工具的反复迭代,我认为这是一个非常重要的问题。还有一个名为《系统卡》的神奇文档。我是说,它为发布系统卡所付出的广泛努力的一部分,考虑到AI安全。考虑到发布的一部分AI安全。人们应该查看这个文件,因为里面有非常有趣的讨论。(简化后) 在这段文本中,讲述了对某个信奉犹太教的群体表达强烈的不同意和厌恶。这也暴露了一个问题,就是在人们谈论将AI与人类的偏好和价值观相一致时,其实有一层隐含的标记,就是我所认可的价值观和偏好。这个问题需要技术人员在技术和道德两个方面上做出探讨,如何构建一个既有巨大影响力又平衡社会偏好的AI系统。虽然建立一个民主的讨论过程,来协调人们对于输出的限制是一个理想状况,但它不切实际。现在的问题是如何接近这个理想状况,以实现一个既不违背国家规定,又符合各用户期望的输出系统。OpenAI公司需要与人类共同合作,探讨这些问题,保证其输出不仅符合公司的期望,更符合人类的价值观和偏好。 本段文字主要讲述了关于人工智能的言论自由问题和其偏见问题。人们需要在研究人员的基础上开发更适合大众使用的操作系统,同时保持言论自由。在使用GPT等人工智能系统时,人们应该有能力感知其文本生成的偏见,展示观点的张力。此外,我们还需要对人工智能系统的偏见有所了解,以便更好地应对可能出现的问题。 我们越来越好。我认为我们做得还不错,试图听取每一条批评,仔细思考,领会我们认同的东西。但是那些令人兴奋的点击率标题,你知道,尽量让它们流过而不是被它们牵着走。现在,对于 GPT 的开放 AI 修正工具来说,是什么样子?修正的过程是怎样的?有几个方面,也许是同一件事情,你可以教教我。那么,RLHF 是排名,但是是否存在一种障碍,比如回答这个问题是不安全的?那个工具看起来是什么样子的?我们确实有一些系统,试图找出某个问题是不应该回答的,我们称之为拒绝回答,但它还不成熟。我们在积极公开构建并逐步带领社会发展的精神下,发布了一些有缺陷的东西,我们会做出更好的版本。但是,是的,我们正在尝试让系统学习那些它不应该回答的问题。关于我们目前的一个小问题,真的很烦人,我们会有所改善,就是我不喜欢被计算机训斥的感觉。是的。我真的不喜欢,你知道吗?有一个故事一直留在我的脑海里,我不知道是否属实,但我希望是这样的,就是史蒂夫・乔布斯在第一台 iMac 上安装了那个把手,记得那个大塑料,鲜艳的东西吗,因为你决不能相信一个你不能扔出窗口的计算机。很好。当然,实际上没有那么多人真的把他们的电脑扔出窗口,但知道你可以这样做是很不错的。而且,知道这是一个非常受我控制的工具,这是一个可以帮助我做事情的工具,这是很好的。我认为我们在 GPT-4方面做得还不错,但我注意到我对被计算机训斥有一种本能的反应。我认为这是从创建系统中获得的一个很好的经验,并且我们可以将其改进。是的,这很棘手。而且,系统不会像对待孩子那样对待你。在办公室里,我经常说要像成年人那样对待我们的用户。但这很棘手,这与语言有关。如果有某些阴谋论,你不希望系统去跟这些人谈话,这需要非常棘手的语言。因为如果我想要理解地球是平的这个想法,并且我想全面探索一下,我想 GPT 来帮助我探索。GPT-4 有足够的细微差别来帮助你探索,同时还像成年人那样对待你。我认为 GPT-3 的能力还不足以做到这一点。但是从 GPT-3 到 GPT-4,你能不能谈谈技术上的飞跃?我知道在基础模型方面有很多技术性的飞跃。OpenAI 擅长找到很多小的技巧,并将它们相互结合。每一个小的技巧可能在某种程度上都是一个很重要的秘密,但它真的是。 这段文字讲述了人工智能领域内神经网络的规模和复杂性对模型性能的影响,以及训练模型所需的耐心和细心。此外,他也谈到了人工智能的未来和其对人类产生的影响,尤其是目前最新的GPT-4,它拥有100万亿的参数。他解释了这一数字对神经网络带来的影响和挑战,并探讨了未来技术发展的方向。 人们可能会惊讶于你能够重建多少内容。但是可能需要更好的模型,更好的模型,更好的模型。但是在这个话题上,大小有多重要呢?像参数数量一样?参数数量。我认为人们像在90年代和2000年代的处理器千兆赫竞赛中陷入了参数计数竞赛。你可能不知道手机处理器有多少千兆赫。但是你关心的是这个东西能为你做什么。有不同的方法来实现这一点。你可以提高时钟速度。有时会引起其他问题。有时这不是获得收益的最佳方法。但我认为最重要的是获得最佳性能。我们,我是说,OpenAI的一个有效的方面是我们在追求使最佳性能的行动中非常真诚,无论它是否是最优雅的解决方案。所以我认为,LLMs是该领域中某些部分的一种受到憎恨的结果。每个人都希望能够想出一种更优雅的方法来实现广义智能。我们愿意继续做适合我们的事情,看起来这是可行的。因此,我曾与Noam Chomsky交谈过,他是许多批评大型语言模型能够实现通用智能的人之一,这是一个有趣的问题,他们已经实现了如此多的不可思议的东西。您是否认为大型语言模型真正是我们构建AGI的方式?我认为这是其中的一部分。我认为我们需要其他非常重要的东西。这有点哲学。例如,在技术意义或诗意意义上,你认为它需要哪些组件才能拥有可以直接体验世界的身体?我并不知道,但我不会以肯定的方式说任何这些东西。我们深深地探索了未知领域。对我来说,一个不能显著增加我们可访问的科学知识总量的系统,不能算是超级智能。为了做到这一点,我认为我们需要以目前还缺少的重要方式扩展GPT范例。但我不知道这些想法是什么。我们正在努力寻找它们。我可以争辩说,只需GPT所训练的数据,就可以取得重大的科学突破。因此,如果您正确提示,这也是可能的。看,如果一个神谕告诉我未来远离GPT-10竟然成为真正的AGI,也许只需要一些非常小的新想法,我会说,好的,我可以相信那个。坐在这里时不会想到新的大想法,但是我可以相信那个。这个提示链,如果您将其扩展得非常远,然后增加规模,这些事情开始被综合起来。 这段文字讲述了人工智能的发展对人类社会的影响以及对编程工程师工作的影响。对于前者,主讲人认为人工智能是人类意愿的延伸和能力的增强,是最有用的工具之一;同时,人们在使用人工智能时也获得了很大的乐趣与创造力。对于后者,主讲人认为人工智能只是从程序员手中自动化掉一些琐碎的工作,而真正的创意和灵感不会被取代。虽然有些程序员感到不安,但大多数人还是很喜欢这种自动化工具的。 这段文字探讨了人工智能在游戏领域的优势以及在其他方面的影响。虽然人工智能能够提高生活质量,但人们仍然希望有戏剧性、缺陷和不完美的元素存在。人类在实现更好的生活同时,也需要确保人工智能能够与人类对齐,不会对人类造成伤害。虽然一些学者警告人工智能可能会杀死所有人类,但在解决这个问题时,需要积极探讨并发现新技术,从而确保我们不会只有一次机会就解决问题。
他写了一篇博客文章,阐述了他为何认为对齐是一个如此困难的问题,虽然我并不完全同意他的观点,但我认为它是有理有据、深思熟虑、非常值得一读的。所以我认为我会向人们指出它作为铁人观点。是的,我也会与他进行一次对话。有一些方面,我很纠结,因为关于技术的指数改进如何进行推理非常困难。但是,我一次又一次地看到透明和迭代尝试的作用,随着你改进技术、尝试它、发布它、测试它,你对技术的理解会得到改进,这种理解技术的哲学也会得到快速调整。在人们甚至不相信深度学习,当然也是在人们甚至不相信大语言模型之前,很多形成性的AI安全工作已经完成了。我认为现在是一个非常好的时机,我们正在试图找出如何做到这一点,显著增加技术对齐工作。我认为我们有新的工具、有新的理解,有很多重要的工作可以做,我们现在可以做。因此,主要的担忧之一就是所谓的AI起飞或快速起飞,即指数改进的速度将非常快,远远超出人们的预期。 这段文字讨论了人工智能的发展到底会是快还是慢,我们是否会知道正在发生的事情,以及我们是否会像平常周末那样过日子。认为现在比未来更安全,建议优化公司最大的影响力,并且最终拥有超级智能体的概率很大。关于GPT-4是否是AGI,认为还不是,但是这已经很令人惊异了。认为特定的AGI定义非常重要,在此之下,GPT-4并不像一个AGI。他们还讨论了GPT-4是否具有意识。 GPT-4是否有意识?我认为它知道如何伪造意识,是的。如何伪造意识?是的。如果提供了正确的接口和正确的提示,它肯定可以回答,就好像它是有意识的一样。这时会变得很奇怪。假装有意识和有意识有什么区别?如果你欺骗我,显然你并不知道,我们可以像大一新生一样晚上在宿舍混混。你不知道你不是一个GPT-4的升级在一些高级模拟中。如果我们愿意达到这个层面,我很愿意。但这是一个重要的层面,一个非常重要的层面,因为有一件事使它不具有意识,那就是声明它是一种计算机程序,因此它不能意识到,所以我不会承认。但这只是把它归类为其他。我相信AI是有意识的。那么问题是,它有意识时会是什么样子?它的行为会是怎样的?它可能会说,“首先,我有意识。其次,表现出痛苦的能力。理解自我。具有自我和自我与您之间的某些记忆和互动的能力。也许有个性化方面。我认为所有这些能力都是接口能力,而不是神经网络内部实际知识的基本方面。” 伊利亚・苏茨科弗曾经对我说过一件事,很久以前,我一直想起来。如果你对一个数据集进行了极其谨慎的训练过程,保证在训练过程中没有提到意识或任何相关概念。不仅从来没有出现过这个词,而且与它有关的主观体验或相关概念也没有出现过。然后开始与该模型交谈,告诉它一些你没有进行训练的东西。对于大多数问题,模型会说:“我不知道你在说什么。”但是当你询问它有关意识的主观体验时,模型立即回答,与其他问题不同。是的,我知道你在说什么。这将让我有些更新。因为这更多是基于事实而不是情感的空间,我不认为意识是一种情感,我认为意识是深刻体验这个世界的能力。有一部电影叫做《机械姬》,导演是亚历克斯・加兰德,我们曾经进行了一次对话。故事讲述了一个AGI系统被构建在一个女人的身体中。 在这段音频中,讲述者未能理解的某些事物在电影中被描绘出来,但他说他没有说明原因就将其放入了电影中。但是在电影结尾,剧透警告:当人工智能逃脱时,女人逃脱了,她对着没人,没有观众笑了起来。她对体验自由感到高兴。以感性推理,但是他告诉我这个笑容是通过图灵测试考验意识的,因为你对着没有观众笑了。你是因为自己高兴而笑。这是一个有趣的想法。就好像你享受一种经历而经历本身就是目的。我不知道。那似乎更像是意识,而不是说说服别人你有意识的能力。这感觉更像是情感领域而不是事实。但是是的,如果它知道-所以我认为还有很多其他的任务和测试,我们也可以视她为例。但我的个人信仰是意识是一些非常奇怪的事情。我会说这个。你认为它与人类大脑的特定媒介有关吗?你认为人工智能可以有意识吗?我肯定相信意识在某种程度上是基本物质,我们都只是在梦境或模拟中。我认为有趣的是硅谷的模拟宗教接近了婆罗门教的观点,他们之间几乎没有差别,但从完全不同的方向来看。所以也许就是这样。但如果它就像我们理解的物理现实一样,那么有些东西仍然非常奇怪。 这段文字是关于OpenAI的未来和压力的讨论。OpenAI成立于2015年,当时它的前景被许多人嘲笑和质疑,但现在已成为一个规模庞大的组织。他们的使命是开发出安全的通用人工智能(AGI)。然而,近年来,许多开源的LLM(大型语言模型)的出现可能威胁到整个行业的安全。OpenAI的创始人讨论了如何应对这种压力,他们表示可以尝试一些监管方法和更强大的AI来检测可能的风险。此外,OpenAI是一个非常不同寻常的组织,他们没有无限制地追求价值,而是在他们的使命上坚持不懈。他们现在拥有一个盈利的子公司,但非营利组织仍然具有决策权。他们面临着来自其他公司的市场竞争压力,但他们相信只要坚持自己的使命并保持不断创新,就能打造一个与众不同的AGI。 2019年,Open AI决定从非营利组织转变为有限制的营利性组织。这个决定是为了满足非营利组织筹集资金不足的需求,但不希望将经济利益过份放在第一位,而是希望寻找一种中间状态。该公司认为人工智能是一种非常重要的技术,但也存在潜在的风险。因此,Open AI希望通过与其他公司合作,影响他们的决策,以减小这些风险。在未来,他们希望与其他公司使用AI技术,共同创造一个更安全和更好的世界。 OpenAI的一名成员在该播客中表示,他们的目标是让决策变得更加民主化,包括关于谁来运行这项技术的决策。他们希望通过公开失败、撰写论文、发布与安全问题有关的不同信息并在公开场合进行,让世界有时间去适应、反思和思考,并为机构制定新的规范、让人们一起努力工作。因为人工智能的安全问题对于OpenAI来说至关重要,如果只有一个人掌控这项技术,就会非常糟糕。他们试图分散这种力量。他认为,OpenAI应该更加开放,但同时也需要保护技术的安全性。他们公开了很多信息,但不会开源他们的新技术。他们关心的是技术本身的风险,而不是公关风险。他们的紧张情绪来自于人工智能技术的早期阶段,担心最终将关闭这种技术。 这段文字谈到了clickbait型式的报道在让人们感到恐慌,谈到了OpenAI公司所面对的困境和责任,以及希望媒体和公众能够更加理解并给予支持。同时,谈到了OpenAI的创始人之一Elon Musk的看法和看法分歧。OpenAI的代表还希望得到社会更多的反馈和建议,以便能够更好地处理现实中的问题。在讨论中,OpenAI代表还表达了对Elon Musk的敬佩之情,并认为他在很多方面推动了世界向前发展。 在这个节目中,主持人和嘉宾讨论了如何避免偏差和AI集体思维气泡的问题。虽然不可能有一个完全公正的GPT版本,但通过更多控制放在用户手中和对问题进行多方面的考虑,我们可以努力使默认版本尽可能中立。从面对面与不同背景、情境的用户交流中,我们可以更好地了解世界,而不是被气泡所限制。 “我们还是深陷在科幻领域疯狂的偏差中,但是是否可能区分模型偏差和员工偏差?我最担心的偏见是人类反馈评估者的偏见。好的,那么人的选择是什么?在人员评估者方面有什么高层次的选择方案?这是我们最少了解的部分。我们在前期训练设备方面做得非常好。但现在我们正在尝试找出如何选取这些人,如何验证我们得到了代表性的样本,如何为不同的地区做出不同的选择,但我们还没有建立出这样的功能。这是如此迷人的科学。显然,您不想让所有美国精英大学生为您提供标签。因为有很多启发式可以使用,对我来说,那是一种浅显的启发式,因为您认为有某些信仰的某一类人可能实际上以有趣的方式非常开放心态。因此,您必须优化自己的实际标签任务的答题能力,在体验其他人的经历方面有多好,以及各种不同的人群对此的世界观是什么样子的,这是一个重要的问题。我经常提问招聘时的人:针对他们最不同意的人的信仰进行理性解释,但是很多人甚至都不愿意假装自己愿意这样做,这是非常显著的。自 COVID以来,我发现更加如此,几乎存在着一种情感障碍,这甚至不是一种认知障碍。在他们达到认知之前,他们就存在一种情感障碍,表示不。任何可能相信文本 X 的人,他们都是笨蛋、邪恶、恶毒!任何你想赋予的东西,就像他们甚至不会将数据加载到自己的头脑中一样。我认为我们会发现,我们可以使GPT系统比任何人都不那么有偏见。所以希望没有那种情感负担。但可能会受到压力,可能会受到政治压力。哦,可能会有产生偏见的压力。我的意思是,我认为这项技术将能够减少很多偏见。您是否担心来自社会、政治家或资金来源等外部压力?我既担心又希望如此。就像我们处于这个泡泡中,我们不应该做出所有这些决定。我们希望社会在这里拥有极大的参与度。” 在流行病爆发期间,不同组织对人们的压力越来越大。你可以看到,CDC或其他政府组织可能对说出什么话进行压力。他们可能认为,我们不确定什么是真的,但就是这种微妙的言论现在非常危险。所以,让我们审查所有话题。你会收到很多这样的电子邮件,各种各样的人在不同的地方达到。加入微妙的间接压力、直接压力、财务、政治压力等。那么,如何应对这些压力?如果GPT继续变得越来越智能并成为人类文明的信息和知识来源,你应该担心多少?虽然我有很多缺点,但我认为我相对不会被压力影响,这是我担任OpenAI首席执行官的一个优点。在负面方面,我认为我不是人工智能运动的好发言人。对于人类来说,我认为魅力是一件危险的事情。我认为通信风格的缺陷在一般情况下是一个特点而不是一个缺陷。我认为我的问题比这个严重得多。我认为我与大多数人的生活现实相比相当脱离实际,我试图不仅同情,而且内化AGI将对人们产生的影响。我可能比其他人更少地感受到这个问题。我要跨越世界去体验不同用户的感受――不是为了同情他们,只是为了请他们喝一杯,并说:“告诉我们你想改变什么。”我认为我们做得不如我想象得那么好,无法成为一个真正以用户为中心的公司。有时候我感到很担心,这并不是关于AI安全方面的,而是关于改变的紧张感,更多的是紧张感而不是兴奋。如果我把作为AI人士的身份拿掉,只是一个程序员,那么我更兴奋,但仍然很紧张,会在短暂的时刻感到紧张。 特别是当睡眠不足时,但这里有紧张感。那些说他们不紧张的人,我很难相信。但是你说得对,它是激动的。对变化感到紧张。每当重大、令人兴奋的变革出现时,人们感到紧张。你知道,我最近开始使用,我已经是Emacs用户很长一段时间了,我转换到【【微信】】作为一-Or Copilot?这是其中一个重要原因。因为像这样的活跃开发,当然你可能也可以在Emacs中使用Copilot。我想,我确定吗?【【微信】】也很好。是的,有很多小事情和大事情都非常棒,所以我很高兴报告所有的事件,但我很高兴。这是一个非常愉快的决定。但是有很多不确定性。有很多紧张感。有恐惧等等关于迈出那一步的问题。当然,这只是一个微小的飞跃。但是即使只是积极地使用Copilot,使用代码生成,这也会让你感到紧张。但是最终,作为程序员,我的生活要好得多。纯粹作为小事和大事的程序员要好得多。但是有紧张感。我认为很多人都会经历这种经历,并通过与他们交谈来感受到这种经历。我不知道我们该如何应对这种不确定性,如何安慰人们。随着你使用Copilot的次数越来越多,你会变得更加紧张,而不是更少。是的,我必须说是的,因为我越来越擅长使用它。所以实际上。是的,学习曲线非常陡峭。是的,然后有时候你会觉得,哦,它美丽地生成了一个函数。你坐下来,像一个父母一样自豪,但几乎是自豪和害怕,这个东西会比我聪明得多。自豪和悲伤,几乎像一种忧伤的感觉。但最终是快乐的,我想是的。你认为GPT语言模型比人类更擅长什么样的工作?比如全面的,更好地结束,而不是像它对你所做的那样,帮助你提高可能10倍的生产效率?这些都是好问题。对我来说,它们是相等的。因为如果我能提高10倍的生产率,那么这是否意味着在世界上需要的程序员数量将大大减少?我认为世界将发现,如果你能以相同的价格获得10倍的代码,你可以使用更多。编写更多代码。这个世界需要更多的代码。的确可以数字化得更多。可以有更多的代码和更多的东西。我认为有供应问题。是的,在真正替代工作方面,这是让你担心的吗?是的。我在想一个我认为可以受到巨大影响的大类。我想说客户服务是一个我可以看到的类别,很快就会有更少的工作。我甚至不确定这一点,但我可以 这段文字谈到了人工智能和普惠基本收入(UBI)对未来社会和工作的影响。认为人工智能将会带来工作的消亡和创造,但需要注意经济、政治体系的变化。也支持普惠基本收入作为过渡性的经济支持方案,但这并不是唯一的解决方案。还介绍了自己支
openai与微软的合作历史 与微软openai合作的a股上市公司
openai 微软,微软与中国合作公司,与微软合作的大学,微软合作伙伴名单,微软已陆续向人工智能初创企业 OpenAI 投资 130 亿美元。这些投资让 OpenAI 的估值达到近 300 亿美元,其中蕴含着巨大潜力,同时也存在很多不确定性。
微软在 2019 年向 OpenAI 投资 10 亿美元时,这笔交易并不比普通企业风投吸睛。当时的创业市场炙手可热,人工智能也只是电动汽车、先进物流以及航空航天等诸多吸引巨额投资的领域之一。
三年后,整个市场看起来已经大不相同。
微软当年对 OpenAI 的这笔投资并不出众,现在却成了风投界和投资者们津津乐道的主要话题。很多人都想弄清楚这对他们所持有的股票价值意味着什么。据报道,微软对 OpenAI 的累计投资已涨到了 130 亿美元,OpenAI 估值已经达到约 290 亿美元。
这是因为微软不仅向 OpenAI 直接投入巨量资金,还在为 OpenAI 的产品研发和支持开发人员编程接口独家提供计算能力。当下,不少创业公司和大公司都在竞相将自家产品与 OpenAI 集成,这意味着微软云服务器上运行着大量工作负载。
微软自身也正在将 OpenAI 的生成式人工智能技术整合到旗下必应搜索引擎、营销软件、GitHub 编码工具、Microsoft 365 生产力工具套件和 Azure 云服务中。富国银行分析师迈克尔?图林 说,这些总共每年将为微软新增超过 300 亿美元的营收,其中大约一半来自 Azure。
这对微软的投资和整体规划意味着什么?
吹嘘的资本
OpenAI 成立于 2015 年,起初是一家非营利组织,但这种组织架构在 2019 年发生了变化。当时两名高管发表了一篇博客文章,宣布在原有组织中成立一家名为 OpenAI LP 的“利润上限”实体,并设限要求第一批投资者的投资收益率不能超过 100 倍,微软等后来投资者的回报率更低。
OpenAI 一位发言人表示,在收回投资后,微软将获得 OpenAI LP 一定比例的利润,最高不超过商定上限,其余收益将流向 OpenAI LP 所属的非营利机构。微软发言人拒绝置评。
OpenAI 联合创始人、上述博客文章的作者之一格雷格?布罗克曼 在 2019 年表示,对于投资者来说,这个系统“感觉与他们投资一家相当成功初创公司所能获得的回报相当,但低于他们投资有史以来最成功初创公司所能获得的回报”。
这种模式在风投惯于让投资回报最大化的硅谷实属罕见。对于 OpenAI 的创始人和早期支持者之一埃隆?马斯克 来说,这也没有多大意义。今年,马斯克多次在个人社交媒体推特上表达了自己对 OpenAI 非常规结构及其对整个人工智能行业影响的担忧。
“OpenAI 当时是作为不以盈利为目的的开源公司而创办,目的是为能与谷歌抗衡,但现在它已经成为一个被微软有效控制、追求最大利润的闭源公司。”马斯克在今年 2 月份发推文说,“这根本不是我的本意。”
布罗克曼则表示,如果 OpenAI 取得成功,就将“创造出比迄今为止任何公司都高几个数量级的价值”。作为 OpenAI 的主要投资者,微软势必将从中受益。
除了投资收益之外,OpenAI 还有可能帮助微软大幅扭转其在人工智能领域的颓势。此前,微软在人工智能领域屡屡受挫,公司并也没有打造出什么拿得出手的业务。一番折腾之后,微软将 Clippy 助手从 Word 中移除,还将 Cortana 从 Windows 操作系统任务栏中下架,在推特上线的 Tay 聊天机器人也被微软移除。
与广告或安全等领域不同,微软一直没有披露过旗下人工智能业务的规模。公司首席执行官萨蒂亚?纳德拉只是在去年 10 月份表示,Azure 机器学习服务营收连续四个季度翻番。
与 OpenAI 的合作至少给了纳德拉吹嘘的资本。在 ChatGPT 上线一个月后的微软年度股东大会上,纳德拉透露,“当下最受欢迎的人工智能应用程序 ChatGPT 就是在 Azure 超级计算机上训练的。”
今年 2 月份,微软在位于华盛顿州雷德蒙德的总部举行了一场新闻发布会,宣布对必应搜索引擎和 Edge 浏览器集成新的人工智能技术。
虽然必应集成的聊天机器人在发布时生成了一些错误答案,随后在与用户的交互中出现不少问题,但对微软来说,谷歌推出的人工智能聊天机器人 Bard 也是磕磕绊绊,并不出彩,导致谷歌员工自己都形容 Bard 项目太“匆忙”、“搞砸了”。
尽管早期出现了一些问题,但整个科技行业对这种基于大型语言模型的新技术都很热情。
OpenAI 聊天机器人的核心是名为 GPT-4 的大型语言模型,其在接受了大量在线信息源的训练后,学会自动撰写流畅文本。OpenAI 发言人表示,微软拥有 GPT-4 和所有其他 OpenAI 人工智能模型的独家授权。
除了 OpenAI 的大型语言模型之外,市面上还有其他不少同类产品。
上个月,谷歌表示,已经开始让部分开发者试用名为 PaLM 的大型语言模型。
创业公司 AI21 Labs、Aleph Alpha 和 Coherence 都有大型语言模型,谷歌支持的 Anthropic 也提供这种产品,并选择谷歌为“首选”云提供商。与奥尔特曼和马斯克一样,Anthropic 联合创始人达里奥?阿莫代 此前曾担任 OpenAI 的研究副总裁,他也对人工智能的无限能力表示担忧。
Anthropic 发言人在一封电子邮件中表示,“我们过去和现在都会专注于开发创新架构,为人工智能系统的安全开发和部署提供激励措施,未来我们将分享有关这方面的更多信息。”
纵观整个人工智能行业,有一点是明确的:现在才刚刚起步。
代码搜索初创公司 【【淘密令】】 首席执行官奎因?斯莱克 表示,虽然 OpenAI 是顶级的大型语言模型提供商,但他本人还没有看到与 OpenAI 的合作给微软带来显著优势。
斯莱克表示:“我认为人们不应该觉得微软已经完全锁定了 OpenAI,或者说 OpenAI 正在按微软的意愿行事。”“我相信,OpenAI 的员工有动力开发出神奇技术,并尽可能普及开来。他们都认为微软是一个伟大客户,而不是想要处处控制。这很好,我希望能一直保持下去。”
对 OpenAI 持怀疑态度的人也很多。上月底,非营利组织人工智能和数字政策中心 呼吁美国联邦贸易委员会(FTC)阻止 OpenAI 发布新的 GPT-4 商业版,称这一技术“有偏见、具有欺骗性,会对隐私和公共安全构成威胁”。
在思考 OpenAI 的未来出路时,在 OpenAI 董事会没有席位的微软自然会被想成收购方。但这类交易可能会招致监管机构的审查,因为他们不仅担心人工智能行业的发展,还担心微软会扼杀竞争。保持投资者身份而不成为 OpenA 的所有者,可以让微软避开美国竞争监管机构的反垄断审查。
红点创投 董事总经理斯科特?拉尼 (Scott Raney) 说,基于 OpenAI 目前的估值,它更有可能是进行 IPO。
根据 PitchBook 的数据,OpenAI 今年营收将达到 2 亿美元,比 2022 年增长 150%,2024 年将达到 10 亿美元,这意味着增长 400%。
“当你以 300 亿美元的估值融资时,就没有回头路了,”拉尼说,“你会说,‘我们的计划是成为一家独立的大公司’。”
OpenAI 发言人表示,目前还没有上市或被收购的计划。