庆云古诗词

庆云古诗词

openai推出gpt-4手机版 openai公布gpt-4

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

OpenAI推出GPT4,OpenAI推出GPT-4,将能解答更难问题,OpenAI推出GPT-4 可以更准确地解决困难问题,OpenAI推出GPT-4碟组词

GPT-4 在其前身 GPT-3 的基础上,对很多方面做了关键性的改进。例如提供了更多真实的声明,并允许开发者更容易设计其风格和行为。同时,GPT-4 也是多模态的,它可以可以接受图像作为输入并生成标题、分类和分析。

但 GPT-4 也有局限性。和 GPT-3 一样,该模型对事实产生了 "幻觉",并出现了基本的推理错误。chatgpt 在自己的博客上举了个例子, GPT-4 将“猫王”埃尔维斯?普雷斯利(Elchatgpt)描述为 "一个演员的儿子",但事实是他的父母都不是演员。

当被问及如何比较 GPT-4 和 GPT-3 时,格雷格?布罗克曼说了一个词:与众不同。他解释到:“尽管 GPT-4 还存在很多问题和错误,但绝对与众不同,你可以看到其在微积分或法律等技能方面的提升。虽然它曾在某些领域表现很糟糕,但现在已经达到超越常人的水准。”

测试结果验证了格雷格?布罗克曼的观点。在高考微积分考试中,GPT-4 得了 4 分, GPT-3 得了 1 分,而介于 GPT-3 和 GPT-4 之间的中间模型 GPT-3.5,得了 4 分。

在分析 GPT-4 的能力时,chatgpt 还让该模型参加了统一律师考试、法学院入学考试(LSAT)、研究生入学考试(GRE)的定量、口头推理、分析写作考试以及和各种 AP 科目考试等测试。结果显示,GPT-4 在大多数这些专业和学术考试中表现与人类水平相当。这意味着,如果 GPT-4 是一个仅凭应试能力来判断的人,它可以进入法学院,而且很可能也能进入许多大学。

这是因为 GPT-4 是在图像和文本数据上训练的,而它的前身只在文本上训练。chatgpt 说,训练数据来自 "各种合法授权的、公开可用的数据源,其中可能包括公开可用的个人信息",但当被问具体细节时,格雷格?布罗克曼避而不谈。(训练数据曾使 chatgpt 陷入法律纠纷)。

超强优势:图像理解能力

GPT-4 有超强的图像理解能力。例如,输入提示“这张图片有什么好笑的?GPT-4 会将整张图片分解,并正确地解释了这个笑话的笑点。

chatgpt 在其文本到图像转换系统 Dall-E 2 上也遇到了类似伦理困境。在最初禁用该功能后,chatgpt 允许客户上传人脸,用 AI 驱动的图像生成系统对其进行编辑。当时,chatgpt 声称,其安全系统的升级使面部编辑功能成为可能,因为它将深度造假以及试图创建性、政治和暴力内容的潜在危害降到最低。

另一个长期问题是防止 GPT-4 在无意中被用于可能造成伤害的方式使用。在该模型发布几小时后,以色列网络安全初创公司 Adchatgpt 发布了一篇博客,演示了绕过 chatgpt 的内容过滤器并让 GPT-4 生成钓鱼电子邮件、对同性恋者的攻击性描述以及其他令人反感文本的方法。

在语言模型领域,这并不罕见。Facebook 母公司 Meta 的聊天机器人 BlenderBot 和 chatgpt 的 ChatGPT 也曾被诱惑输出不恰当的内容,甚至透露了其内部工作的敏感细节。但包括记者在内的许多人都希望,GPT-4 可能会在这方面带来重大改进。

当被问及 GPT-4 的稳健性时,布罗克曼强调,该模型已经通过六个月的安全培训。在内部测试中,与 GPT-3.5 相比,它对 chatgpt 的使用政策不允许的内容请求的回应率降低了 82%,对 "事实 "的回应率提高了 40% 。

布罗克曼说:"我们花了很多时间试图了解 GPT-4 的能力,我们不断地进行更新,包括不断改进,这样模型就更有扩展性,以达到人们希望它拥有的任何个性或模式。"

不足之处

坦率地说,早期的现实测试结果并不是那么让人满意。除了 Adchatgpt 测试之外,微软的聊天机器人 Bing Chat 也被证明非常容易受到越狱影响。使用精心设计的输入,用户能够让该聊天机器人表达爱意,发出威胁伤害,为大屠杀辩护和编造阴谋论。

布罗克曼并不否认 GPT-4 在这方面的不足,但他强调了该模型的缓解性转向工具,包括被称为“系统”消息的 API 级功能。系统消息本质上是为 GPT-4 的交互设定基调并建立界限的指令。例如,一条系统消息可能是这样写的:“你是一位总是以苏格拉底风格回答问题的导师。你永远不会给学生答案,而是总是试着提出正确的问题,帮助他们学会独立思考。”

我们的想法是,系统消息充当护栏,防止 GPT-4 偏离轨道。布罗克曼说:“真正弄清楚 GPT-4 的语气、风格和本质一直是我们关注的焦点。我认为我们开始更多地了解如何进行工程设计,了解如何拥有一个可重复的过程,让你得到对人们真正有用的可预测结果。”

布罗克曼还提到了 Evals,这是 chatgpt 最新的开源软件框架,用于评估其 AI 模型的性能,这是 chatgpt 致力于“增强”其模型的一个标志。Evals 允许用户开发和运行评估 GPT-4 等模型 的基准测试,同时检查其性能,这是一种众包的模型测试方法。

布罗克曼说:“通过 Evals,我们可以更好地看到用户关心的用例,并可以对其进行测试。我们之所以开源这个框架原因之一是我们不再每隔三个月发布一个新模型以不断改进。你不会制造你不能测量的东西,对吧?当我们推出新版模型,我们至少可以知道发生了哪些变化。”

布罗克曼还被问道,chatgpt 是否会补偿人们用 Evals 测试其模型?他不肯承诺,但他确实指出,在有限的时间内,chatgpt 允许选定的 Eevals 用户提前访问 GPT-4 API。

关于未来:GPT-4 的另一个版本

布罗克曼的谈话还谈到了 GPT-4 的上下文窗口,指的是模型在生成其他文本之前可以考虑的文本。chatgpt 正在测试 GPT-4 的另一个版本,它可以 "记住 "大约 50 页的内容,是普通的 GPT-4 所能容纳内容的 5 倍,是 GPT-3 的八倍。

布罗克曼认为,扩大的上下文窗口会带来新的、以前没有探索过的应用,特别是在企业中。他设想了一个为公司打造的 AI 聊天机器人,利用来自不同来源的各部门的员工的背景和知识,以一种非常明智但具有对话性的方式回答问题。

这不是一个新概念。但布罗克曼提出的理由是,GPT-4 的答案将比今天的聊天机器人和搜索引擎的答案有用得多。他说:“以前,模型根本不知道你是谁,你对什么感兴趣等。而有了更大的上下文窗口肯定会让它的能力变强,从而更好的为人们提供服务支持。”

? 微软 chatgpt 全家桶被 GPT-4 革新:Word 一键变成 PPT,打工人的春天来了!

? 文心一言来了!李彦宏:百度是全球大厂中第一个做出来的!

?Google 工程主管:AIGC 将在三年内终结编程!

发布于:北京市

openai宣布将推出gpt4 openai推出gpt-4人工智能时代

openai最新消息,openai dall e,openai baseline,open aip

创建ChatGPT的公司背后的首席执行官认为,人工智能技术将重塑我们所知的社会。他认为它会带来真正的危险,但也可能是“人类迄今为止发展出的最伟大的技术”,可以极大地改善我们的生活。

“我们在这里必须小心,” OpenAI首席执行官萨姆奥特曼说。“我认为人们应该为我们对此有点害怕而感到高兴。”

Altman 坐下来接受 ABC 新闻首席商业、技术和经济记者 Rebecca Jarvis 的独家采访,谈论GPT-4 的推出――AI 语言模型的最新版本。

在接受采访时,Altman 强调 OpenAI 需要监管机构和社会尽可能地参与 ChatGPT 的推出――坚持认为反馈将有助于阻止该技术可能对人类造成的潜在负面影响。

他补充说,他与政府官员保持“定期联系”。

ChatGPT是一种AI语言模型,GPT代表Generatichatgptrmer。

仅在几个月前发布,它已被认为是历史上增长最快的消费者应用程序。该应用程序在短短几个月内就达到了 1 亿月活跃用户。

相比之下,根据瑞银的一项研究,TikTok 用了九个月才达到这么多用户,而 Instagram 用了将近三年。

虽然“不完美”,但根据 Altman 的说法,GPT-4 在统一律师考试中得分为第 90 个百分位。它还在 SAT 数学测试中取得了近乎满分的成绩,现在它可以熟练地用大多数编程语言编写计算机代码。

GPT-4 只是朝着 OpenAI 最终构建通用人工智能的目标迈出的一步,即当 AI 跨越一个强大的阈值时,这个阈值可以被描述为通常比人类更聪明的 AI 系统。

尽管他庆祝自己产品的成功,但 Altman 承认 AI 可能的危险实施让他彻夜难眠。

“我特别担心这些模型可能会被用于大规模的虚假信息,”Altman说。“现在他们在编写计算机代码方面做得越来越好,[他们] 可以用于攻击性网络攻击。”

Altman没有分享的一个常见的科幻恐惧:不需要人类的人工智能模型,它们自己做出决定并策划世界统治。“它等待有人给它输入,”Altman说。“这是一种非常受人类控制的工具。”

然而,他说他确实担心哪些人可以控制。“会有其他人不设置我们设置的一些安全限制,”他补充说。

“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何监管,如何处理。”

2017 年开学第一天,俄罗斯总统弗拉基米尔・普京 (chatgpt) 告诉俄罗斯学生,无论谁在人工智能竞赛中领先,都可能“统治世界”。

“所以这肯定是一个令人不寒而栗的声明,”Altman说。“相反,我希望的是,我们不断开发出越来越强大的系统,我们都可以以不同的方式使用这些系统,将其融入我们的日常生活,融入经济,并成为人类意志的放大器。”

对错误信息的担忧

根据 OpenAI 的说法,GPT-4 与之前的迭代相比有了巨大的改进,包括将图像理解为输入的能力。演示展示了 GTP-4 描述某人冰箱里的东西、解决难题,甚至阐明互联网模因背后的含义。

目前只有一小部分用户可以使用此功能,包括参与 Beta 测试的一群视障用户。

但根据 Altman 的说法,ChatGPT 等 AI 语言模型的一个持续问题是错误信息:该程序可以为用户提供事实上不准确的信息。“我最想提醒人们的是我们所说的‘幻觉问题’,”Altman说。“该模型会自信地陈述事物,就好像它们是完全虚构的事实一样。”

根据 OpenAI 的说法,该模型存在这个问题,部分原因是它使用演绎推理而不是记忆。

OpenAI 首席技术官 Mira Murati 告诉美国广播公司新闻:“我们从 GPT-3.5 到 GPT-4 看到的最大差异之一是这种新兴的更好推理能力。”

“我们的目标是预测下一个词――由此,我们看到了对语言的理解,”Murati 说。“我们希望这些模型能像我们一样看待和理解世界。”

“考虑我们创建的模型的正确方法是推理引擎,而不是事实数据库,”Altman 说。“它们也可以充当事实数据库,但这并不是它们的特别之处――我们希望它们做的是更接近于推理能力,而不是记忆能力。”

Altman 和他的团队希望“随着时间的推移,这个模型将成为这个推理引擎,”他说,最终能够使用互联网和它自己的演绎推理来区分事实和虚构。

根据 OpenAI 的说法,GPT-4 产生准确信息的可能性比其之前的版本高 40%。

尽管如此,Altman表示,依赖该系统作为准确信息的主要来源“是你不应该使用它的地方”,并鼓励用户仔细检查程序的结果。

防范不良行为者

ChatGPT等AI语言模型所包含的信息类型也一直备受关注。例如,ChatGPT 是否可以告诉用户如何制造炸弹。

根据 Altman 的说法,答案是否定的,因为编码到 ChatGPT 中的安全措施。

“我担心的一件事是……我们不会成为这项技术的唯一创造者,”奥特曼说。“会有其他人不对我们施加的一些安全限制加以限制。”

根据 Altman 的说法,针对 AI 的所有这些潜在危害,有一些解决方案和保护措施。其中之一:让社会在风险较低的时候玩弄 ChatGPT,并学习人们如何使用它。

Murati 表示,目前,ChatGPT 向公众开放主要是因为“我们正在收集大量反馈”。

随着公众继续测试 OpenAI 的应用程序,Murati 表示,识别需要保护措施的地方变得更加容易。

“人们用它们做什么,还有它的问题是什么,缺点是什么,以及能够介入 [和] 改进技术,”Murati 说。Altman 表示,让公众与每个版本的 ChatGPT 进行互动非常重要。

“如果我们只是秘密地开发这个――在我们这里的小实验室里――然后制造出 GPT-7,然后一下子把它投放到世界上……我认为,这是一个有更多不利因素的情况,”

Altman 说。“人们需要时间来更新、做出反应、习惯这项技术,[并]了解缺点在哪里以及可以采取哪些缓解措施。”

关于非法或道德上令人反感的内容,Altman 表示他们在 OpenAI 有一个政策制定者团队,他们决定将哪些信息输入 ChatGPT,以及允许 ChatGPT 与用户共享哪些信息。

“[我们]正在与各种政策和安全专家交谈,对系统进行审计,试图解决这些问题,并推出我们认为安全和好的东西,”Altman 补充道。“再一次,我们不会在第一次就做到完美,但吸取教训并在风险相对较低的情况下找到优势非常重要。”

人工智能会取代工作吗?

这项技术的破坏性能力令人担忧的是工作的替代。Altman 说这可能会在不久的将来取代一些工作,并担心这会发生多快。

“我认为经过几代人的努力,人类已经证明它可以很好地适应重大技术变革,”Altman 说。“但如果这种情况发生,你知道,在个位数的年数中,其中一些转变,这是我最担心的部分。

但他鼓励人们更多地将 ChatGPT 视为一种工具,而不是替代品。他补充说,“人类的创造力是无限的,我们找到了新的工作。我们找到了新的事情要做。”

“我认为在几代人的时间里,人类已经证明它可以很好地适应重大技术变革,”Altman 说。“但如果这种情况发生在个位数年内,其中一些转变......这是我最担心的部分。”

根据 Altman 的说法,ChatGPT 可以用作人类工具的方式超过了风险。

Altman说:“我们都可以在口袋里拥有一位为我们量身定制的不可思议的教育者,它可以帮助我们学习。” “我们可以为每个人提供超出我们今天所能获得的医疗建议。”

ChatGPT 作为“副驾驶”

在教育领域,ChatGPT 引起了争议,因为一些学生用它来作弊。教育工作者对这是否可以作为他们自己的延伸,或者是否会阻碍学生自学的动力感到困惑。

Altman说:“教育将不得不改变,但随着技术的发展,这种情况已经发生了很多次,”他补充说,学生将能够拥有一种超越课堂的老师。“让我最兴奋的其中一个是提供个人学习的能力――为每个学生提供很好的个人学习。”

在任何领域,Altman 和他的团队都希望用户将 ChatGPT 视为“副驾驶”,即可以帮助您编写大量计算机代码或解决问题的人。

奥特曼说:“我们可以为每一个职业都做到这一点,我们可以拥有更高质量的生活,比如生活水平。” “但我们也可以拥有我们今天甚至无法想象的新事物――所以这就是承诺。”

本文转载自快科技。本站转载此文目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容,本网站对此声明具有最终解释权。