gpt-4发展到什么程度了 gpt-4创造的20件最不可思议事情
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
今天,OpenAI带来了全面进化的GPT-4,相较此前的GPT-3.5,新模型在准确度等方面存在相当显著的提升。
但AI毕竟还是AI,OpenAI也明确表示,现阶段的GPT-4并不完美,在一些方面依旧存在问题。
比如,在GPT-3.5中就存在的,AI"胡编乱造"问题,到了GPT-4,也依旧存在。
在新版本中,AI依旧会编造事实,并且事实方向也不一定总是可靠的,由于系统不知道什么是真的,什么是假的,它们可能会生成完全错误的文本。
对此,OpenAI表示,"它倾向于坚持认为它是正确的,即使它错了",这导致它有时仍然会输出完全错误的结果。
比如在被要求提供描述最新癌症研究的网站地址时,GPT-4甚至会生成不存在的互联网地址,用来佐证并不正确的结论。
来源:快科
gpt-4为何提升这么快 gpt-4真的那么神奇吗
gpt升高的原因,gpt很高,gpt升高,gpt/l人工智能公司 OpenAI 本周推出了GPT-4,这是为其流行的聊天机器人 ChatGPT 提供支持的大型语言模型的最新版本。
该公司表示,GPT-4 包含重大改进――它已经以其创建类人文本并从几乎任何提示生成图像和计算机代码的能力震惊了人们。研究人员表示,这些能力有可能改变科学――但有些人感到沮丧的是,他们还无法获得该技术、其底层代码或有关其训练方式的信息。
科学家们表示,这引起了对该技术安全性的担忧,并使其对研究的用处降低。
1 被列为研究论文的作者?许多科学家不赞成
“目前有一个等候名单,所以你现在不能使用它,”阿姆斯特丹大学的心理学家 Echatgpt 说。但她看过 GPT-4 的演示。“我们观看了一些他们展示能力的视频,这令人震惊,”她说。
她回忆说,一个例子是一个网站的手绘涂鸦,GPT-4 用它来生成构建该网站所需的计算机代码,作为处理图像作为输入的能力的演示。
但是,科学界对 OpenAI 对模型的训练方式和训练数据及其实际工作方式的保密感到失望。“所有这些闭源模型,它们本质上都是科学的死胡同,”开源 AI 社区 HuggingFace 专门研究气候的研究科学家 Sasha Luccioni 说。“他们可以继续他们的研究,但对于整个社区来说,这是一条死胡同。”
2 “红队”测试
罗切斯特大学的化学工程师安德鲁・怀特 (Andrew White) 以“红队队员”的身份获得了使用 GPT-4 的特权:
OpenAI 雇用一名人员来测试该平台,试图让它做一些不好的事情。他说,在过去的六个月里,他一直在使用 GPT-4。与之前的迭代相比,“在流程的早期,它似乎并没有什么不同”。
他向机器人询问制造化合物需要哪些化学反应步骤、预测反应产率以及选择催化剂。“起初,我实际上并没有留下深刻的印象,”怀特说。“这真的很令人惊讶,因为它看起来很逼真,但它会在这里产生一个原子的幻觉。它会在那里跳过一步,”他补充道。
但是,作为他的红队工作的一部分,当他允许 GPT-4 访问科学论文时,情况发生了巨大变化。“这让我们意识到这些模型可能并没有那么好。但是当你开始将它们连接到 Internet 上,使用诸如逆合成计划器或计算器之类的工具时,突然之间,就会出现新的能力。”
伴随这些能力而来的是担忧。例如,GPT-4 是否允许制造危险化学品?怀特说,根据怀特等人的意见,OpenAI 工程师将反馈反馈到他们的模型中,以阻止 GPT-4 创建危险、非法或破坏性的内容。
3 输出虚假信息
输出虚假信息是另一个问题。Luccioni 说,像 GPT-4 这样的模型,可以预测句子中的下一个单词,无法治愈产生虚假事实――称为幻觉。“你不能依赖这些模型,因为有太多的幻觉,”她说。
这在最新版本中仍然是一个问题,尽管 OpenAI 表示它提高了 GPT-4 的安全性。
在无法访问用于训练的数据的情况下,OpenAI 对安全的保证对 Luccioni 来说是达不到要求的。“你不知道数据是什么。所以你不能改进它。我的意思是,用这样的模型做科学研究是完全不可能的,”她说。
GPT-4 是如何训练的谜团也是 chatgpt 在阿姆斯特丹的同事、心理学家 Claudi Bockting 关心的问题。“作为一个人,很难对你无法监督的事情负责,”她说。“其中一个担忧是,它们可能比人类自身的偏见要严重得多。” Luccioni 解释说,如果无法访问 GPT-4 背后的代码,就不可能看出偏见可能起源于何处,也无法对其进行补救。
4 伦理讨论
Bockting 和 chatgpt 还担心这些人工智能系统越来越多地被大型科技公司拥有。他们希望确保该技术得到科学家的适当测试和验证。“这也是一个机会,因为与大型科技公司的合作当然可以加快流程,”她补充道。
chatgpt、Bockting 和他的同事在今年早些时候提出,迫切需要制定一套“实时”指南来管理人工智能和 GPT-4 等工具的使用和开发方式。他们担心任何围绕人工智能技术的立法都将难以跟上发展的步伐。Bockting 和 chatgpt 于 4 月 11 日在阿姆斯特丹大学召开了一次邀请性峰会,与来自教科文组织科学伦理委员会、经济合作与发展组织和世界经济论坛等组织的代表讨论这些问题。
怀特说,尽管存在担忧,但 GPT-4 及其未来的迭代将撼动科学。“我认为这实际上将是科学领域的巨大基础设施变革,就像互联网是一个巨大的变革一样,”他说。他补充说,它不会取代科学家,但可以帮助完成一些任务。“我认为我们将开始意识到我们可以将我们使用的论文、数据程序、图书馆与计算工作甚至机器人实验联系起来。”
原文标题:GPT-4 is here: what scientists think
本期图片均来源于Google