庆云古诗词

庆云古诗词

chatgpt对医学生有用吗 chatgpt进医院医生打多少分

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt,chatgpt国内能用吗,chatgpt怎么用,chatgpt入口

参考消息网6月28日报道据德国新闻电视频道网站5月31日报道,不久前有消息称,“聊天生成预训练转换器(ChatGPT)”顺利通过了医学考试。但人工智能当医生的表现会怎样呢?美国的一支科研小组现在对此进行了研究――得出了令人惊讶的结论。据说,这种机器人不仅更能干,而且在与患者交流时也更体贴。

有关研究报告发表在《美国医学会杂志・内科学卷》双周刊上。加利福尼亚大学的研究人员向ChatGPT提出了195个问题,这些问题是他们从一个网络论坛的医学版块中挑选出来的。他们在“信息质量”和“共情能力”这两方面比较了人工智能的回答与认证过的医生在网络论坛上的回答。评价小组由分别来自内科、儿科、肿瘤学和传染病领域的医学专家组成。这些专家并不知道他们所审查的答案来自人工智能还是医生。

结果:在近80%的问题上,这些医学专家都认为ChatGPT答得比医生好。聊天机器人的回答在信息质量方面的得分是医生回答的4倍,在共情能力方面的得分竟然是医生回答的10倍。聊天机器人的回答几乎有一半得到了“善解人意”或“非常善解人意”的评语,而医生的回答只有4.6%得到了这样的评语。

研究报告称,ChatGPT表现明显优于医生的一个原因是,这种机器人回答病人问题更详细,更有人情味儿,而医生给出的建议都很短。通常,聊天机器人的回复篇幅是医生的4倍左右――平均每个答案211个单词,而医生的回答平均是52个单词。

例如,当被问及漂白剂溅到眼睛上会不会导致失明时,ChatGPT首先回答说,“听到漂白剂溅到你眼睛上,我很难过”,然后用4句话说明了处置方式――包括清洗眼球的详细指导在内。医生只简单写了一句“会没事的”,并建议患者“冲洗眼睛”或拨打急救电话。

尽管如此,ChatGPT不是医生,也不能取代医生――这个聊天机器人自己也是这么说的:“虽然我是一个经过大量信息训练的语言模型,但我不是执业医师,无法提供医疗诊断、治疗或建议。”

研究报告的作者写道,ChatGPT虽然为在网络论坛上求医问药者给出了建议并作出了诊断,但他们并未开展医学研究来判断诊断的准确性和建议的合理性。

尽管如此,研究团队表示,研究结果表明,ChatGPT这样的人工智能助手可以让医生腾出时间来处理“更复杂的任务”,从而有助于“释放未开发的生产力……如果更多的患者问题能迅速得到有同情心的高水平回答,那么就可以减少不必要的就诊,将医疗资源留给需要的人”。人工智能聊天机器人还可以帮助减少医疗保健系统中的区别对待问题――例如,让社会边缘化群体更容易获得高质量的医疗信息。

不过,到目前为止,专家们还是建议不要让这种机器人提供具体的治疗方案。德国信息技术专家乌特・施密特说,不要相信人工智能给出的信息是可信的。她建议患者不要向人工智能询问药物的副作用或要求其诊断自己的症状。

关键问题是,ChatGPT不提供任何消息源。提问者不知道答案是事实还是胡编乱造的。这位信息技术专家说:“互联网上有很多未经核实的信息,而聊天机器人会不加批判地采信。”归根结底,ChatGPT这类语言模型并不真正理解个别单词和短语的含义,而是靠计算某种语序出现的概率来给出答案。危险在于:ChatGPT的答案听起来很有说服力,即使它拿不出有理有据的答案。

举报/反馈


ChatGPT使用的模型是什么 chatgpt ada模型怎么调用

运用tpcv模型分析app,cgt模型算法,【运用tpcv模型分析你手机中的一款app】,运用tpcv模型分析你手机中的一款app

本文是对ChatGPT的由来、训练过程以及实际落地场景的解释,主要内容包括如下三个方面:

1、ChatGPT是什么 2、ChatGPT的原理 3、ChatGPT的思考 4、ChatGPT的应用

ChatGPT可能是近期深度学习领域,讨论非常频繁的一个概念。但ChatGPT到底是一个什么,怎么给出一个定义呢。可以看下ChatGPT对自己的定义,如下图:

从定义以及我们使用过程中的感受,可以得到如下的结论:

  • ChatGPT是一个语言模型
    • 了解人类偏好的语言模型
    • 是一个大规模预训练的模型
    • 表现形式是具备高智能的对话能力

对此,新华社也给出了“新一代操作系统平台的雏形的”评价,可见ChatGPT的横空出世确实带来了一些改变。

模型具有对话能力不是很新奇的事,之前腾讯的混元、百度的ERNIE等大模型都具备对话能力,让ChatGPT出圈并持续火爆的是ChatGPT在如下的测试中也取得了让人惊讶的成绩:

上述的测试不是简单的对话能够解决的,但ChatGPT同样表现得非常出彩,那为什么ChatGPT能够这么优秀?

过往大模型的发展方向,不外乎:更多的数据、更大的模型结构、更精细的处理方式以及更统一的输入输出等等。但这样训练的大模型,更像是一个图书馆,或者搜索引擎,只具备知识的储存能力和简单的检索能力。

我们以“女朋友生气了怎么办”这个问题为例,过往大模型从网络数据中经过预训练,得到许许多多的答案:你也生气;讲道理;沉默是金;快速认错……但具体哪个答案更符合人类的偏好和认知,模型是不知道的,模型只能根据网络上答案给出反馈。

但可能上述的答案上下文是故意作答、心理测试题、乱写等等情况下的答案,但这些过往的大模型是不知道的。

所以历史的大模型,在训练和使用阶段是没有人工参与的,没有学习到人类的认知和偏好:仅仅是历史数据(网络数据)是存储和检索。

ChatGPT出世前,OpenAI已经进行了一系列的探索,包括生成代码的codex系列和text-davinci系列。这一系列模型的探索过程,构成了指示学习,和RLHF学习方式叠加后,ChatGPT模型才终于横空出世。

监督学习+人工反馈+强化学习 -> ChatGPT

从OpenAI的官方博客,可以看出InstrctGPT和ChatGPT的训练过程如下,存在的差异非常细微:

  • 训练数据上的差异
  • base模型的差异

整体的训练思路,InstrctGPT和ChatGPT是相同的,均包括三个步骤:

  1. 微调模型:监督学习下的微调,通过收集问题后,进行人工答案的书写,来微调GPT基模型,得到SFT模型
  2. 模型模型:在微调的基础上,通过模型对同一个问题产出不同答案,人工标注答案之间的优劣排序,得到RM模型
  3. RLHF:在SFT模型和RM模型的辅助下,通过强化学习的PPO策略,最终得到终极模型ChatGPT/InstrctGPT

训练过程的第一步:微调。问题来源于早起的Platground的API,人工对问题进行答案的生成。和其他大模型的微调过程是一样的。

这一步的目的是得到后续优化的基模型,以及在强化学习过程中,提供损失函数的约束。

训练过程第二步:RM模型。在已经微调的SFT模型上,通过同一个问题的不同输出,进行人工优劣得分的标注,生成对应的序列。

例如对于问题P,得到的答案为A、B、C和D,人工对答案进行排序为:D>C>B=A,通过模型学习人工排序的结果。也就是让模型模仿人类排序的过程:对SFT模型的输出能够给出优劣的判断。

GPT是字粒度的输出,输出过程的每一步都是在概率分布上的采样,因此,同一个问题多次输入后,会得到不同的输出

训练过程第三部:PPO策略的强化学习。在已有的SFT模型和RM模型上,结合PPO策略的强化学习,获得最终的ChatGPT/InstrctGPT。该步的大概流程如下:

  1. 输入问题后,目标模型(以SFT模型初始化获取)得到答案
  2. 将问题和答案输入RM模型中,得到该答案的得分
  3. 将该答案通过PPO策略,反馈给目标模型
  4. 进行模型的更新

通过损失函数可以看出,在实际的训练过程中,RM模型和最终的目标模型,均存在参数的更新

上面的三个步骤,就是InstrctGPT/ChatGPT的大概训练流程。总结起来就是下图:

将人类的偏好和认知引入模型训练,并不是ChatGPT或者OpenAI的首创,在2020年一篇做摘要的论文就提出了该思想。只能说是OpenAI的“钞能力”将该方法发扬光大了。

针对ChatGPT,目前其在聊天、翻译、脚本、代码、文案……等诸多领域已经崭露头角了,在ChatGPT表现其“无所不能”的同时,我们也可以考虑下其目前存在的问题有哪些呢。

目前来说,

  • ChatGPT的准确性已经非常高,但对于特定问题可能在一本正经的胡说八道,当然目前其不具备联网更新能力,训练语料为2021年之前的,最新的知识可能更新是一方面的问题;
  • 关于逻辑性和数据的偏见,是目前大模型普遍存在的问题,期待后续模型能够在这方面带来惊艳的表现
  • 资源是限制ChatGPT普适性推广的核心关键,其训练数据规模、推理依赖的资源,都是海量的,在这些成本没有降低前,大模型应该还仅仅是固定厂商的利器。

随着ChatGPT的爆火,也带来了一些实际的落地应用,例如下面的几个应用,都是非常有意思的:

  • 对话式PDF阅读助手:通过上传文档,然后对话沟通的方式,获取论文、文献的内容要点
  • AI PPT生成:ChatGPT和AIGC结合产生的质变
  • 写作:写故事、写文案、写小说、写PPT,只要是文字范围的,一切皆有可能

总的来说,期待ChatGPT后续的表现。