庆云古诗词

庆云古诗词

医院是ChatGPT“禁区”?若医生问诊时“求助”AI,患者能接受吗?

互联资讯 0
医院是差额还是全额,医院是差额拨款还是全额拨款,医院是朝九晚五吗,医院是差额还是自收自支
时间:2023年04月25日 07:08:56 中财网
  如果给你开诊断书的不是医生,而是AI,你会接受吗?   就在人们热议以ChatGPT为代表的生成式AI将如何取代人们的工作时,大家发现,医院,似乎成了这类人工智能产品的一个“禁区”。   生成式AI可能掌握比单个医生更多的信息,从而有更多的“经验”,但是,医生的决定往往事关道德,AI很难从道德角度来做决定。   也有医生赞成在医院中使用AI技术的。斯坦福大学医学院教授、曾任拥有超过1200万患者的美国医疗集团Kaiser Permanente首席执行官的Robert Pearl说:   我认为AI对医生来说将比过去的听诊器更重要。任何医生都不该把ChatGPT或其他形式的生成式AI拒之门外。   Pearl认为,ChatGPT可以帮助医生来撰写患者的临床报告、诊断书,甚至在和患者交流遇到困难时向医生提供建议。在他看来,生成式AI对医学发展来说是好事。   医学专业人士希望生成式AI的语言模型可以挖掘数字诊疗档案中的有用信息,或者为患者提供简洁明了的专业解释,但也有人担心这些技术会蒙蔽医生的双眼或提供不准确的回应,从而导致错误的诊断或治疗计划。   开发AI技术的公司已制定了雄心勃勃的进驻医疗行业的计划。去年,微软研究院推出了BioGPT,这是一种在一系列医疗任务上取得高分的语言模型,OpenAI、马萨诸塞州总医院和AnsibleHealth共同完成的一篇论文声称,ChatGPT可以通过美国执业医师执照考试,分数超过及格线60分。几周后,谷歌和旗下的DeepMind的研究人员推出了Med-PaLM,它在同一考试中达到了67%的准确率――这一结果虽然振奋,但谷歌当时表示,“仍然不如临床医生”。微软和全球最大的医疗保健软件供应商之一Epic Systems宣布计划使用支持OpenAI的GPT-4来搜索电子诊疗档案。   研究AI对医疗保健影响的哈佛大学公共卫生讲师Heather Mattie认为,人们需要破除对AI的迷信,即必须认识到AI不可能是100%正确的,并且可能会产生有偏见的结果。她认为,如果有这样的认识,AI将成为医生们很好的助手。   她尤其担忧的是,AI在心脑血管疾病和重症监护方面是否会给出错误答案,对其他临床领域直接应用AI,她也表示担心,因为有时候AI会捏造事实,并且不清楚它所借鉴的信息是否已经过时。因此她认为,如果医生对AI生成的答案不进行事实核查和鉴别,则很有可能出现误诊。   此外,一些伦理学家担心,当医生遇到艰难的道德决定时,比如手术是否能够提高患者的存活率和存活时间,AI未必给出符合伦理的答案。   英国爱丁堡大学技术道德未来中心的伦理学家Jamie Webb说:   医生不能将这种程序外包或自动化给生成式AI模型。   去年,Webb参与的一个团队得出结论,AI系统很难可靠地平衡不同的道德原则,如果医生和其他工作人员过度依赖机器人而不是自己思考棘手的决定,他们可能会遭受“道德去技能化” .   医生们之前曾被告知,AI将彻底改变他们的工作,结果却大失所望。   今年2月,在哈佛大学举行的一次关于AI在医学领域的潜力的讨论会上,初级保健医生Trishan Panch回忆说,当时正是ChatGPT火热之际,他在社交媒体上看到了一份由ChatGPT撰写的诊断书。Panch回忆说,当时兴奋的临床医生很快在会议上承诺在他们自己的实践中使用该技术,但在使用ChatGPT到第20次左右时,另一位医生插话说,该模型生成的所有参考资料都是假的。   尽管AI有时会犯明显的错误,但Robert Pearl仍然非常看好ChatGPT等生成式AI。他认为,在未来的几年里,医疗保健领域的AI语言模型将变得更像iPhone,充满了可以增强医生能力和帮助患者管理慢性病的功能。他甚至认为,ChatGPT这样的AI可以帮助减少美国每年因医疗错误导致的超过25万例死亡。   Pearl确实认为有些事情是AI的禁区。他说,帮助人们应对悲伤和失落的情绪、与家人进行临终对话,以及一些高风险的诊疗手段不应该将AI牵扯其中,因为每个病人的需求都不一样:   那些是人与人之间的对话。   他将ChatGPT比作一名医学生:能够为患者提供护理并参与其中,但它所做的一切都必须由主治医师审查。


鐧藉珫鐜╁瀹炲姏鎺掕 鐧藉珫鐜╁鍥炲綊濂栧姳

藉这个字怎么念,愬藉什么意思,藉这个字读什么?,藉是什么意思?

上一篇我们吐了吐槽,本篇我将谈一谈我对GPT的感想。

? ? ? 初次使用GPT,我觉得这个小可AI真的是非常强大。TA被灌输了大量的数据去学习(据说新版本的模型拥有13亿参数),能对我们的提问作出合理的反应。在这之前,我们最熟悉的AI,也就是siri,TA有一个致命的缺点:记不住“上一句话”,因此没法与TA畅所欲言。相比之下,GPT才是我的梦中情人工智能。下面我们来详细地谈一谈TA的优缺点。

? ? ? 从优点方面来看,GPT最厉害的地方就是它能通过大量的训练数据自学成才,就像阿尔法-Go一样,而且还能生成高质量语句。这种技术能广泛应用在各种场景中,如问答、聊天、翻译等,效果非常好。同时,由于GPT技术具有深度神经网络模型,所以具有较强的“预知”能力,可以对未输入的信息进行一个预测的操作。GPT在专业问题方面的表现也非常棒(参见(上)的:三体问题无解是否表明不可知论是正确的),表现出极强的罗辑能力。还有一点应该很少人知道:TA可以向用户提问(参见(上)的:“反客为主”实验),这一点很有意思,勉强算是一种双向交流了。最后,GPT还能理解双重语义(参见(上)的:“乒乓球拍卖完了”)。如此看来,GPT表现得是很优秀的。

? ? ? ?但GPT并不是完美的,TA也存在一些不足之处。首先,GPT提供的信息中有的经不起深究,也就是说TA给出的信息会有纰漏(参见(上)的:牛逼的名字)。所以查找资料的话还是老老实实地去问度娘吧!然后,TA缺乏深度理解和推理能力,这一点太明显了,盖也盖不住(参见(上)的:深入解读《三体》)。尽管GPT可以生成高质量的语句,但它并没有真正意义上理解这些文本所表达的含义和背景信息。因此,在某些需要深度理解和推理的情况下,GPT会表现出一定的局限性。同时,由于GPT技术是基于大量的数据学习而来,一些错误的数据也可能影响到GPT的输出结果,从而影响到应用的效果和结果。另一方面,在GPT的一部分信息中,有明显的编造现象(参见(上)的:云天明的三个童话),关于这个问题,我认为应该是相关信息输入过少导致的,因为TA曾说:“实际上,《国王的新画师》、《饕餮海》和《深水王子》都不是《三体》中的作品,它们分别是三个不同的作品。”不过,我相信随着GPT的不断学习,这些问题都会被逐个攻破。

? ? ? ? 未来GPT的应用前景依然十分广阔。随着技术的不断发展,它也将逐步克服目前存在的不足。随着深度学习技术的不断发展,GPT将会具备更强的理解和推理能力。同时,随着数据的不断积累和算法的不断优化,GPT模型的性能和效果也有望不断得到提高。

? ? ? 我相信将来GPT还会给我们带来更多的惊喜,让我们的生活更加便利,让我们迎来船新的生活。

如上就是我对本次使用GPT的一些感想,感谢大家的阅读,希望留下一个免费的“赞”哦。