互联网

医联MedGPT丨“诊断”直播测评!治疗方案与真人医生96%一致

来源:互联网    作者:      2023年08月07日 16:49

导语:

据消息,医联研发的国内首个医疗大模型:MedGPT,已经在“接诊”患者了。

不可否认的是,MedGPT还有些问题需要调整,几位专家指出它会出现偶尔过度给出治疗建议、重复推荐检查项目、某些概念表述不准确,以及无法实现查体等局限——要想MedGPT更加可用,这些意见一定程度比正面评价还要重要。

但总的来说,首个医疗大模型的公开首秀的结果还算不错。

总结下来,首先是大模型的基本能力都有,语义理解、多轮对话、多模态识别等,还能像OpenAI那样通过插件商店链接到各种行业应用。

还有通用大模型被广为诟病的对齐和准确性问题,MedGPT整个流程结果也不输真人医生。

再从行业维度来看,确实能真正从医学角度为医生提供有效帮助,提升患者疾病管理效率。

此次真实测试过程中可以看到,它能基于有效问诊以及医学检查数据,MedGPT得以进行准确的疾病诊断,并为患者设计疾病治疗方案。

甚至在诊后,MedGPT还会在患者收到药品后进行用药指导与管理、智能随访复诊、康复指导等智能化疾病管理工作。

目前它基本覆盖ICD10的60%疾病病种,这意味着常见病症都能Hold住还能7*24小时不间断干活,一旦规模化落地辅助医生诊疗,能大大提升医疗效率,对于分级诊疗,医疗资源普惠,都能够发挥一定作用。

首个医疗大模型如何炼成?

医疗向来是AI落地中专业性最强、壁垒性最高,对安全要求最高的领域之一。

以往用户们会习惯性使用信息搜索来帮助自己做一些初步的疾病判断,但信息鱼龙混杂,普通用户缺乏专业知识无法进行有效筛选,最终导致往往会收效甚微。

但又因为这个领域牵涉到每个人的生命健康,市场需求和社会价值一直很大。

因此自ChatGPT诞生以来,关于何时能在医疗领域“上岗”发挥作用,就备受产学研各界专家的关注。

诚如“弱智吧”成为检验各个通用大模型能力的Benchmark一样,各个大模型的医疗能力也在美国执业医师资格考试USMLE中摩拳擦掌。

早些时候, 哈佛大学教授曾亲自下场测试ChatGPT辅助诊断的表现。

结果显示,ChatGPT在45个案例中39个诊断正确,并为30个案例提供适当的分诊建议。这样的表现已经超过现有机器诊断水平,接近医生。

另一个代表,谷歌健康团队打造的Med-PaLM 2,它能回答各种医学问题,据称是首个在美国医疗执照考试中达到专家水平的大语言模型。

但能做题并不能意味着就能落地应用。

以GPT-4为首的通用大模型,他们高度依赖文本统计概率生成答案。相信大家也能感知到它很擅长一本正经地胡说八道,如果应用在日常交流,倒也乐在其中。

但要是应用到行业中去,往往非专业人士会难以察觉,这就会引发各种风险,尤其又像医疗这种民生行业,对内容生成的把控要求更高,容不得半点差池。

更不用说医疗本身覆盖知识面广而繁杂,而且从整个就医流程来看,诊前、诊中、诊后都涉及各种各样长尾任务,所需高质量数据可能并不比通用模型小,且大部分数据不是靠网上摘取。

这对企业来说,不单只是算法、算力和数据的考验,而是一整套系统工程性难题。

既然如此,作为国内首个医疗大模型MedGPT,又是如何做到的呢?

简单总结:专业大模型,以及多种准确性机制保架护航。

首先,一上来就打造医疗大模型。

此前专业大模型的思路是,先打造一个大模型,再利用专业数据做监督微调。但MedGPT直接是以医疗数据预训练、微调以及超100名医生参与RLHF机制。

这就需要企业既要在垂直行业深耕,还要有AI技术实力。这就需要提及它背后的缔造者——医联。

在行业上,作为互联网医疗的早期入局者,医联已经积累了超过150万医生和2000万患者,稳固的医患关系链长期互动之下,形成了大量专业的医学数据。


(文章为作者独立观点,不代表艾瑞网立场)
  • 合作伙伴

  • 官方微信
    官方微信

    新浪微博
    邮件订阅
    第一时间获取最新行业数据、研究成果、产业报告、活动峰会等信息。
     关于艾瑞| 业务体系| 加入艾瑞| 服务声明| 信息反馈| 联系我们| 合作伙伴| 友情链接

Copyright© 沪公网安备 31010402000581号沪ICP备15021772号-10

扫一扫,或长按识别二维码

关注艾瑞网官方微信公众号