回望2023年,当GPT-4在美国执业医师资格考试(USMLE)中横扫高分时,硅谷乃至全球科技界都在为之沸腾,医疗AI的前景仿佛已是一片坦途,充满了无限可能。
然而时光荏苒,仅过数载,医学界的权威声音却给这股热潮浇了一盆冷水:有顶级专家明确表态,坚决反对AI深度介入医院核心病历系统。
率先发出警示信号的是复旦大学附属华山医院感染科主任张文宏。作为在临床一线深耕多年的医学专家,他的忧虑直击技术落地的本质:年轻医生必须经历高强度的专业训练,才能拥有判断AI产出结果对错的底气。
图片来自:深圳卫视
张文宏并非盲目排斥新技术,他坦言自己也会利用AI处理海量病历以提升效率。但他强调,资深专家能“一眼识破”AI的幻觉或错误,而年轻医生若跳过基础积累,直接套用AI得出的诊断结论,将永远无法理解医疗决策背后的严谨逻辑与潜在风险。
对此,正在大模型赛道疾驰的百川智能创始人王小川持有截然相反的观点。他公开“反对张文宏的反对”,认为这种担忧背后隐藏着深层的利益冲突。
图片来自:凤凰V现场
在王小川看来,AI触动了部分医生的“职场蛋糕”。他认为医生受限于晋升机制,往往将教研置于临床服务之前,而AI则是真正以患者为中心的。他甚至暗示,过度依赖医生可能会受限于其效率与利益考量,而AI才是优化医疗流程、减少误诊的最佳路径。
这种“屁股决定脑袋”的论战,实质上反映了技术激进派与临床务实派的根本分歧。尽管王小川强调AI应服务于患者,但在医疗这一生命攸关的领域,简单地用大模型取代人类决策,显然低估了诊断过程的复杂性。
不可否认,AIx医疗确实是一块蕴含巨大价值的肥肉,引得全球科技巨头纷纷入局试探。
近期,OpenAI推出了ChatGPT Health,通过整合多维健康数据提供分析建议。虽然已有超过2.3亿用户尝试通过ChatGPT获取健康咨询,反映出巨大的市场需求,但OpenAI表现得非常克制,反复强调其产品仅为日常保健建议,绝非专业医疗诊断。
紧随其后的Anthropic也发布了Claude For Healthcare。即便Claude模型表现优异,其定位依然是“辅助者”和“连接器”,旨在帮助医护人员提取标准库信息,或协助患者总结病史、解读报告,其核心目标是提升医患沟通的效率,而非取代医生的诊断权。
在激进派阵营中,马斯克的Grok走得最远。马斯克坚信AI能瞬间博览整个人类医学文献库,掌握最前沿的疗法,在诊断准确率上人类将无法与其匹敌。
他甚至亲身示范,将个人影像资料交给Grok识别,并宣称其结果优于传统医生。这种极度依赖AI的行为,恰恰印证了张文宏对“判断力丧失”的担忧。
事实上,医疗界对技术的这种“依赖病”早有研究。在放射科引入CAD(计算机辅助检测)系统初期,就曾出现过明显的“自动化偏差”。
早在2004年的研究就发现,一旦CAD系统发生漏标,放射科医生的检测敏感度会大幅下降。2020年的一项皮肤癌研究进一步证实,当AI给出错误诊断时,缺乏经验的医生更容易被误导。实验证明,AI与医生的“协作诊断”才是当前的最优解,而非单方面的技术取代。
张文宏等专家能瞬间识别AI的误导,是因为他们脑海中沉淀了数十年的真实病例。若年轻一代从起步阶段就将决策权让渡给AI,那么医学传承的基础将不复存在。
此外,生成式AI目前普遍存在“过度自信”的特征。它能够以极其严谨、甚至伪造文献引用的语气,一本正经地输出错误的医学建议,这种“完美幻觉”对于缺乏专业知识的普通人来说极具杀伤力。
图片来自:小红书
我们要分清“治病”与“保健”的边界。对于饮食、运动等低风险的健康管理,AI是绝佳的伴侣;但涉及严谨的医疗诊断,AI的作用更多应当是缓解症状、争取就医时间,而非终结决策。
作为健康的最终负责人,人类不应跳过自身判断力的培养。将决策权完全交给算法,本质上是在放弃生命的主导权。
本文由主机测评网于2026-03-23发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260332502.html