近年来,AI大模型如DeepSeek在医疗领域的应用迅速扩张,中国多家医院正加速推进DeepSeek大模型本地化部署,从辅助诊断到科研分析,展现出惊人的潜力。 |
大模型在医疗领域涉及20余个省份的超百家三级医院,如北京大学第一医院、上海第六人民医院等。这一基于深度学习和大数据分析的技术,广泛应用于临床、科研、医院运营管理等数十种医疗场景,尤其在临床应用上表现亮眼。
首都医科大学三博脑科医院神经外科主任张宏伟分享过一个案例:一位经过多次治疗但肿瘤仍未得到控制的复杂脑瘤患者,张宏伟将其情况发给DeepSeek,仅18秒,它就给出全面且包含最新临床试验的方案,其水平被评价至少相当于省级三甲医院专家。
陆军军医大学新桥医院的“新桥DeepSeek”智能体,能在大模型加持下精准解答复杂医学问题、辅助病例分析;
湖南省人民医院也提出,未来AI将深度参与临床决策支持、病历质控等场景。
不过,医疗数据极为敏感,包含患者基因数据、病史记录等隐私信息。一旦泄露,后果不堪设想。DeepSeek的“开源”特性引发担忧,开源代码的不可控性可能引入后门程序或安全漏洞,增加数据泄露和系统被攻击的风险。
目前,医院采用本地化部署定制开发的方式使用DeepSeek,既能保证医院数据不外流,又能用专业真实医疗数据训练模型,为患者提供更专业咨询。
但保护患者隐私仍是难题,传统匿名化方法存在弊端,需要更精细化的脱敏算法。
随着数据量增加,大规模数据的存储、传输和处理也面临挑战,平衡数据处理效率与安全性有待进一步探索。若发生信息泄露,医疗机构通常需承担主要责任,且责任划分可能涉及多方。
AI参与医疗,必须遵循人类医疗伦理框架。要坚守医生终审权、患者知情权、技术可溯性这三大底线。
医生终审原则早有规定,如原卫生部印发的规范、国家卫健委发布的监管细则等,都明确人工智能辅助诊断不能替代医师诊断和开具处方。
在保障医生终审权的同时,建立医生与AI的和谐互动关系至关重要。
研究显示,AI虽强大,但医生若不能熟练掌握,其作用受限。所以,完善教育培训制度等,突破人对AI的信任危机迫在眉睫。
我国现阶段人工智能辅助医疗侵权案件在医疗损害责任认定方面,多采用以过错责任原则为中心的传统认定方式。
患者需证明医疗机构或医务人员存在过错,医疗机构则需证明已审慎使用AI技术。
当AI自主决策时,因其“黑箱”特性,决策过程不透明,追溯错误原因困难,易导致医疗机构和开发者互相推诿责任,影响医务人员履行告知和再判断义务。而且,责任划分涉及多方,目前缺乏统一分担标准。
若人工智能辅助医疗工具被界定为医疗器械,责任认定需遵循《产品质量法》《医疗器械监督管理条例》等法规。
DeepSeek的归类取决于其具体功能和应用场景,若参与诊断或在治疗中起关键作用,就可能按医疗器械规定审批监管。产品存在缺陷时,生产者承担无过错责任,医疗机构若未履行合理使用义务,也可能承担补充赔偿责任。
总体而言,现有医患关系结构未变,医疗机构仍是损害赔偿责任主体。
在笔者看来,AI是好东西,但得先搞定三件事:把患者数据锁死、明确AI只能当助手、明确好责任认定的规矩。技术跑得再快,也不能把医疗的本质给跑丢了,最后还得回归到"治病救人"这个根本目的上来。