医院买卖小程序
自从谷歌推出的人工智能(AI)“alphago”连续战胜世界最顶尖围棋高手柯洁、李世石等之后,具有深度学习功能的AI如同核当量级爆炸一般在产业界、资本界引发巨澜。最近半年以来,“人工智能+某某”频出媒体:人工智能+医疗,人工智能+法律,人工智能+会计,人工智能+教育.....,以上尤以人工智能+医疗最为引人注目,谷歌在停止开发人工智能围棋项目之后,率先进入的领域也是医疗领域。
医疗领域最易开展人工智能应用的是图像分析。图像分析在医疗诊断中有特殊地位,许多疾病的诊断依靠图像,如皮肤病图谱,眼底病图谱,病理显微图片,X线、CT、MRI、B超成像,心电图,等等。现有图像数据分析的分辨力可以达到0.01mm,与医疗图像的肉眼分辨水准相当,如果结合人工智能的深度学习功能,以机器代替人类进行图像的医学诊断不是没有可能。据最近的几篇文章披露,人工智能在特定疾病的图像诊断如肺结节的CT诊断、甲状腺癌乳腺癌的病理诊断、单导联的心律失常心电图诊断等方面,已经达到或接近一名普通主治医生的诊断水平。需要注意的是,具有深度学习功能的人工智能的基本特征是自我学习,也就是只要通过人工标注教会了电脑识别特征性标志的能力,当基础数据达到一定程度比如100万张图谱时,电脑可以脱离人类而不断自我学习、自我否定,无限接近正确水平。所谓自我学习,亦即电脑可以自我创造海量的新的疾病图谱,这种创造可能达到每天数百万张图谱,比如可以创造出现有疾病图谱库里不曾有过的肺结节CT图像,然后对照既往的图像数据而进行自我诊断、自我修正,这种自我创造、自我修正能力当然有利于疾病的诊断。不排除,AI在自我学习中创造出来的某一张肺结节CT图像恰好符合未来某一个病人的肺CT特征,并提前作出诊断,也就是未卜先知。未卜先知,我不知道人类能否做到,但至少在某些领域,电脑可以做到。这其中的哲学玄机,偏离了本文主题,我无意再深究下去。
获得学习能力的AI,其诊断水平可以在短时间内光速提高,现有临床规培、专培的培养速度与之完全不能比拟。AI系根据概率而作出诊断,比如某个肺结节CT图像符合中央型肺癌的概率达到90%即诊断为肺癌,某个心电图图谱符合预激综合征的概率达到99%而诊断为预激综合征,或者某个图谱不具有任何现有疾病特征而从概率上排除疾病而诊断为无明显异常或符合正常。这种依据概率作出的诊断符合一般临床医学规律,临床影像医生的诊断往往也描述为“印象是.....”,“考虑为......”,”符合.....”,””......病的可能性大”,这其实亦是一种概率,只不过是人为估算、心证的概率,因此AI的诊断达到一定标准时,完全可以、也应当替代医生的诊断,否则开发人工智能诊断失去价值。
既然AI诊断是一种医学诊断,可直接代替医生应用于临床,则直接影响病人的生命健康,因此法律规制殊显重要。作为一名医疗诉讼专业律师,我认为考察AI诊断的法律原则时,至少应包括以下四个问题:
一、做出AI诊断的主体在法律上是人(医生)还是物(医疗器械)?
二、AI诊断进入临床应用的法律标准是什么?
三、AI诊断出现缺陷或医疗过失的判断依据是什么?
四、AI诊断发生医疗损害,谁应承担法律责任?
其中第一个问题最基本也最重要,因为在法律上明确了AI诊断的主体身份时,其他的如AI诊断的准入条件、缺陷或过失标准、法律责任等等均迎刃而解;又AI诊断只是AI在医学上的应用之一,弄清了AI诊断的法律原则,其他医学应用也触类旁通,纲举而目张。
一 AI诊断的法律主体是人(医生)还是物(医疗器械)?
-- 既是人也是物
AI是人还是物?这是一个非常深奥的哲学问题,恐怕穷尽人类现有智慧也难以回答这个问题。如说是物,可是AI又具有其他物包括高等动物所不具备的智能功能;如说是人,可是AI不过是一堆人类制造的电子或者量子元器件,即使将来出现以DNA等生物分子作元器件的AI,亦不过是一堆人为的物质聚合体,目前没有任何证据证明除人类之外,其他人为的无机、有机复杂聚合体达到一定的复杂性时能够产生智慧。
为什么对AI的定义如此困难?依我看根本原因在人类自己,人类不知何时,将世界二分成人与物或者身与心,此二分法将人、物对立,身、心对立,在法律上更是有人格权法、物权法,以及人、物相混的合同法。倘若人类智慧更进一步,认识到人、物不能分,身、心不能分,人即是物,物即是人,身即是心,心即是身,则对AI的认识不至如此困惑:AI既是人,也是物;或者一定条件下是人,一定条件是物。我相信,随着人工智能的迅猛发展,必将改变人类对人自身的根本认识,包括对肉体、对意识的根本认识,很多我们习以为常的观念将出现颠覆性改变。
所以,我的建议,现有法律可以视AI既是人,又是物;或者在一定条件下视AI为人,一定条件下视AI为物。何为一定条件,端看AI的具体应用场景。其实在生物医学领域,法律上视某种实体既是人、又是物的情况并不鲜见,比如体外受精卵,离体的待移植的有功能的器官等,将之简单定性为物不妥,将之简单定性为人也不妥,只能在一定法律条件下定性为物,在另一法律条件下又定性为人,方能在法律上圆润妥帖。下面再回到本文主题--人工智能诊断。
首先,人工智能诊断不同于X光机、CT仪、心电图机等医疗仪器所打印出来的一张张胶片或图纸(这些胶片、图纸离了医生的分析与诊断,并无任何医疗上的价值),而是实实在在的具有医疗价值的诊断结论,这些诊断结论是经由AI分析医疗大数据,经由归纳、演绎等逻辑推理(深度学习算法)而得出的,实际相当于一名有经验的医生运用医学知识、逻辑分析而得出的结论。AI的诊断实质等同于医生的诊断,可直接用于判断疾病性质而指导治疗;同样,AI的误诊相当于医生的误诊,比如AI将某一个肺CT结节诊断为肺癌 ,然后医生按肺癌进行了手术,可是术后病理显示(注意,这个术后病理亦可用AI诊断)患者所患并非肺癌而是良性结节,显然AI发生了误诊,此等误诊并非机器读写错误或机械误差,而是对疾病性质的智能判断出现了错误,这个错误相当于诊断医生的错误。
因此人工智能诊断的主体在法律上首先应视为一个人或一个医生作出的诊断,应以类似医生的资质要求而要求其准入条件,当其作出误诊时应以诊疗常规、规范而判断其是否存在医疗过失。当然鉴于人工智能诊断的设计有其特殊性,其具体的准入条件、过失判断标准亦有其特殊性,下文再述。
其次,人工智能诊断毕竟是由机器作出的诊断,这个机器所使用的诊断系统、算法是由人设计的,受人所控制,尽管其在一定条件下能够脱离人的控制而自我学习、自我提高,但这个能够自我学习、自我提高的基础能力仍是由人所赋予的,因此人工智能诊断的主体在法律上亦应视为物即医疗仪器作出的诊断,有关医疗仪器的法律适用于人工智能,比如《医疗器械管理条例》所规定的临床试验、注册制度,比如《产品质量法》关于产品安全的规定、产品缺陷的定义、产品责任的规定等等都应适用于人工智能诊断设备。
二 AI诊断进入临床应用的法律标准是什么?
--最佳医疗水平标准
如前文分析,AI诊断的法律主体既是人(医生),也是物(医疗器械),因此其进入临床应用的法律标准应当分别适用人即医生的标准和物即医疗器械的标准。
(未完待续)
作者:刘牧樵 时间:2026-04-22 08:18:41 文章来源:原创
作者:刘牧樵 时间:2026-04-21 08:11:36 文章来源:原创
作者:刘牧樵 时间:2026-04-20 08:14:50 文章来源:原创
作者:刘牧樵 时间:2026-04-19 11:14:59 文章来源:原创
作者:刘牧樵 时间:2026-04-17 16:18:30 文章来源:原创
作者:刘牧樵 时间:2026-04-16 10:20:40 文章来源:原创