“法眼看世界,行业聚英才”系列论坛第一期之AI 医疗应用的法律与合规风险应对策略成功举办
2025-05-14
2025年4月30日,“法眼看世界,行业聚英才”系列论坛第一期之医药健康篇AI医疗应用的法律与合规风险应对策略在北京德恒律师事务所成功举行。本次论坛由北京德恒律师事务所主办,德恒科学技术业务委员会、网络与数据研究中心共同协办,来自中国政法大学、北京中医药大学以及德恒等40余名专家、学者、律师、司法实务工作人员与会。

沈阳师范大学法学院吴迪副教授首先宣布活动正式开始,他强调2025年是人工智能蓬勃发展的关键一年,而且马斯克曾预言到2029年人工智能将取代大部分基础劳动,这凸显了人工智能在各行业的广泛应用前景。吴迪副教授指出,法律界和医疗界都面临着人工智能带来的挑战与风险,因此北京德恒律师事务所结合热点情况,召开此次论坛,探讨AI医疗应用的法律合规风险应对策略。随后,吴迪副教授介绍了到场嘉宾,包括李润生副教授、王一楠律师、郑飞教授、曾凡恩律师和张韬律师,他们在人工智能、医药健康、法律合规等领域均有深厚的专业背景和实践经验。
主题分享

北京中医药大学法律系李润生副教授以《人机协作的法律形态及过失认定——人类医生与医疗AI的共处之道》为主题发表演讲,探讨了人类医生与医疗AI共处的法律问题。
李润生副教授指出,医疗AI具有重大临床价值,如谷歌的医疗AI可提前约6年发现阿兹海默症,IBM的沃森系统在肿瘤治疗中表现突出,手术机器人也广泛应用。截至2024年12月,我国已批准超100款第三类医疗器械的医疗AI,涵盖多个科室,发展迅速。
但李润生副教授强调,医疗领域中人机协作是基本形态,人类医生不会完全退出。医疗AI的定位是辅助诊疗,不能单独作为临床决策依据。在医疗过失认定方面,医疗AI尚未对实践医疗水平产生实质性影响,其技术仍在快速发展,未形成学术共识。医生使用医疗AI时,需综合分析其他医学素材,独立审慎判断,不能轻信AI诊断意见。医疗AI的“黑箱”属性不影响医生履行谨慎行医义务,其可解释性不是注册必备要素。
最后,李润生副教授总结,目前医疗AI处于辅助诊疗阶段,诊疗主导权在人类医生手中,实践医疗水平认定逻辑未受实质性影响,人类医生不得过度依赖医疗AI,黑箱属性也不构成医疗过失认定的影响因素。

德恒北京办公室合伙人、科学技术专业委员会负责人王一楠律师在《医疗行业的个人信息保护合规审计》分享中指出,随着《个人信息保护法》实施,医疗行业面临严格监管。上海网信办专项检查发现,部分医疗互联网企业在管理制度、安全防护和数据存储环节存在漏洞,如未明确安全负责人、数据存储未加密、接口管理不善等,导致患者信息泄露。这些问题凸显了医疗行业个人信息保护现状的参差不齐。
医疗行业涉及大量敏感个人信息,一旦泄露后果严重。《个人信息保护法》明确医疗健康数据为敏感信息,需更高合规要求。2025年5月3日生效的《个人信息保护合规审计管理办法》为医疗行业合规提供了明确指引。审计方式包括自行审计:大规模(1000万人以上)个人信息处理者至少两年审计一次;处理小于或等于1000万人个人信息定期审计(未明确)。以及三种强制审计的情形:发现风险;侵害权益;100万人个人信息或10万人敏感信息泄露等。重大变更或数据泄露事件发生时,需立即启动专项或应急审计。合规审计不仅是监管部门的强制要求,更是企业自我体检的重要工具,可帮助企业发现潜在风险、提前整改,避免因数据泄露等问题遭受处罚。王律师还提到,合规审计对第三方机构是进入医疗行业合作名单的准入门槛,对企业则是数据价值化挖掘的合规性证明,助力数据交易和上市融资。
王一楠律师最后总结,合规审计是监管要求,更是企业自我保护和发展的工具。在个人信息保护日益重要的今天,医疗行业企业应积极主动开展合规审计,以应对严格监管环境,保护患者个人信息安全。

中国政法大学法学院郑飞教授在《人工智能医疗的损害责任》分享中,从自身经历出发,阐述了参与论坛的多重原因:一是推动新技术法学交叉学科建设;二是所在研究院兼具证据法学与法医鉴定背景,为研究医疗损害问题提供独特视角;三是参与法学会委托的调研项目,聚焦自动驾驶、司法与医疗人工智能的对比研究。
郑飞教授指出,人工智能在医疗领域的应用可分为辅助与主导两大类,类似自动驾驶的分级(L0-L5),责任划分随应用场景变化。在责任主体方面,除医疗机构与医生外,开发者、数据提供者等也可能成为责任主体。责任原则可能适用过错责任或过错推定原则,责任划分则涉及多因一果,需明确各主体的责任比例。郑飞教授还强调,医疗人工智能的分类分级至关重要,不同应用场景(如智能问诊、辅助诊疗、手术机器人)应根据风险等级进行规范,高风险技术需严格限制使用范围。数据安全、隐私保护及商业利用中的财产权益分配问题也不容忽视。
最后,郑飞教授指出,人工智能法的制定需综合考虑不同应用场景的特点,明确责任划分与规范逻辑,既要促进技术发展,又要限制不当应用,确保人工智能在医疗领域应用的安全与合规。

德恒北京办公室合伙人曾凡恩律师在《AI在医疗健康领域的应用、挑战与展望》分享中,结合自身医疗与法律背景,深入探讨了人工智能在医疗领域的应用及其损害责任问题。
曾凡恩律师指出,人工智能在医疗领域的应用广泛,从智能问诊到手术机器人,技术发展带来机遇的同时也带来了新的法律挑战。责任主体更加复杂,除了传统医疗机构和医生,还涉及开发者、数据提供者等,责任划分尚不明确,需进一步规范。在责任原则方面,传统的过错责任和过错推定原则仍适用,但举证责任分配需调整。例如,当人工智能系统出现问题时,患者难以获取数据和算法信息,应考虑举证责任倒置,由开发者或医疗机构承担更多举证义务。
曾凡恩律师还强调,人工智能医疗应用的分类分级管理至关重要。不同应用场景风险不同,应根据风险高低制定相应规范。高风险的手术机器人需严格准入和监管,低风险的智能问诊平台可适当放宽限制。此外,数据安全和隐私保护是关键,医疗机构和开发者必须确保患者数据安全,防止泄露和滥用。对于数据的商业利用,还需明确财产权益分配机制。

德恒北京办公室合伙人、网络与数据研究中心负责人张韬律师在《医药领域人工智能知识产权与数据合规实务热点》分享中,深入探讨医药领域人工智能数字化转型与合规挑战。他指出,医药行业作为数字化转型先行领域,借数字技术赋能研发、生产等环节,但面临严格监管。
张韬律师表示,医药数字化转型体现在技术赋能、推广、体系建设和监管提升四方面。AI虽助力医药发展,但需高质量数据支撑。该转型还推动数据资产流通与知识产权保护,如福州长乐医院影像数据交易,且医药领域人工智能专利申请占比超30%。合规方面,人工智能知识产权与数据合规是热点。其生成内容的版权、专利保护存争议,不过国内保护力度在加强,相关法规要求明确标识生成内容。
张韬律师认为,人工智能在医药领域应用将更广泛,有望深度参与医疗决策等,既能提升医疗效率,也能促进产业发展,呼吁行业重视合规,保障技术健康发展。
吴迪副教授总结指出,本次活动汇聚了法律、医疗与人工智能领域的专家学者,搭建了跨学科交流平台,促进了思想碰撞与行业创新。通过深入探讨AI医疗的法律合规问题,德恒为行业提供了专业见解,推动了AI技术在医疗领域的安全与合规应用。

▲图为其他与会嘉宾
此次活动不仅为行业专家提供了学术交流的机会,也为德恒在相关领域的专业影响力奠定了基础,展现了德恒在前沿法律问题研究与实践中的专业能力。未来,德恒将继续举办系列论坛,拓展更多热门行业议题,为行业发展贡献力量。