sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法学研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 网络治理与数据信息法学研究会
  • 刑法学研究会
  • 行政法学研究会
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究会
  • 文化产业法治研究小组
  • 体育法学研究小组
  • 人工智能法治研究会
  • 刑罚执行与回归社会研究小组
  •       
当前位置: 网站首页 > 学会活动

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(六)

2020-07-13 09:32:01 字体:

李元馥[韩]

李元馥,韩国梨花大学法学院教授。韩国首尔大学医学博士,美国哈佛大学法学硕士、法学博士。主要研究兴趣在于法律和生命科学技术的交叉领域。近来,他一直专注于使用健康大数据和人工智能带来的责任问题和隐私问题。

人工智能的医疗差错和民事责任
人工智能的医疗差错和民事责任可以从法律和政策两个不同的角度来讨论。

首先,从纯粹的法律角度来看。在典型场景下,比如,一些人工智能可以帮助人类医生制定诊断和治疗计划,而人类医生可以在一定程度上参与其中。这样,人类医生可以决定更大程度地参与或决定完全不参与诊断。目前人工智能仅仅是一种临床决策辅助或工具,人类医生必须参与其中。

因此,要回答当涉及人工智能的医疗差错发生时,谁该承担法律责任这个问题,首先要回答的问题是“这是谁的行为”。就开发人员而言,很难说人工智能的差错造成的不利影响是人工智能开发人员的行为导致的。人工智能的开发人员所做的只是编程,可能会将数据输入算法。开发人员没有参与看病,因此很难将开发人员的行为定性为侵权行为。

人类医生呢?在这种情况下,人类医生可以在一定程度上参与。到目前为止,人类医生使用人工智能作为临床诊断工具,给病人看病,参与形成诊断并呈现给患者。从纯法律的角度来看,医生有侵权行为。但在未来,如果人工智能变得纯粹自主,病人甚至不需要见人类医生。如果这成为现实,那么也许人类医生就不会有侵权行为了。

其次,从政策角度来看。回答人工智能医疗差错的法律责任承担问题,主要有两种学说:

一是风险操作中的操作者承担责任学说。该学说认为,风险操作的操作者最接近风险,应将责任推给能够最有效地降低风险的一方,即风险操作的操作者。就人工智能而言,开发者很可能就是风险操作中的操作者,因为无论人工智能会犯什么样的错误,开发者都能比任何人更好地阻止或修复它们。因此,根据风险操作中的操作者责任原则,人工智能开发者或许应该承担责任。
但反对这一学说的人认为,这将抑制程序员和公司开发有用的人工智能的积极性。因为在这个学说下,即使在他们完成编程很长时间之后,他们依然要承担责任。第二种学说是受益人承担责任学说。这一学说认为,从一项行动中获得最多利益的一方也应承担损害赔偿责任。根据这一学说,如果人工智能导致医疗差错,那么医生或医院应该承担民事责任。因为是他们在看病、诊断过程中使用人工智能,他们从使用人工智能中获利。所以如果我们适用这一学说,也许会把民事责任加诸于医生和医院。这个学说的反对者认为,医生和医院并不能完全控制人工智能,因为人工智能已经被编程了,他们不能决定人工智能将如何计算或做出决定。他们无法控制人工智能的算法。反对这一学说的人还认为,医院里的医生可能不会从使用人工智能中获得最大收益。也许是病人从使用人工智能中获益最多。

image.png

如果我们能在侵权法的设计上,让开发者的责任与其开发的人工智能的可解释性成反比,将有利于社会。因为它将激励人工智能开发者努力开发更易于解释和审查的人工智能。至于医生的责任则应该免除。如果人工智能的算法是经过审查的,假设它是可审查的人工智能,并且在使用前由第三方权威机构,如食品和药品管理局进行审查认证。黑匣子人工智能并不是人工智能中不可避免的一部分,只要能够设计一个法律体系来激励并鼓励开发者开发出更清晰、更透明的人工智能。其中一种方法是使用侵权责任来激励和约束人工智能开发者。

image.png

上海市法学会欢迎您的投稿  fxhgzh@vip.163.com

相关链接

2020世界人工智能大会法治论坛 探讨“人工智能的权利义务与法治实践”

2019世界人工智能大会法治论坛精彩回顾

2020世界人工智能大会法治论坛H5

东方法学讲堂【人工智能法治专题】第一讲:刘宪权谈人工智能与刑事责任

东方法学讲堂【对话名家】:刘宪权

东方法学讲堂【人工智能法治专题】第二讲:季卫东谈疫情监控的智能网络与法律制度创新

东方法学讲堂【对话名家】:季卫东

东方法学讲堂【人工智能法治专题】第三讲:胡凌谈从刷脸到扫码

东方法学讲堂【对话名家】:胡凌

东方法学讲堂【人工智能法治专题】第四讲:马长山谈司法人工智能的可能与限度

东方法学讲堂【对话名家】:马长山

东方法学讲堂【人工智能法治专题】第五讲:彭诚信谈算法 数据 规则 法治

东方法学讲堂【对话名家】:彭诚信

东方法学讲堂【人工智能法治专题】第六讲:王迁谈人工智能与知识产权保护

东方法学讲堂【对话名家】:王迁

“2020世界人工智能大会法治青年论坛”即将开幕

讲堂报名丨季卫东 金耀辉:AI的权利和义务,人类说了算?

重磅阵容丨2020世界人工智能大会法治论坛嘉宾介绍(一)

重磅阵容丨2020世界人工智能大会法治论坛嘉宾介绍(二)

一图了解丨2020世界人工智能大会法治论

峰会时刻丨2020世界人工智能大会云端峰会排片表

讲堂丨季卫东  金耀辉:AI的权利和义务,人类说了算?

2020世界人工智能大会云端峰会开幕

2020世界人工智能大会法治论坛

官宣丨2020世界人工智能大会法治论坛征文活动获奖名单

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(一)

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(二)

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(三)

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(四)