sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 信息法律研究会
  • 刑法学研究会
  • 行政法学研究会
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 概况
  • 组织架构列表
  • 通知公告
  • 图片新闻
  • 人物介绍
  • 工作动态
  • 成果展示
  • 组织架构
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究小组
  • 文化产业法治研究小组
  •       
当前位置: 网站首页 > 学会活动

2019世界人工智能大会法治论坛主题演讲专家观点集萃(五)

2019-09-03 13:12:39 字体:

image.png

嘉宾简介

申卫星

清华大学法学院院长

申卫星,清华大学法学院院长、教授、博士生导师,清华大学智能法治研究院院长、中国法学会常务理事、中国法学会网络与信息法学研究会副会长、中国法学教育研究会副会长。长期从事对民法学的教学与研究工作,出版了《民法基本范畴研究》《物权法原理》《期待权基本理论研究》等专著和教材18部,发表法学学术论文60余篇。

人工智能的国际治理框架构建

(根据演讲嘉宾现场发言整理)

清华法学院作为一个既年轻又古老的法学院,结合国家双一流建设的良好的契机,特别是结合清华大学工科强的优势,重点发展法律、科技,特别是法律与信息科技的交叉和融合。我们在去年全国率先设立了计算法学的新学科,并且与清华法学院牵头,联合清华大学计算机系、自动化系、汽车系和社科学院,我们设立了清华大学智能法治研究院。

今天,我代表清华大学智能法治研究院,谈一下我们关于人工智能的国际治理的看法。主要想解决三个问题,人工智能需要治理,人工智能需要国际治理,以及如何来进行国际治理的一个初步的探索和思考。

image.png

可以说,人类的每一次社会进步,特别是技术的进步和革新,都会影响社会管理模式的变革,而社会模式的管理变革会直接导致法律的相应革命。回首法律的发展历史,会清晰地看到,法律每一次变革都和技术的进步息息相关。相信随着第四次工业革命,信息技术全面的应用和发展,所带来的信息社会的规则,恐怕是一个新型的社会形态。在这个形态里,我们既陌生又熟悉。在这样的规则之下,会看到有很多新的法律问题不断涌现出来。

以我所从事的民法学的研究来看,可能从物权、债权和责任的分配上来看到,会有新的像数据产权的界定,智能合约的产生以及人工智能之下,产品责任或者法律责任的重新分配。除了这些之外,在法律风险上,还应该有更深层次的超越民法的一些风险。

image.png

大家可以看得到,我把它分成三个层次的风险。

第一个层次,可以说是一种传统的风险,就是因为新一代的信息技术的全面深度应用而引发的隐私保护丧失,中国社会进入了一个零隐私的社会,那么这个阶段还是把信息技术作为工具来对待的;

第二个层次,是在以自主和深度学习的为基础的机器学习之下,出现了人机之间的竞争。在研究机器人能不能取代人的同时,是不是也应该思考人会不会沦为一种机器?

第三个层次,我想可能是哲学或者伦理学层面的一个反思。人机的竞争可能不再是科幻,未来的论坛,今年是第二届,我不知道第十届之后坐在下面台下的是不是我们这些自然人?会不会有所谓的三种人并存的一个形态?自然人、机器人和生物复制的人。

在机器人缺席的情况下讨论人工智能的国际治理,对于未来的法治来说,是否违反了所谓的正当程序?不知道第十届的时候,会不会这样一种场景?但是我们需要未雨绸缪。人工智能的应用,有的是在经济层面上,像自动驾驶、精准医疗,有的是在我们管理层面的像公共部门的AI的服务和决策人脸识别等等。也有的是在司法领域里,比如许建峰主任介绍的,关于司法审判的智能审判辅助技术的研发,就代表这样一种潮流。当然也有可能在政治上操纵的机器人,以技术对政治的干扰,更为严重的就是在军事上有可能出现AI计划。

那么上面我就列了几种风险,有的是行为的风险,由于算法的黑箱,引发了人类的这种技术鸿沟下风险所持续的加剧;也可能是在经济上人被机器人的取代而造成的失业,平台不断地独大垄断;也可能是在安全上的风险,更为重要的在控制上无法控制的人机竞争。当然我们还要考虑伦理上的价值引导的缺失,可能是更为严重致命的风险,因此,全局的风险可能是存在的。

那么,这样一个全局的风险使我们人工智能的国际治理成为必要,那就是所谓的人工智能武器化。说到这个话题,可以类比核能,核能技术也带来非常大的风险,但是它是基本可控的原因是核能相对来说,入门门槛比较高,成本也比较高,不是所有的主体都可以参与。但是在信息技术特别是人工智能领域里,它的入门门槛成本相对较低,那么甚至非国家主体行为的介入比较深,特别是这个技术具有快速转移和高度扩展到各个不同领域的这样一个特点。企业在不断的竞争,政府在无序的扩张的情况下,使得国际治理尤为必要。

所以我们讲许多国家在探讨AI的立法,当下中美贸易进入了非常激烈的一个贸易争端的时候,我们要学习欧盟。那么可以看到在国际AI的治理当中,联合国秘书长明确地把AI的治理、特别是新技术治理作为联合国五大优先发展的一个事项,欧盟去年通过了人工智能的合作宣言之后,2019年4月又发布了人工智能伦理指南的这样一个方案,应该说对于技术的治理是逐渐深入的。可以说欧盟作出一个表率之后,在人工智能领域里又作出了各国的一个表率。目前中美贸易陷入了一个具体的贸易之争。作为所谓大国的中美,是不是应该跳出这样一个具体利益的局限,来未雨绸缪地考虑人工智能时代人类的命运,我们应该有什么样共同的规则?

image.png

因为我们承担了最高人民法院委托的科技部的重点研发计划,关于智能审判辅助的技术研发。所以,我们得到了欧盟的授权,特别研究了欧盟司法效率委员会在去年年底刚刚通过在欧洲司法系统领域人工智能的伦理宪章。这里有五个原则,包括不歧视的原则,质量和安全的原则,透明公开和公平的原则,以及用户控制的原则,最重要的一个为尊重基本权利的原则。而这个原则在科技部的八大原则里没有,其他国家也没有。所以这个原则非常值得我们重视、尊重。在人工智能发展当中,涉及要尊重包括隐私甚至更高的人的独立自主发展基本权利的这种原则尤为重要。如果这个原则缺失,将会使任何的治理原则都不具有一定的品位。

我们在7月6号清华大学主办的和平论坛的一个报告当中,梳理了36份文件中出现频率从高到低的价值,从问责制公平与非歧视,犯法的透明和可解释,隐私的保护、安全,人类的技术控制,职业责任价值体系等。那么,大家看到这些价值实际上是在排序中以此突显它的位置,但是如何来平衡这些价值?我们应该制定更多的一些原则。目前我们科技部已经发布了八大原则,包括和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作,特别是最后一个敏捷治理。这是我们新来的教授牵头、我作为法律专家参与制定的八大原则,但这八大原则还是在发展之中,至少还缺少了刚才我提到的尊重基本权利原则。我们愿意在原则的基础上和世界各国的同行一起探讨,如何来进行人工智能的国际治理。

我们想要基本上达到的一个效果是三步走。第一步,在所有的原则的基础上,我们这个原则应该细化,达成国际共识。第二步,应该是以原则为基础,形成一个人工智能治理的国际公约。在任何问题上,我觉得国际公约的拘束力足以能够达成共识。第三步,在国际公约的基础上,如何来形成一个执行机构?我的设想是能否形成一个word artificial Intelligence governance organization。如果到了那一天,通过国际公约和国际组织强有力的执行,让国内法成为一个示范,转化为国际法成为一个示范,转化为国内的规则。

在获得人工智能发展带来的福利的同时,也要努力消除人工智能可能带来的法律上的风险和伦理上的危机。