sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 信息法律研究会
  • 刑法学研究会
  • 行政法学研究会
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 概况
  • 组织架构列表
  • 通知公告
  • 图片新闻
  • 人物介绍
  • 工作动态
  • 成果展示
  • 组织架构
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究小组
  • 文化产业法治研究小组
  •       
当前位置: 网站首页 > 最新消息

2019世界人工智能大会法治论坛主题演讲专家观点集萃(九)

2019-09-05 13:05:33 字体:

image.png

嘉宾简介

John Frank Weaver约翰·弗兰克·威弗尔

美国律师、作家,法学博士,人工智能法律领域专家

John Frank Weaver是位新兴技术领域律师,其主要执业领域有自动技术及人工智能。发表《机器人也是人:Siri,Google Car和人工智能将如何迫使我们改变法律》,担任《机器人、人工智能与法律杂志》中“一切都不是终结者”专栏作者及编辑委员会成员。他致力于研究如何规范人工智能以使其福祉造福更多的人,并已大量撰写了关于人工智能领域适当监管所需的规则框架研究方面的文章。

见证公正与客观:人工智能助力法治建设

(根据演讲嘉宾现场发言整理,未经本人审阅)

今天演讲的主题是政府如何使用人工智能来促进和加强法治。首先,概括几个关键术语的定义。第一个是“AI”的定义,指任何能够再现人类智能的机器或程序。第二个是“法治”,这里的的“法治”是指任何人不得凌驾于法律或政府行为之上。政府的行为是基于一套公认且既定的标准做出的。其次,是关于“透明性”“可靠性”“可预测性”和“一致性”这几个术语的定义。最后,是关于“偏见”的定义,指的是对某个人或某个群体的倾向或反对,特别是以一种被认为是不公平的方式表达。

现在大家可能在想,“法治”和“偏见”是两个敌对的概念。在强烈的法治意识下,政府的行为需要做到基本没有或者完全没有偏见。当有偏见的时候,政府行为将不会均等地适用,个人或团体会得到特殊的优待,就会丧失“可靠性”和“一致性”。人工智能的应用,或许可以消除政府行为和管理体系中的许多偏见。人类行为者倾向于以自身相信的主观方式去看待他人,而人工智能可以让政府客观看到每个人真实的一面。

就美国刑事司法体系中的人工智能这个话题,亚利桑那州最高法院首席大法官的论述显得更有见地、更具说服力。在这里,和诸位介绍刑事司法体系中一项交由人工智能的特殊工作,那就是预测重新犯罪率。目前,在理论上完成的效果还是不错的。美国的刑事司法体系一贯表现出对少数族裔的偏见,这在很大程度上是司法体系的人类行为者所造成的。非洲裔美国成年人被监禁的可能性几乎是白种成年人的六倍,西班牙裔成年人被监禁的可能性是三倍多。

image.png

人工智能得以应用,这将会进一步加强法治,促使法律适用更具一致性和可预测性,可以用来消除偏见。无论是谁,犯下相同的罪行,惩罚都应当是相同的。来自特权群体的人与来自无特权群体的人需要承担同样的责任,方显刑事司法的公平性。这也是法治的一个关键因素,它可以让大众产生法律适用具有一致性的印象。
人们必须看到并相信,没有任何个人行为可以凌驾于法律之上。不幸的是,人工智能在美国刑事司法体系的运用并没有将当中的偏见消除。它只是重现了人类的偏见,而偏见正是我们想要纠正的。目前,美国至少有七个州已经采用了人工智能,人工智能被运用于分析被告的重新犯罪率并提出建议。然而,这些人工智能的应用报告得出的结论是,它们经常得出错误的结论,表示少数族裔被告人比白人被告人更容易再次犯罪。这个问题又该如何解决呢?现在,大家一起讨论相应的五个策略。在此之前,需要对三种技术方法进行回顾。第一个技术方法是白盒测试或透明算法。在这个方法中,代码是开放的,任何人都可以看到它、操作它、再编程它,然后人们可以运行测试来确认是否通过再编程而消除偏见。在这个技术方法中,人工智能可能会有更好的表现,与第二个黑盒测试的技术方法形成对比。在黑盒测试中,人工智能中的算法是专有的,故只有所有权人才能看到它们。但是,所有权人允许第三方进行测试,以查看系统中是否存在偏见,并通过人工智能运行数据测试,以查看这些数据测试是否会训练人工智能并消除偏见。第三个技术方法是事后分析,这种方法使用了加密承诺。这相当于有一个密封的信封,信封里面是一份秘密文件,它允许第三方查看人工智能操作中的键值,以确认人工智能操作的方式是按照既定想法运行的。

image.png

政府应当追求五种策略,其目的是为了消除人工智能的偏见并促进法治。

第一、建立一个审查小组。这个公开的审查小组会举办会议,并就人工智能应用程序公开发布报告,当中涉及的人工智能应用程序是被提议供政府使用且事实上为政府所使用。审查小组需要审查潜在的偏见,寻找减轻潜在偏见的方法。

第二、采取内外部政策。一方面,内部政策应该有个大框架,指导政府雇员如何使用政府人工智能。另一方面,外部政策应当告知公众与人工智能互动时,人工智能决策的潜在法律影响是什么,人工智能正在使用什么数据,以及人工智能如何使用这些数据来做出决策。同时,政策还应构建一个简易的上诉程序。这样,假设产生了某个具有法律影响的法律判决,公众可以很容易地提出上诉。

第三、所有的政府人工智能都应该是透明的。所有的人工智能都应该属于白盒测试,公众成员可以通过检查、操作、改进代码以消除偏见。对于政府来说,外包出去很简单。

第四、政府对人工智能的审查和监管也应当有所要求并促进人工智能的测试和训练。政府工作人员专门训练关键的人工智能,测试关键的人工智能是否存在偏见,然后通过运行数据集,创建和运行人工智能数据集,一旦发现有偏见就可以消除它。同时,政府还应该促进第三方对人工智能的测试,这样可以利用外部组织对人工智能进行测试并训练其消除偏见。

第五、政府应该进行事后分析。大家可能好奇在保证透明性和测试训练后,为什么还要进行事后分析?事后分析对劳动人口有一定好处,因为很多人和人工智能与政府行为打交道。事后分析为他们提供了一种识别价值的好方法,并确保这些价值在人工智能操作中得到拥护,同时也保证人工智能可以正确运行。

现在,政府可以把这些策略用于刑事司法、公共住房、社会信用、社会福利、行政决策等各个领域,在实质上允许人工智能发挥重要作用,以期消除偏见并促进法治。