sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 信息法律研究会
  • 刑法学研究会
  • 行政法学研究会
  • 银行法律实务研究中心
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究小组
  • 文化产业法治研究小组
  •       
当前位置: 网站首页 > 最新消息

何渊:智能社会的治理与风险行政法的建构与证成

2019-01-11 10:31:05 字体:

内容摘要

人工智能的成功将是史无前例的,但充满不确定性、失控性及全球化的风险却如影随形般威胁着人类社会。需要重构一个以多元、开放、分享为基本特征的风险治理体系,市场、社会及国家这三种治理机制循环往复,时而正向运动,时而反向运动,同时还包括国家内部的立法与行政、中央与地方之间的双向自循环系统,共同形成一个整体的四重双向治理生态。这给行政法实现从“秩序行政”“给付行政”到“风险行政”的转型提供了历史契机,以“风险”和“治理”为基石的“风险行政法”应运而生。

关键词:人工智能   风险治理   四重双向法律治理体系   风险行政法

image.png

引言

本文要讨论的是人工智能的风险以及人类的法律应对。一方面,以费雪的“行政宪制主义理论”为依据,提炼出核心法律问题是“法治政府”在人工智能风险治理中的作用、性质及理想类型;另一方面,以波兰尼的“双向运动理论”和莱斯格的“代码2.0理论”为依据,在“法律(政府)、市场、准则(社会规范)、架构(代码)”等机制之间构建人工智能风险的四重双向法律治理体系,“风险行政法”也许正是我们公法学人在新时代的新贡献。

人工智能风险的法律特征

生活在人工智能时代,不像是处在一辆被小心翼翼控制并熟练地驾驶着的汽车之中,更像是坐在朝向四方疾驰狂奔的不可驾驭的野马身上,胆战心惊,更不知道未来会发生什么。人工智能风险的本质正是现代性的后果,是一种人为的技术风险,不是自然带来的。由此产生的“社会可接受性”更是加剧了人类行为的不确定性,这种现代性风险既不分阶级,也不分国界,而且还是无处不在的。

具体特征阐述如下:(一)不确定性。(二)失控性。人工智能愈发明显的强自主性以及人类对其的高度依赖性,最终演变为失控性。具体原因如下:第一,强自主性带来了失控性问题。第二,人工智能研发的隐秘性和分散性加剧了失控性。(三)全球化。这样一种全球化趋势给政府监管带来了前所未有的难度,也带来了“数据本地化”的要求。

人工智能风险的法律治理模式选择

与蒸汽机、电脑等工具的辅助性功能不同,人工智能的强自主性可能会替代人类的作用,这种风险是现实的、巨大的且骤然的。那么,人工智能的风险到底能不能被治理?事实上,宪法和法律也是这样一种架构,它们不仅是一种文本,更是一种生活方式,规范着人工智能在虚拟空间的行为方式、权利义务分配,最终保护人类的道德底线和终极目标。从这个意义上说,重要的问题不是人工智能风险是否能被治理,而是如何构建整体性的法律治理体系的问题。

“技术风险争论并不单单是一个个不相关联的技术或伦理上的不同意见,它关系到政府机构应当如何认定和理解技术风险并采取相应的措施”,关键问题是如何充分发挥法律和政府在风险评定及决策中的良好作用。为此,费雪在总结已有两种进路的基础上,提出了新思路:(一)科学进路。(二)民主进路。(三)行政宪制主义。无论是科学进路,还是民主进路,法律在人工智能风险治理中的作用都被描述成简单工具性的、无关紧要的或者会起妨碍作用的。在费雪看来,法律的作用是非常明显的,它并不是工具性的或不相干的,它不仅精确界定和打造了“科学”“民主”“伦理价值”及“专家知识”等概念及社会影响力,而且还创造了人工智能风险决策的机构情境,控制决策者行为的合法性和合理性,规范被规制者及参与者的行为规则。

事实上,人工智能风险治理的主要目标如下:保护个人数据隐私、安全及相关权益;抵御可能的集体风险,维护国家安全、公共安全及社会稳定;在个人数据权益保护和社会自主创新之间实现平衡。为了实现上述目标,我们需要重构一个风险治理体系,而核心问题是政府和法律的作用。该体系的特征如下:(一)从封闭到开放。(二)从单维度到多维度。(三)从单向授权到双向运动。由此,现有的以追求秩序行政为目标,以法律保留原则、法律安定性原则和法律明确性原则为基石的封闭式行政法学理论显然不足以抑制人工智能带来的风险。我们无法再以绝对性、确定性、统一性、可计算性为前提的法学理论来构建前人工智能时代的法律秩序,我们需要一种以“开放与分享”为基本特征的整体性四维双向风险治理体系。

image.png

四重双向风险治理体系第一维:政府与市场

根据政府参与的深度和广度,对于人工智能风险的治理大致可以分为私法模式和公法模式,私法模式以市场为基石,公法模式则以政府为基石。而政府与市场的关系则是四重双向风险治理体系的第一维度。

1正向运动

正向运动的产生原因是什么呢?由于包括技术和效率等国家能力的欠缺,以及基于经济便利和政治因素的考量,政府在很多情况下会考虑通过企业力量和市场机制来实现人工智能行业的发展以及对其风险的防范。

“未来社会的生产部门主要由少数的从业者、机器人以及人工智能共同完成,而愤怒的失业者则构成了社会中的不安定因素”。从实践来看,人工智能发展的根本推动力是商业企业的市场逻辑,其本质是平台公司以最低成本利用社会中的生产资料和劳动力,获得高额剩余价值。刚开始是依靠疯狂抓取、交易和其他不正当竞争方式获得大量数据;后来随着《国家安全法》和最高人民法院、最高人民检察院《关于侵犯公民个人信息刑事案件解释》的出台,获取数据的社会成本和风险不断增长。在这过程中,我们看到了人工智能的“非法兴起”过程,也看到了政府在“大众创业、万众创新”口号下对市场不断放权而形成了“正向运动”过程中的“野蛮生长”问题。而在后“野蛮生长”阶段,政府如何通过法律上确认人工智能这类新生产方式的合法性以及如何对相关利益进行合理配置,这将是非常关键的问题。

在政府放任的“野蛮生长”阶段,“非法兴起”使得市场和平台公司等商业力量迅速成为人工智能发展的主要推动机制。以此为契机,我国在自动驾驶、语音及人脸识别、智能投顾、机器人等人工智能领域都取得了长足进步;以深度学习为代表的机器技术开始进入政府的智慧城市建设;206工程强势进入上海法院,人工智能开始成为司法机关重要的辅助决策系统,甚至被认为是法院的未来图景。以“政府数据开放”为例,政府与企业力量、市场机制实现深度融合的方式如下:第一,政府和企业的全方位战略合作。第二,政府机关委托企业经营的数据大平台。第三,政府和企业利用共享大数据的合作治理。第四,政府和企业合作运营综合性的数据大平台。第五,企业提供技术平台,由政府自主运行数据平台。

image.png

2反向运动

作为人工智能风险治理维度之一的政府和市场关系,往往会经历双向运动。“现代社会的原动力是由一双重倾向支配着:一方面是市场不断的扩张,另一方面是这个倾向遭到一个相反的倾向——把市场之扩张局限在一个特定的方向——的对抗。这一对抗自律性市场危害性的社会保护倾向非常重要。”具体来说,作为正向运动的市场力量盲目扩张带来的外部性问题是市场机制本身所无法解决的,这就需要一场旨在保护人、自然和社会组织的反向运动。那么,这种反向运动的产生原因是什么呢?自生自发的市场秩序从来都是乌托邦,人工智能带来的巨大风险自然也不能由市场机制本身所能化解,而市场机制自身所带来的外部性却日益显现,具体表现在:

第一,隐私权。身处后隐私时代的我们,人人都变成了“透明人”,并深陷于一个巨大的“黑箱社会”之中。在人工智能时代,这种私法保护模式将面临着越来越多的局限性:其一,不管是告知与许可、模糊化还是匿名化,这三大传统的隐私保护策略都将失效。其二,人工智能的预测能力的确可以为我们打造一个更安全、更高效的社会,但是“未来一切被预测”却否定我们之所以为人的重要组成部分——自由选择的能力和行为责任自负。以上局限性亟待政府主导的反向运动通过保护性干预来突破,毕竟“规范和监督个人数据处理行为,保护个人隐私不受侵犯是每个国家的基本义务”。具体如下:1.建议政府重构一种能够平衡公共利益和个人利益之间关系的隐私权保护模式,既保护公民的隐私权益,也要通过数据再利用实现巨大的经济价值和社会效应。2.建议政府发动一场“互联网遗忘”运动。提倡数字化节制、保护信息隐私权、建设数字隐私权基础设施、调整人类的现有认知、打造良性的信息生态以及完全语境化等对策。

第二,伦理问题。不管我们是否承认,“一切被记录,一切被监管”的人工智能时代已经来临,数据开放带来的伦理问题若隐若现,具体表现在:1.大数据和高级算法可能会使所有人丧失了未来的自由选择权。2.大数据和高级算法可能会带来数据歧视问题。数据表面上看是中立的,似乎并不涉及价值判断,但在数据商业化过程中,一旦冷冰冰的政府数据加上高深理性的算法,数据歧视的产生可能就不可避免了。以上市场外部性亟待政府的反向运动通过保护性干预来解决。具体包括:

1.建议政府通过立法方式重塑“公正”“合法推定原则”及“无罪推定原则”等概念。

2.建议政府通过立法的方式积极推动企业算法的公开、公平和公正等特别保护措施。

总之,市场向政府的反向运动在法律上主要体现为公法模式。这种风险治理模式是通过政府有意识的保护性立法和政府干预手段而实现。它强调的是政府的强力介入,通过详尽规则的出台,政府的人为设计甚至是政府的制度性导向来实现人工智能风险的治理。这种模式中起主要作用的公法机制,往往是显性的。

image.png

四重双向风险治理系统第二维:立法与行政

人工智能的风险治理应当以公民基本权利的保护为根本出发点,基于人工智能风险预防特征,考察不同国家权力在手段与功能上的配置,实现治理责任的转移和优化。行政、立法及司法三项主要国家权力如何在人工智能风险的法律治理中实现合法合理的分工,这也是一个非常关键的问题。

1正向运动

在人工智能风险治理的职能分工中,行政机关因其权力的独特性承担了越来越多的责任。由此,立法向行政放权的正向运动开始启动,具体有三种方式:通过《立法法》及其他法律的明文授权,授予行政机关广泛的行政立法权;通过法律文本中的不确定概念赋予行政机关更多的自由裁量权;通过设置“风险预防原则”赋予行政机关更多的事实上的风险决策权。而这个正向运动主要是由行政的以下特性决定:第一,主动性及调动资源的能力。第二,专业性。第三,灵活性。

2反向运动

由于行政缺乏民主正当性,“行政立法”“行政司法”及广泛的“行政自由裁量权”存在合宪性上的先天性缺陷,行政这个过度膨胀的当代宪制国家“尴尬传家宝”面临着“鸠占鹊巢”的嫌疑,这样一种强大的利维坦式国家作用令人感到不安且充满了法律争议。于是,一场保护性的反向运动应运而生,核心问题是如何控制人工智能风险治理中的行政自由裁量权,而这正是法律的主要功能。这种法律的作用本质上是一种行政宪制主义的形式,重点是如何把治理人工智能风险的问题融入公共行政的合法性、合理性及有效性的法律争论之中。为此,费雪提出两个不同的行政宪制主义范式,这些范式不但解释了立法与行政之间的宪法关系,而且也描述了法律作用与风险评估、决策以及民主、科学之间的相互依赖关系。

第一,理性——工具范式。该范式下行政的人工智能风险评估及决策行为,可看作是对立法授权所完成的“传送带”动作,包括确认特定的技术风险,评估可能采取的规制手段的法律后果及用“利益代表制”确认社会的价值偏好。

第二,商谈——建构范式。该范式主张授予行政机关行使实质性、强自由的裁量权,立法并非是一套精确的命令,而只是为行政裁量权设定一般性原则和考虑的相关因素。行政不再只是立法的代理人,而是实施其自由意志的机构。

四重双向风险治理系统第三维:中央与地方

上文提到了市场与政府、立法与行政之间的双向运动,而纵向的央地关系也是难以回避的维度。

1正向运动

地方政府一方面基于“GDP锦标赛”的需求,积极推动本地经济试验与人工智能产业发展深度融合,人工智能产业的实践推手主要是地方政府而非中央政府;另一方面,对于随之而来的人工智能风险,地方政府也是身先士卒地积极探索法律治理模式,并不断积累经验。我国是一个民主集中制原则下的单一制国家,其特征是中央的领导权和地方的自主权有机结合。而在人工智能的产业发展和风险治理实践中,我国出现了一个明显的中央向地方不断授权以及地方自主权不断扩大的正向运动,这种正向运动的产生原因如下:第一,单一制与有效治理的融合。第二,新时代的特色法治经验。

重构人工智能风险的治理体系大致需要以下几步:

第一步,由地方政府就风险治理先行先试,积累有效治理的初步经验;

第二步,由地方人大基于已有的“地方性经验”制定“地方性立法”,然后进一步试错并积累经验;

第三步,由国务院在充分总结地方经验教训的基础上制定行政法规;

第四步,如有必要,再考虑上升为法律,适用于全国。

这种新时代的特色法治经验的形成主要有两个依据:其一,我国经济文化情境差异巨大。我国疆域广阔,人口众多,多民族多文化,经济发展极度不平衡,东部、西部以及南方、北方的地理气候资源变化多端,这决定了我国需要“差异化”的地方性立法及行政;其二,“民主集中制”原则为新时代特色法治经验提供了坚实的宪法基础。

由此看来,对于人工智能的风险治理,地方行使自主权是法律的常态,而中央行使领导权则是法律的例外。只有当地方的行为可能改变中央和地方的政治平衡时,中央领导权的介入才有必要。而地方的主要工作如下:第一,出台人工智能的地方规划及行动方案。第二,制定实验性政策及地方立法。第三,试验性设立独立的人工智能风险及安全监管机构。由此,地方政府主导的人工智能风险治理试验从宣示开明的政治姿态演变为动态的经济实践,其内在的政治与法律意涵开始不断丰富。

2反向运动

人工智能的风险治理应当是一种制度化体系,这种顶层制度设计只能由中央政府来构建和提供,其目的在于保护自然人的数据权益,维护国家安全、公共安全和社会稳定,但却不能因噎废食,阻碍数据合法的自由流通并完全禁止人工智能的研发。我们建议,全国人大在充分吸收地方的经验和教训的基础上制定《人工智能发展法》,具体制度如下:

第一,设立人工智能系统的登记认证审查制度。笔者建议,设立适用于所有人工智能系统的登记认证审查制度,即所有的人工智能系统都应当按照法律的要求去监管部门登记备案,但绝大多数并不需要事先取得监管机构的批准性许可文书。同时,实现认证程序与侵权责任体系深度结合。企业可以自愿申请监管部门或授权的专业机构的认证程序,经过权威认证的人工智能系统的设计者、生产者或销售者仅需承担有限侵权责任,而没有经过认证的人工智能系统将会承担严格的连带责任。笔者还建议,设立抽查式事后的安全审查制度,监管机构审查的关键词是“安全”,即查看人工智能系统“是否落实网络安全等级保护制度,按照国家标准规范要求,采取管理和技术措施,保护网络、信息系统、数据资源安全”,立法应当授予监管部门“安全一票否决”的权力,即涉及“安全”问题,监管部门有权强制启动严格的事先行政许可制度,即人工智能系统获得行政许可需要经过多重多阶段的严格安全测试,在没有获得许可前不能上市销售。

第二,设立人工智能专员制度。当实施政府数据开放和利用的机构是政府部门时,或者当其核心业务是用算法处理大量数据且需要进行定期的、系统化的大规模监控时,或者当其核心业务是用算法去处理就业、社会保险与社会保障法等领域以及与犯罪和违法行为有关的大规模特殊数据时,立法应当明确要求数据控制者和处理者指定一名人工智能专员。人工智能专员在履职过程中,应当从处理行为的性质、范围、环境以及目的的角度合理充分关注算法和数据所带来的不确定风险,一旦发现问题需代表雇主及时向监管机构报告;应当就数据合规、算法公开以及隐私保护等内容进行内部的员工培训;与监管机构就大数据及算法等内容保持沟通及协作,共同抵御风险。

第三,建设国家统一的大数据平台。国家统一大数据平台需要有足够的立法支撑和可操作的实施方案,同时应当通过立法设立首席信息官、首席技术官及首席数据官等专业机构。这样的国家大数据平台只能由中央政府来建构,并且需要一个较长时间的经验积累和试错。从地方分散实践到中央统一立法的反向运动是可取的,我国地方数据平台从数据量、时效性、数据集可视化、互动分享等方面与美国存在巨大的差距,其中一个重要原因是各自为政下形成的“低法治”数据割据。由此,一个旨在全面提升数据的有用性和易用性以及公众数据利用效果的全国性数据开放平台的建设必须提上全国人大的议事日程,应当将中国最为重要的政府数据统一集中到一个网站,为全国所有公众无差别地提供一站式的、内容丰富的、便于再利用的数据群,而这个工作只能由《人工智能发展法》来完成。

image.png

四重双向风险治理系统第四维:政府与社会

对于人工智能风险的破坏力和临界点,人们也许还有不同的见解,但这种科技风险的威胁毫无疑问是巨大的和不确定的。而国家和社会的双向运动是我们重构风险治理体系必须要考虑的一个维度。

1正向运动

当前中国正处于一个寻求新的合法性基础的过程中,逐步走向建立法治国家,而国家治理的主线也正从国家权力之间关系向国家与民众之间关系进行转型。事实上,以算法和大数据为基础的人工智能在国家和社会之间进行赋权和改造。由此,人工智能重塑了一种国家和社会之间的递归关系。在这种背景下,人工智能的风险治理也正在经历着国家向社会放权和扩权的正向运动,具体表现为行政机关与平台企业的合作治理。人工智能风险的高度不确定性决定了风险治理体系的高弹性以及相应解决方案的临时性,这要求各个治理主体在持续不断的风险评估和风险监测中作出反思性的风险决策及非确定性的规则。

2反向运动

由于人工智能平台企业的自我治理领域往往没有清晰的法律边界,而基于大数据的算法产品却容易波及社会中的每一个人,这种巨大影响力必将最终损害到国家能力;受到人工智能平台企业自我治理影响的利害关系人范围之广、数量之大,是传统社会所难以见到的,因而很难设计一种让所有利害关系人参与到人工智能风险评估和风险决策中来的法律机制。在“大众创业、万众创新”时代,政府机关有意无意地疏忽于“野蛮生长”阶段的监管职责,使得人工智能平台在短时间实现“非法兴起”,其后果是威胁公共安全和社会稳定的法律风险短时间内集中爆发。在此背景下,国家必须改变“强社会、弱国家”状况,启动一场从社会向国家集权的“反向运动”,具体理由如下:

一、数据独裁问题。

二、数据垄断问题。

三、国家能力问题。

自由市场、充满活力的市民社会、自发的群众智慧,都是良好民主制的重要组件,但不能替代强大且等级分明的政府。福山进一步认为,成功的现代自由民主制应当把国家建构、法治和负责任政府这三种制度结合在稳定的平衡之中。很显然,国家建构能力是现代化国家的最基础的因素,法治、权力制衡和问责制都应当建立在国家建构的基础之上。在人工智能时代,国家数据能力则是国家建构能力的重要组成部分,它具体表现为数据主权,即国家对其管辖范围内产生的所有数据的收集、存储、利用和处置具有最高的决定权以及国家在数据跨境流动中所具有的独立自主权。

事实上,政府对人工智能的风险治理承担着双重任务:一方面,由于技术能力欠缺,政府不得不倚重平台企业等社会力量,并通过实施包容性政策来全面推动人工智能的发展;另一方面,放任平台企业的自我治理必然带来的是难以承受之重的巨大风险。由此,国家必然选择对人工智能平台企业进行控制和监管,而国家必须着力避免出现平台企业的数据技术能力替代国家的认证能力等窘迫状况。