sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法学研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 网络治理与数据信息法学研究会
  • 刑法学研究会
  • 行政法学研究会
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究会
  • 文化产业法治研究小组
  • 体育法学研究小组
  • 人工智能法治研究会
  • 刑罚执行与回归社会研究小组
  •       
当前位置: 网站首页 > 最新消息

优秀征文选登丨张驰:论人工智能的法律地位

2020-06-22 08:58:39 字体:

image.png

优秀征文选登

上海市法学会积极服务国家AI战略大局,推动人类科技向善发展,根据2020世界人工智能大会组委会的安排,“2020世界人工智能大会法治论坛”由上海市法学会主承办,初定于7月10日在沪召开。

本着将“世界人工智能大会法治论坛”打造成汇聚全球智慧、推动人工智能未来法治体系建设策源地的美好愿景,2019年11月15日起,上海市法学会、中国知网、《上海法学研究》《东方法学》面向全球征文。截至2020年4月20日,共计收到原创性、学术性和思想性兼具的法学研究成果作品150余篇。

上海市法学会微信公众号将选登30篇作品,开展网上评选。征文活动结合网络投票,通过专家评选,遴选出一等奖、二等奖、三等奖以及优秀奖共30篇,另设一名“网络人气奖”作品。上海市法学会微信公众号上将对选登作品进行为期一周的网络投票,投票结果将作为评选重要参考。单篇文章阅读量加上网络投票数值最高的作品将获得“网络人气奖”!

《上海法学研究》集刊将专卷出版“2020世界人工智能大会法治论坛文集”,特别优秀的论文可推荐《东方法学》发表。上海市法学会将邀请部分获奖作者到沪参加2020世界人工智能大会法治论坛有关活动。

欢迎大家踊跃投票、点赞,为喜欢的作品加油助威!

内容摘要
飞速发展的人工智能技术为人类社会提供了便利与进步,也带来了冲击与挑战。如何界定人工智能的法律地位是学界面临的重大问题。目前人工智能仅具备法律客体地位,关于它的法律地位的争议主要在于是否存在人工智能成为法律主体的可能。笔者通过将人工智能与自然人类比,从义务论角度探讨人工智能是否有可能获得理性,从而成为类自然人的法律主体。笔者又通过将人工智能与法人类比,从目的论角度探讨人工智能成为法律主体是否存在足够的经济价值和社会价值,从而使人工智能获得类似法人的法律拟制主体地位。经探讨,目前的人工智能尚不满足以上条件,无法获得法律主体地位,但是应当作为特殊的法律客体予以有针对性的法律保护和规制。

关键词:人工智能  法律主体  义务论  目的论

image.png

问题提出

(一)争议的焦点:主体说对于人工智能的法律地位,目前国内以及世界范围内的主流学说为客体说,即人工智能只能作为法律权利和义务的客体,尚不足以获得法律主体地位,客体说具体包括工具说、软件代理说、财产说等。然而,一些观点认为人工智能获得法律主体地位存在理论可能性,并且进一步探索赋予人工智能主体地位的实践可能。学界对此存在广泛争议,故笔者就人工智能是否可以获得法律主体地位这一焦点问题展开讨论。主体说的各代表学说对于人工智能的主体身份存在不同的认识。代理人说认为人工智能与使用者之间是代理与被代理的关系,人工智能作为代理人在代理事务的范围内行使权利、承担义务,《欧盟给机器人民事法律委员会的报告与建议》(《欧盟建议》)第52条就将人工智能定义为“非人类的代理人”。电子人格说认为,由于人工智能已具有自主性,不再是纯受支配的客体物,因此应当确立新的法律主体类型“电子人”与之对应;《欧盟建议》第59条f款建议,长远来看应当为机器人创造特定的“电子人”法律地位,以适应包含人工智能在内的高度自主化机器人的行为。有限人格说认为,由于人工智能一方面有独立自主的行为能力,另一方面承担行为后果的能力有限,因此应当赋予其有限的法律人格。人格拟制说认为,虽然现行法下人工智能仍属于客体,但是可以通过拟制技术将其视为主体,美国国家公路交通安全管理局将谷歌公司的自动驾驶汽车定性为“法律意义上的司机”即属于赋予人工智能拟制人格的实例。(二)讨论的两个前提条件1.“人工智能”指什么?人工智能是一个体系庞大、发展迅速的产业,既存的人工智能种类繁多,未来人工智能的种类与功能超乎当代人类的想象。因此当我们讨论人工智能的法律地位时,首先应当回答的问题是:当下讨论的“人工智能”包含哪些种类?人工智能依据其智能水平从低到高可分类为弱人工智能、强人工智能以及超人工智能。弱人工智能只擅长于单方面技能、拥有单方面智能,如战胜众多围棋世界冠军的AlphaGo,它只擅长于下围棋这一单项技能,并不拥有其他方面的能力,目前人类社会实现的人工智能几乎全部是弱人工智能。强人工智能所拥有的智能相当于人类智能,大致包括推理、计划、解决问题、抽象思考、理解复杂思想、快速学习和从经验中学习的能力,且强人工智能运用这些能力时会与人类一样得心应手,目前对强人工智能的研究尚未出现突破性进展。超人工智能是在几乎所有领域都比最优秀的人脑聪明得多的人工智能,涉及的智能领域包括科学创造力、一般智慧和社交技能等,在本世纪结束前实现超人工智能的研发存在技术可能性。了解人工智能的分类后,我们回到最初的问题——当探讨人工智能的法律地位时,我们讨论的人工智能应当包含哪些种类?多数既存的讨论仅就弱人工智能的法律地位展开,不考虑强人工智能与超人工智能,笔者也以同样方式设置讨论对象。这样设置的首要原因在于目前只有弱人工智能存在且能切实作为研究对象,确定弱人工智能的法律地位是当下学界紧迫面临的问题。此外,虽然技术上有可能在本世纪结束前实现强人工智能与超人工智能的研发,但是出于政策考虑,超人工智能可能会对人类的“至高地位”甚至生存构成威胁,因此是否会深入投入研究以及是否能实际投入使用仍是未知数,故很可能无需讨论其法律地位。或者说,强人工智能和超人工智能一旦出现,就可能控制人类甚至消灭人类,这种情况下没有必要去讨论人工智能的法律地位问题,因为届时人类都不复存在了。因此当人类讨论人工智能的法律地位时,唯一有效的讨论对象是能为我们人类所使用和控制的弱人工智能。

2.“法律地位”指什么?既存的学者观点、立法草案等从公法与私法的各个角度对人工智能的法律地位展开了讨论。笔者将仅从私法角度讨论人工智能的法律地位,原因在于在公法上确立其法律主体地位缺乏实践可能性。作为合格的法律主体,需要具备法律认可的享受权利、履行义务的资格,若其中之一缺失,则只能被定性为法律客体。人工智能在私法与公法领域内都具备享受权利的可能性。在私法领域内,若采用主体说中的代理人说,则人工智能有权利在受委托的范围内进行代理;在公法领域内,若采用主体说中的电子人格说,则人工智能拥有独立的电子人格,在宪法上享有言论自由权、选举权亦不乏可能。然而,在承担义务方面,在公法领域内难以通过制度设计达到使人工智能承担义务的效果。在私法上,人工智能可能承担通过金钱履行的义务,如侵权责任中的返还财产、赔偿损失。承担金钱义务的核心在于使人工智能获得财产支持,可通过设立人工智能赔偿基金、人工智能强制责任险等制度达成;其他诸如赔礼道歉等带有人身属性的私法义务也可以通过程序设置来完成。与此相反,公法上使人工智能履行义务并不实际。例如,如果出现人工智能触犯刑事犯罪的情形,如2015年达芬奇手术机器人在手术中“暴走”对病人造成损害,若公法认可人工智能是主体,则该机器人涉嫌故意伤害罪,对此应当如何使达芬奇机器人承担罚金以外的刑事责任呢?我们不可能选择使达芬奇机器人去坐牢,对它而言被剥夺“人身自由”是正常状态;切断电源也不能构成惩罚,因为断电是机器人运行过程中的必经程序,没有对它造成任何额外负担;即使强行报废也只是提前结束了人工智能的使用寿命,难以将其解释为惩罚。与此同时,切断电源、强行报废等行为可能为包括制造者、所有人、使用人在内的所有关联方带来巨大的损失,由此减少关联方的研究热情和资金投入,间接阻碍人工智能产业的发展。因此,目前尚不能通过制度设计使人工智能在公法上完整地履行义务,故人工智能尚无法确立公法上的主体地位。由此,笔者将从法理学角度出发讨论人工智能的主体地位,并且仅从私法角度讨论其地位。故笔者将对人工智能是否可以获得法律主体地位这一焦点问题展开讨论,并且仅针对弱人工智能、仅从私法角度讨论。本文的第二部分将人工智能与自然人作类比,探讨支持自然人的主体地位的理性基础能否同样支持赋予人工智能类自然人的主体地位。本文的第三部分将人工智能与法人类比,探讨支持法人的法律拟制主体地位的类人性要件和目的论基础是否能够支持人工智能获得类似法人的拟制主体地位。结合二、三部分的讨论,笔者认为人工智能尚不能具备法律主体地位,应当属于特殊法律客体,且有必要予以法律上的安置。由于目前的法律框架内尚不存在针对人工智能的制度安排,故本文将在第四部分作出人工智能立法设计,尝试从人工智能的规制与保护两个角度出发建立人工智能法律体系。

image.png

一、义务论视角:类自然人的主体地位

我们首先从义务论角度出发,考虑人工智能是否可以取得类自然人的主体地位。义务论与目的论之分是哲学上公认的分类:义务论认为正当独立于、优先于善,善依赖于正当,义务论通过考察行为本身来确定行为的好坏;目的论认为善独立于、优先于正当,正当依赖于善,目的论通过考察行为的结果来确定行为的好坏。从义务论角度出发探讨人工智能可否获得法律主体地位,意味着我们将衡量人工智能作为法律主体的设想本身是否正当,不将这一设想可能带来的结果纳入探讨的范围。法律人格的理论源头是康德义务论对于哲学上“人”的解释:“所有理性的‘存在’都是‘人’。”这里的“人”代表哲学上的主体,对应的表述是“person”而不是“human”或者“man”,故这里“主体”的内涵是“存在”而不要求必须是作为人类的存在。通过这样的解释,康德强调哲学人格的核心在于理性,即某个存在为了获得人格并不需要具备生理上人类的特质,只要拥有足够的理性就有可能。支持该观点的还有洛克,他不仅赞成人格的构成必然需要理性,还进一步支持“人”应当是理性的“自我”而不仅仅是理性的“人类”。(一)智能康德与洛克对于理性的定义都以智慧性、思考能力为基础,故衡量人工智能是否具备理性首先必须考虑:人工智能是否拥有合格的智能?康德认为,理性与智能是两个概念,理性区别于且高于智能——智能是指产生适当的信念和行为的能力,核心在于“产生”;理性指评估信念和行为等是否符合相关标准,以及根据这些评估结果改变我们的信念和行为的能力,核心在于“标准”“评估”与“改变”。毫无疑问,人工智能拥有智能,唯一的疑问是人造的智能是否为合格的智能?对于这个问题,答案是肯定的。由于人工智能通过算法、程序设计同样具备产生适当的信念和行为的能力,其智能程度客观上满足康德哲学下智能的“产生”要件,因此智能的人造性并不妨碍人工智能拥有智能这一事实。讨论智能的深层意义在于探究理性除了智能是否还孕育出了其他要素。换言之,在拥有智能的基础上,人工智能怎样才可以拥有理性?具体而言,只有理性的存在才能表达对信仰和行为进行评估的标准,并且有意识地将信仰和行为与这些标准进行比较,最终将比较的结果运用于改变自己相应的信念和行为。那么人工智能是否能做到“标准”“评估”与“改变”?为了寻找答案,我们必须思考理性人是如何完成这些步骤的。首先,理性人用于衡量信仰或者行为是否合适的标准是理性人自己的推论,并不需要是公认的统一标准,理性由此引出了它所蕴含的一个要件——自主性,理性人是自主的,标准的制定者是理性人自己。其次,如果理性人认为某个信仰或者行为不合适或者没有意义,理性人会自由地选择不相信该信仰、不从事该行为,这就体现了理性孕育出的又一要件——自由意志,理性人是意志自由的,能够自主决定信仰和行为。自主性和自由意志是理性除智能之外所包含的两大主要要素,也是人工智能在获得理性的道路上面临的难关。(二)自主性人工智能是否具备自主性?或者说人工智能是否可以自己制定评价行为是否合适的标准?对于既存的绝大多数人工智能来说,答案是否定的。人工智能行为的一切标准来源于程序和算法,由制造者设定且通过人工智能的智能予以执行,此过程中人工智能没有参与标准的制定,故不具有自主性。谷歌公司的无人驾驶汽车便是一例:在驾驶过程中人类驾驶员不允许进行任何驾驶操作,因为谷歌公司担心人类的驾驶行为会干扰无人驾驶汽车经过精密设计的程序与算法,从而增加车祸的可能。相对地,我们可以设想这样一种情形:理性人在驾驶时,如果驾驶经验更老道的乘客向理性人提意见,理性人很可能采取乘客的建议作为自己制定的新标准,由此改变驾驶方法。相比之下,谷歌无人驾驶汽车不可能采用任何外来的标准,它的唯一标准始终是程序与算法,因此它不具有自主性。从自主性角度而言,美国国家公路交通安全管理局将谷歌公司的自动驾驶汽车认定为“法律意义上的司机”是缺乏依据的。这个例子又引出了如下疑问:驾驶员听取他人意见作为自己的标准的行为,代表着该标准并非源于驾驶员自己,而是外界影响下的产物,那么基于外界影响而制定的标准是否仍能符合自主性的要求?如果答案是否定的,则说明人类在很多情况下都可能丧失自主性,又怎么可能要求人工智能必须具备自主性呢?对于以上问题,最本质的答案是——人本身就不具有完美的理性,或者说极少有人类能够无时无刻完全符合康德对于理性的要求。人类做决定的过程往往会被外界力量引导与影响,这并不会减损人类制定标准的自主程度。因为人类自主性的最大特质就是:所有客观的理性规则对理性人而言没有任何强制力,一切决定全部出于理性人的自主选择。因此在讨论人工智能的自主性时,更应该把它作为一个“阶梯状概念”加以理解,只要人工智能的自主性在这一阶梯的高阶位置,就应当认为它满足了自主性的要求。换言之,人工智能不需要攀升至自主性的最高一级阶梯才算满足自主性的要求。遗憾的是,经过以上的论证,目前的人工智能完全不具备自主性。不过自主性的阶梯状概念的提出对于衡量未来人工智能的自主性有巨大的价值,一个具有未来人工智能雏形的人工智能可以说明这一价值。目前,在电子商务领域存在专门为顾客草拟合同的人工智能,学者们非常支持它获得法律人格。因为该人工智能深度参与电子交易,完全代理自己的客户,在电子商务的合同草拟、签订环节占据主导作用。最为特殊的是,该类型的人工智能在草拟合同时并不只按照程序和算法,还要结合顾客的最大利益以及电子商务领域的其他不定因素对合同进行设计。因此,它的自主程度高于目前一般的人工智能,且正在变得越来越自主,假以时日不排除它的自主程度可能攀升至“自主性阶梯”的高阶位置。这一趋势也代表着未来人工智能发展的一大趋势,即它们将具备越来越高的自主程度,届时如果人工智能可以满足法律主体的其他要件,则获得主体地位将指日可待。(三)自由意志人工智能是否能具备自由意志?或者说能否依据自己制定的标准决定或者改变行为?答案也是否定的。从逻辑上来说,自由意志包含自主性——只有当评估行为是否合适的标准是个体自主制定的,才考虑该个体是否有自由依据该评估结果决定自己的行为。如果人工智能没有自主性,也就丧失了获得自由意志的前提,故不可能具备自由意志。事实上,当算法和程序垄断了人工智能的所有工作环节,人工智能在构思行为、制定标准、评估行为、作出行为的每一步都是算法的直接作用,因此它不可能具备自主性与自由意志。那么深入讨论自由意志还有什么必要?这样的讨论也是为了应对未来人工智能的发展:如果具有高自主性的人工智能出现,则自主性的阶梯状概念开始作用,与之相对应的是自由意志的“阶梯状概念”。自由意志同样应当是一个“阶梯状概念”,因为人类亦不可能获得完美的自由意志,或者说人类的自由意志与自主性同样地受到外界的干扰。因此当人工智能的自由意志攀升至阶梯的高阶位置时,就可以认为人工智能拥有了自由意志。与电子商务领域专为顾客草拟合同的人工智能获得自主性的过程相似,亦不排除未来的人工智能获得自由意志的可能,届时人工智能在获得法律主体地位的路程上将会扫清又一障碍,但是在技术上实现这一转变仍然需要长时间的发展。因此,在义务论下,人工智能虽然拥有合格的智能,但是不具备自主性和自由意志,故不具备理性,义务论依据无法支持人工智能成为类自然人的法律主体。不容忽略的是,人工智能的发展趋势预示着它存在获得理性的可能,因此如何从立法上应对人工智能呈现的未来性需要我们进一步思考。

image.png

二、目的论视角:类法人的拟制主体地位

前文已提及义务论与目的论的理论对立地位:不同于义务论,目的论通过考察行为的结果、行为带来的价值而不是行为本身来确定行为的好坏。经过第一部分的讨论,人工智能成为类自然人法律主体这一设想已然缺乏义务论的支持,因此我们需要从目的论角度出发寻找支持人工智能作为法律主体的依据,从而穷尽对人工智能作为法律主体可能性的讨论。在立法历史上,公司凭借法律拟制获得法人这一法律主体身份,成为了除自然人之外的另一法律主体类别。公司之所以可以获得法律主体地位,关键原因在于该设想具备非常充分的目的论依据,主要包括经济价值以及社会价值两个方面,其中社会价值是更为根本的目的论基础,这两大价值的双重支持使公司必须被认定为法律主体。从目的论角度出发探讨人工智能的法律主体地位,意味着我们将衡量人工智能作为法律主体的设想所带来的结果是否满足“善”的要求,或者说是否为社会带来相当程度的经济价值与社会价值,而不将这一设想本身是否正当纳入讨论范围。这里我们需要回顾一个事实,以说明公司获得法律主体地位得益于目的论下经济价值与社会价值的双重支持:在各国通过立法形式确立公司的法律人格之前,关于它的法律主体地位之争从未停止。具代表性的一例是美国联邦最高法院对于公司是否具有法律人格作出的矛盾解释:在1886年的Santa Clara County v. Southern Pacific Railroad案中,法庭首次直接判决公司具有法律人格,受宪法第十四修正案中正当程序条款的保护;然而在1949年的Wheeling Steel Corp. v. Glander案中,道格拉斯大法官指出第十四修正案并不适用于公司,因为公司并不是“自然出生于美国或者归入美国籍的人”,不具有法律人格;并认为如果赋予公司以法律人格,则“person”的内涵会发生内部冲突。以上对于公司的法律地位的不同解释引起了当时学者们的热议,他们认为该矛盾说明了一个在仅有自然人作为法律主体的时代尚未诞生的原则——法理学上的法律人格是可以以结果为导向的,或者说“法律人格是一项结论,并非一个问题”。这一崭新的原则充满了目的论色彩:公司是否可以获得法律人格,是以它获得法律人格后符合的目的、产生的效果和价值为导向的,评价的标准是行为的结果而不是行为本身。从十九世纪的案例开始,公司之所以可以逐步获得法律人格,主要是因为社会经济对公司的依赖性与日俱增,公司为现代经济带来飞跃发展,且对现代经济起到主导作用。在这种情况下,只有赋予公司法律主体地位才能完整地保护公司利益,最终服务于保障经济增长、促进社会形态进步的目的,这正是目的论下经济价值与社会价值的集中体现。(一)经济价值1.公司为了具体探讨公司作为法律主体如何推动经济价值,我们需要回到美国的例子。自十九世纪下半叶开始,美国的公司开始蓬勃发展,美国经济对公司的依赖性大幅上升。由于现代化模式下的公司越来越依赖于美国《权利法案》的保护,法院为了迎合公司的实际需求,最终调整了法律主体的边界,逐渐将公司纳入法律主体的范围。在立法普遍确立公司具有法人的法律主体地位之前,公司的法律地位仅建立于个案分析的基础上,个案中虽然存在着各种解释与判决,但是大体上朝着承认公司法律主体地位的方向发展,最终完成了公司从法律客体到法律主体的转变。由此观之,公司对于社会经济带来的巨大经济效果有力地推动了公司的法人化进程。在这个基础上,我们需要进一步理解目的论基础的论证方法在于将公司做法律主体所扩展和排除的价值作规范性陈述,并比较哪一方的价值更有优势。换言之,公司作为法律主体创造了价值,同时也减损了价值,唯有当前者的价值更有优势,才能最终在目的论框架下确立赋予公司法律主体地位的正当性。因此我们需要追问:公司获得法律人格创造了什么价值?同时是否损害了一些价值?二者之间应当如何权衡?对于公司成为法律主体,支持方认为给予公司以宪法上的保护有利于为公司提供完整的法律保护,使公司更自由、更完整地行使权利,使对公司日益依赖的当代经济体制迅速发展;反对方认为无限制地承认公司的法律人格会降低人类自身的人格价值,因为原本自然人是唯一的法律主体,如果承认公司的主体地位无疑损害了人类人格的“至高地位”,从相对意义上来说人类的人格价值降低了。简言之,赋予公司法律人格扩展了经济发展的价值,减损了人类人格最高地位的价值。对此我们需要进一步思考:“承认公司法律主体地位对经济发展可能的积极作用”和“承认公司法律主体地位对人类人格地位可能的减损”这两者之间是如何被权衡,从而结果上使前者占上风的?为了探索价值权衡的原则,我们需要回到美国的例子。赋予公司法律人格最早体现在十九世纪的美国判例法中,并从此在世界范围内通过成文法、判例法等各种形式确立下来。若回顾十九世纪的美国案例,我们会发现当时的法庭对于价值的权衡总体上采取了如下两步:第一步,对于承认公司法律主体地位对经济发展带来的积极作用,法庭给予了最高程度的肯定与保护。前文已经阐述从十九世纪开始美国经济对公司的依赖程度之大,只有尽可能全面地保护公司的权利,才有可能使公司自由且有效地开展营商活动。除此之外,还存在一个不容忽视的政策性原因:美国政府希望能在十九与二十世纪获得历史上最大的经济成就。从历史上来看,二十世纪美国的最大特点就是“不遗余力地用经济书写历史”,也印证了政策性因素对社会各方面的巨大影响,其中不可避免地包含政策对法律的实际引导。第二步,法庭承认公司人格对于人类人格最高地位的减损,并且通过合理解释作出了让步。或许是因为当时经济发展的需求过于强势,当时的法学界几乎没有直指人类人格最高地位的减损问题,而是迂回地从法律解释的一致性要求角度提出反对。如道格拉斯大法官认为,如果在某一宪法条文中对“person”进行扩大解释,则会导致在各条文中对于“person”的解释不一致。为了避免这种不一致,以及间接地保护自然人的人格地位不受到减损,美国法至今都没有赋予公司以完整的宪法权利,这体现了对人类人格最高地位的让步。具体而言,即便美国对于公司人格权利的保护不断发展直至一个前所未有的高度,公司在美国宪法下只能享受修正案第1条与第14条的权利,这距离自然人的权利范围仍存在很大差距。通过这样的让步,人类人格的最高地位虽然形式上受到了减损,但是法律对此的合理解释保证了自然人人格在实质上仍然处于最高地位。通过以上两个步骤,当时的法律得出了“承认公司法律主体地位对经济发展可能的积极作用”优于“承认公司法律主体地位对人类人格地位可能的减损”这一结论,由此完成了两种价值之间的权衡。

2.人工智能那么对于人工智能来说,是否可以类比前述公司法人如何获得法律主体地位的论证来同样支持人工智能获得法律主体地位?需要承认的是,在人工智能的法律主体地位问题上,“承认人工智能法律主体地位对经济发展可能的积极作用”与“承认人工智能法律主体地位对人类人格地位可能的减损”之间的张力仍然存在,故二者仍然应当作为被平衡的要素。从承认人工智能法律主体地位对经济发展可能的积极作用角度出发,我们可以合理预测人工智能将为经济带来空前的发展,使得它有理由被法律确立为主体加以保护和规制。依据人工智能思想家Nick Bostrom教授的判断,人工智能向超人工智能发展的道路上的每一步都会为人类社会带来巨大的财富,并且他认为人类在追求更强大的人工智能的路途上不会停下脚步,因此人工智能带来的财富很可能是非常巨大以至于当代人类难以想象的。进一步地,赋予人工智能主体地位能够实现对人工智能权利的全面保护,此举有利于人类社会尽可能完整地收取人工智能所带来的利益,实质上起到促进经济空前发展的作用。仅举出主体说中代理人说的例子就可以初步印证经济发展可能的效果:如果人工智能获得主体地位,使其可以独立行使代理权,那么巨大的人力资源将被节约下来投入其他只有人类才能从事的工作,主要包括创造性工作、困难的战略性工作、需要同理心的关爱型工作,甚至包括人类社会尚未知晓的工作。这样的人力流转将会为人类社会带来巨大的经济推动作用,溢出效应将会延伸到更优化的社会结构、更高水平的社会福利等各个方面。相反,如果人工智能无法获得法律主体地位,则意味着它不可能独立行使代理权,在任何代理事项下人类代理人依旧不可或缺。在这种情况下,虽然应当肯定人工智能的加入可以推动代理事项更高效的运行,但是由于代理的一切权利与义务都归于人类代理人,故不排除人类代理人仍需要消耗大量的精力审阅与核对人工智能的工作结果,履行全面统筹代理事务的责任,这样一来人力资源流转范围将会受到很大局限。这个意义上,如果人工智能无法获得法律主体地位而只是普通客体,那么人工智能产业对于人类社会经济发展价值和其他溢出价值的推动作用将难以达到空前程度。因此,承认人工智能的法律主体地位对经济发展可能产生巨大的积极作用,这一经济作用为人工智能获得法律主体地位的设想奠定了有力的目的论基础。另一方面,若承认人工智能法律主体地位,同样可能对人类人格地位造成减损。前文在类自然人的法律主体部分已经论证人工智能只具有智能,不具备理性这一人格成立的首要要素,因此赋予它法律主体地位将在相对意义上降低人类的人格价值。但是这一降低不是绝对的,如同公司获得法律主体地位时对于人类人格价值的减损一样,人工智能获得法律主体地位而降低人类人格价值可以被合理解释。公司在获得法律人格的过程中在宪法权利义务方面做出了巨大的让步,仍然保持着人类法律人格实质上的最高地位,从自然人享受权利与承担义务的完整性就可以得出这个结论。对于人工智能,不排除它将在宪法权利方面作出更大的让步,甚至暂时不需要从宪法角度对它设置权利义务。一如本文在序言部分对本次讨论设定的限制条件,目前对人工智能的讨论仅适合在私法领域展开,因为人工智能在公法领域尚不存在完整地履行义务的可能性,无论是通过制度设计还是技术设定都无法达成在公法上履行义务的效果。因此令人工智能获得法律主体地位的同时,在宪法权利义务方面同样作出让步是非常符合实际的设计,事实上我们也不得不这么设计,因为人工智能类法人的法律拟制主体地位所带来的权利义务范围本来就不可能与自然人的权利范围相同。由此,经过对“承认人工智能法律主体地位对经济发展可能的积极作用”与“承认人工智能法律主体地位对人类人格地位可能的减损”进行衡量,我们发现前者优于后者,这意味着赋予人工智能类法人的法律拟制主体地位同样具备足够经济价值,以此作为目的论基础的一大支撑。(二)社会价值在讨论公司成为拟制主体的可能性时,除经济价值对该设想的支持之外,还存在占据根本地位的社会价值。在经济推动作用之外,学者们认为某个体若要获得法律拟制主体地位,则要求必须能论证“该个体能像人类一样发挥作用”,尽管它们并非人类这样的生物,但是它们应当在合适的意义上属于某种生物体或者组织体,在此笔者将这个概念抽象表达为“类人性”,类人性与它的下游概念属于社会价值的范畴。换言之,即使公司成为法律主体的设想具备强大的经济价值,但是公司仍需要具备更为根本的社会价值才可以成为拟制的法律主体。考虑一个实体是否具备“类人性”或者说是否能够“像人类一样发挥作用”,首要衡量标准是该对象的“社会重要性”,这也是学者们认为将法律人格扩展到新对象的根本驱动所在。当一个生物体或者组织体处于我们的社会网络之中,且在经济、政治等领域中发挥着“足够重要的作用”,则该对象可以被认为是具有足够的社会重要性,从而被授予法律主体地位。获得社会重要性的关键环节是能够在社会中发挥足够重要的作用,这一作用并不在于为社会带来财富和价值的多少,而是在于与社会形成“关系交互”。关系交互要求该生物体或者组织体与社会之间应当形成真实的关系,这样的关系包括社会层面和经济层面,并且应当具有复杂性。与此同时,对于拟制法律人格的形成,真实、复杂的关系并不需要涉及情感、道德等方面,当法律制度将具有法律意义的交流归于实体时,该实体就可以被称为法律上的人。换言之,只要具有法律意义的关系、交流等可以被归于某个实体,则该实体就有可能通过法律拟制获得法律主体身份。1.公司我们来检验公司是如何满足以上要求的。首先,公司对现代商业社会而言具有主导作用,且该主导地位具有唯一性,这决定了公司与商业社会的各个组成部分形成了极为紧密的关系,从而在现代经济中“像人类一样发挥作用”。公司在现代商业社会中占据了中枢地位,一定程度上扮演着商业世界的主角,早在成为法律主体之前它的商业主体地位就已确立,这一商业主体地位在社会经济领域的重要程度与自然人在社会其他领域中的重要程度高度相似。公司制度与现代社会是密不可分的,我们不妨想象脱离公司制度的现代社会可能面临的巨大的恶果——一旦公司制度解体,则现代商业将会同步地解体,因为在这种情况下所有的交易只能回归于自然人之间的买卖,这意味着人类社会将不得不退回到十九世纪下半叶之前的商品经济时代,这无疑代表着经济形态的实质性倒退。进一步地,由于没有公司的存在就没有现代商业社会的存在与运行,所以在这个意义上公司对现代商业社会起着主导作用,而对此自然人是无法直接主导的,或者说自然人只有通过设立公司的方式间接地加入商业社会的主导活动,这就体现了公司对现代商业社会的唯一主导地位,也可以称之为直接主导作用。从唯一主导关系的角度而言,公司与现代商业社会的各个组成部分之间产生的关系是极为紧密的。进一步地,若逐一审视公司与其他法律主体在社会经济活动中形成的关系,我们会发现这些关系是真实且复杂的。早在公司获得法律主体地位之前,公司与自然人主体之间就已经存在种类繁多的关系,如公司与自然人之间的交易关系、雇佣关系、保险关系等,且公司与公司之间的关系也呈现业务关系、交易关系、从属关系等各种形态。在公司获得法人地位之前,以上关系的真实性与复杂程度与一般社会主体之间形成的关系相当,并不因为当时公司不具备法律主体地位而受到减损。进一步地,我们需要探讨公司是如何使法律制度将具有法律意义的交流归于它本身,从而获得法律拟制主体地位的。我们首先看到公司与社会发生交互的关系是法律层面的,前文提到的各种关系往往很少涉及情感、道德等方面。公司使这些法律层面的关系归于公司本身的途径在于通过制度设计确立公司财产的独立性——只有当公司作为一个实体拥有了独立的财产,才有能力承担它的所有法律关系带来的各种后果。我们可以设想,若公司的财产不具备独立性,则代表该公司的财产不独立于股东财产,此时假设公司与自然人之间形成了交易关系,公司股东可以借由公司财产的非独立性合理地直接收取交易利润,使得这一交易关系的法律后果实际上直接归于股东而不归于公司。公司财产不独立的情况下,由于公司无法满足自己承担法律关系后果的要求,故与其他对象之间形成的法律关系将难以归于公司本身。简言之,确保公司财产的独立性是使公司的法律关系归于公司本身的必要途径。站在当今法人理论视角回顾,确保公司财产的独立性已经通过公司独立财产制度实现,表明公司获得财产独立性具有通过制度设计达成的实践可能性。在当前的公司独立财产制度下,公司财产独立于出资人或者股东,是独立履行权利、承担义务的组织体。与此同时,进一步保护公司财产独立的法人人格否定制度应运而生,防止股东滥用公司独立人格实现自我利益或者第三人利益,又表明了公司财产独立制度具备很高的制度体系完整性。基于此,公司的所有法律关系可以归于它本身,满足了进行法律拟制的要件。

2.人工智能作为类比,在社会重要性方面,我们首先需要回顾一下目前的人工智能在社会中是如何与其他主体发生关系的。无论是与围棋冠军比赛,还是为病人进行高难度手术,或者创作诗歌,人工智能都是先由人类带到需要它发挥作用的场景下,按下开关运行设定好的程序,最后完成人类为它设定的任务。从这个过程中我们看到,人工智能在完成任务的过程中没有起到主导作用,它的一切行为由人类主导。在人工智能的各项任务中,它没有以参与者的身份与社会其它对象产生交互的关系,并不扮演着和人类同样重要的角色。如果人工智能像人一样发挥作用,则至少要求人工智能自己为自己编写程序,自发地寻找任务并且开启程序完成任务,而这样的能力是目前的人工智能在技术上无法达到的,亦无法通过制度设计完成。如客体说中工具说的观点,人工智能只是被人类关联方使用以创造价值的工具,并没有“像人类一样发挥作用”。这也可以在以下例子中得到印证:前文已经提到在电子商务领域存在专门为顾客草拟合同的人工智能,且学者们非常支持它获得法律人格,然而学者们也认为赋予其法律主体地位的考虑在面临是否满足“社会重要性”这一要件时变得不堪一击。因为在电子商务领域负责草拟合同的行为仍然仅起到了工具作用,人工智能并没有与其他对象建立足够紧密的关系,难以被理解为承担着“更大的社会角色”,这一类型的人工智能缺少更为基本的社会价值,故仍然没有必要通过赋予其法律主体地位来进行保护。通过以上例子我们可以发现,即便是目前智能程度最高的人工智能,也没有像公司一样在社会某个领域占据不可或缺的地位,或者从根源上来说无法做到“像人类一样发挥作用”,因此无法与社会其他组成部分产生紧密的关系,并不具备与公司相当的社会价值。这令我们不得不思考一个问题:在公司从事法律行为时,无论公司是否已经获得法律主体地位,它的每个行为都是由出资人、股东、管理人等自然人决定与执行的,好像完全体现了自然人的意志,从这个角度来说公司的法律行为也是由自然人主导的,为什么公司仍然可以获得法律人格?这里非常重要的一个区别就在于公司可以通过制度设计获得充分独立性,但是人工智能难以做到这一点。各国已经通过立法规定了公司的独立性,这首先体现在公司独立财产制度方面,前文已述公司拥有独立财产,独立地对公司法律行为承担责任。立法进一步通过规定使公司获得独立意志——当出资人、股东、管理人等自然人的意志结合而使公司作出法律行为,其直接目的应当是为了最大程度地维护公司利益,而不是某部分自然人的利益。如果自然人假借公司名义而损害公司利益、保护自然人自己的利益,则必须向公司履行损害赔偿责任,或者适用法人人格否定制度使该自然人承担责任。通过制度设计,公司可以成为完全独立于自然人的、独立运行的组织体,一切关联自然人对公司投射的意志都必须以保护公司利益作为直接目的,这些自然人意志最终结合的产物是公司意志。因此,自然人主导公司的法律行为这一运营形式并不减损公司的独立性,公司仍然可以成为独立法律主体。然而对于人工智能来说,情况是截然不同的。关联方运营人工智能,为它接通电源、编写算法和程序,同样也将自然人的意志投射给了人工智能。但是这样的自然人意志结合后并不出于维护人工智能利益的目的,而是出于且仅能够出于直接为关联方带来利益的目的。自然人即便想直接维护人工智能的利益,由于人工智能不可能获得独立财产权,目前这样的利益维护是无法通过技术手段或者制度设计实现的。无论是制度上还是技术上,当下有可能建立的人工智能基金以及人工智能保险只是为了应对人工智能致损的赔偿需求这单个方面,并不出于使人工智能获得财产的目的。基金和保险的实质都是为了分散人工智能产业的风险,这与独立财产制度使法律关系归于实体本身的实质存在鲜明差别,因此基金和保险难以实现使人工智能获得独立财产的目的。从这个角度来说,人工智能仍是人类社会的工具,不因为人类意志的投射而获得独立性。换言之,自然人意志是为了公司的独立性,而人工智能的意志依然依赖于自然人。从这里我们也可以发现,即使人工智能在未来与社会其他对象产生了真实复杂的关系交互,满足了社会重要性的要求,但是由于它无法获得独立财产,使得人工智能与外界的关系难以归于人工智能本身,因此人工智能将依旧难以通过法律拟制方法获得主体地位。通过将人工智能作为法律主体与公司作为法律主体相类比,我们发现两种设想具备相当程度的经济价值,但是人工智能的社会价值远远低于公司。在公司获得拟制主体地位的过程中,经济价值与社会价值共同构成了支持公司作为拟制主体的目的论基础,且其中社会价值是根本价值,因此人工智能在社会价值上的短缺是“致命的”,这样的不足导致它无法具备与公司成为法人相当的目的论基础,也由此难以获得类法人的法律拟制主体地位。然而不可否认的是,因为人工智能的经济价值具备足够的重要性,且未来人工智能的发展前景会使得我们对它的社会价值的提升保持开放,因此对于它的法律安置值得我们认真地对待。

image.png

三、人工智能立法设计

(一)电子人客体说对于人工智能立法,我们首先应当确立人工智能的法律客体地位。但是客体说并不是问题的终点,因为我们发现人工智能无论是在获得类自然人的主体地位还是类法人的拟制主体地位的道路上都远远领先于一般的物,人工智能的特殊性在于它相较于一般的物拥有绝对高的智力、较高的实现自主性和自由意志的可能,以及非常强大的经济推动作用和社会改造作用。这样的特殊性需要我们将人工智能与一般的物加以区分,以更好地适应人工智能未来在理性方面的发展,并且更有效地实现它与经济和社会相关的价值。简言之,目前对于人工智能进行立法设计的主要要求在于突出它作为客体的特殊性。为了突出特殊性,我们应当选用一个最贴合人工智能的本质特征的概念,唯有如此才能将人工智能与一般的、不特殊的物区分开来。考虑到主体说和客体说之下各种对于人工智能法律概念的构思,笔者认为“电子人格说”最能反映人工智能的特殊性,因为其他学说没有做到对人工智能和其他客体进行划分。如工具说认为人工智能是人类的工具,但是没有将它与其他工具划分,几乎很少强调人工智能可能是“特殊的工具”,故不适合作为人工智能立法设计的主要参考学说。当然,这里选用的“电子人格说”并不是《欧盟建议》所倡导的电子人主体说,而是电子人客体说,即人工智能应当被定位为电子人,但是电子人的法律属性仍然是客体物,以此体现人工智能的特殊客体地位。(二)保护:分类登记 分层保护确立了人工智能的电子人客体地位,我们就面临以下两大问题:法律应当如何保护、如何规制这一特殊主体?当对人工智能这一特殊的物进行保护时,法律保护的目的不仅在于保护人工智能作为物的完整性,重要的是保护人工智能的技术产业发展空间,使得人工智能尽可能全面地发挥其促进经济发展的价值以及其他社会价值。前文也已经谈到人工智能的发展趋势问题,我们发现在弱人工智能内部,各种类型的人工智能所呈现的发展可能性存在很大差别:当AlphaGo和达芬奇机器人仍然只在专业范围内按照程序设置展开工作时,电商领域专门负责草拟合同的人工智能的自主程度和自由意志已经发展到了近乎人类代理人的高度。基于这样的发展现状,对人工智能的保护不适合一刀切地适用统一标准,比较有效的方式是分层分级地进行保护。在提供分层法律保护时,笔者认为立法提供一系列公认的标准让人工智能关联方自行对号入座是不合适的,这样的保护也太过笼统。一旦发生纠纷,需要先对人工智能属于哪一级别展开认定,之后再对具体纠纷进行解决;即使没有产生纠纷,人工智能关联方也会花很大力气用于人工智能的分级合规检查上,况且这样的合规检查也未必具有法律效力。因此笔者建议可以依照俄罗斯《格里申法案》的方案,创设人工智能登记制度,分类登记,分层保护。该制度最初源于法人登记制度,其目的在于通过登记使人工智能和公司一样拥有身份,且可被识别。人工智能登记制度的优势在于对于人工智能的身份进行法律上的权威认定,避免法律之外的因素影响人工智能身份而引起不必要的争议,更好地服务人工智能能力评估体系的分级需求。不仅如此,只有公示公信的登记制度才可以将人工智能与一般的物之间的区分落到实处。一些人工智能与普通机器之间的外观差异并不显著,如果没有人工智能登记制度,则不排除人类会混淆人工智能和其他机器,从而混淆特殊客体与一般的物,这显然不利于凸显人工智能的特殊客体地位。在登记人工智能身份之后,法律需要建立起人工智能的能力评估体系。对于人工智能的能力评估,非常重要的一点就是评估的科学性和准确性,可以考虑将包括图灵测试在内的专业评估测试纳入评估体系中。图灵测试是指计算机科学之父Alan Turing在1950年提出的一项检验机器是否有能力进行思考的行为测试,主要的方式是使机器进行模拟游戏,非常适合用于为人工智能的智慧能力进行评估与分级。将分类登记公示后,各类型的人工智能将会依照各类型的标准,由专门机关进行分类保护与规制。以上步骤的实施对于专业性和科学性的要求极高,而目前尚不存在专门的立法可以科学地保护和规制人工智能,也不存在专业机构可以涵盖人工智能的管理职能,因此笔者建议应当设立《人工智能法》作出详细的法律规定,并且创设人工智能局专门负责人工智能的登记、分类,以及统筹管理。需要补充的是,笔者认为建立人工智能能力评估体系虽然是最理想的保护模式,但是人类社会距离实现这样的体系仍需要跨越较大的技术难关。首要的问题在于测试的不完备性:图灵测试只能作为能力评估体系的一部分,该体系需要结合不同的测试设计完成,或者说最佳方案是设计一套专为人工智能开发的全新评估体系。原因在于图灵测试自问世以来受到了一些争议,其中最为有力的反对意见来自于哲学家John Searle的“中文房间”论断,Searle通过“中文房间”论证了以下观点:一些情况下机器无法真正理解接收到的信息,但它可以通过运行程序和处理信息,向人类表现出一个智能的印象,故图灵测试难以真正测试出机器的智能程度。不可否认的是,图灵测试仍然是目前世界上最适合人工智能能力评估的测试,而“中文房间”论断又是对图灵测试的有效性最有力的反驳。因此我们能否反驳“中文房间”论断,或者能否开发出一套适用于人工智能评级的、弥补图灵测试缺陷的系统将是人工智能学界的难题。这同时也是法学界的难题,因为一旦这一系统无法实现,法律将难以对人工智能进行分级,只能概括性地保护人工智能这一特殊的客体。(三)规制:人工智能强制责任险对于人工智能侵权行为的规制,法律需要考虑两方面的目的。一方面,法律需要填平被侵权人的损失,这意味着人工智能的关联方应当全面履行损害赔偿责任。另一方面,法律也需要给予人工智能的关联方合理保护,因为关联方对于人工智能的侵权行为往往不存在故意或者过失。在很多人工智能侵权案件中,如达芬奇机器人进行心脏手术时突然“暴走”间接导致患者死亡时,机器人的侵权行为是因为它本身陷入了失控状态。这样的失控状态往往源于人工智能在运行深度学习程序的过程中获得了比较高的自主性,脱离了原先的算法和程序,而不是因为原先的算法和程序存在不完备的设置,也无法归因于人工智能关联方没有尽到应尽的注意义务,因此对这样的侵权结果人工智能的研发者、所有者等并不存在故意或者过失。在这种情况下如果令人工智能的关联方承担全部侵权责任,则不仅会呈现关联方权利义务不均衡的局面,而且可能间接影响人工智能的技术创新与发展,使得关联方在人工智能的研发过程中采取过于保守的态度。考虑到以上两方面的矛盾,传统的侵权责任归责方法并不完全适合用于人工智能侵权责任分配。为了全面保护被侵权人,同时合理减轻人工智能关联方的负担,设立人工智能强制责任险是一个值得参考的方法。人工智能强制责任险是由人工智能关联方为人工智能分别投保,当人工智能的侵权行为产生则由强制责任险赔付。《欧盟建议》《格里申法案》均认为若强制责任保险制度得以构建,则将帮助解决事故因果关系无法查明和人工智能产品造成的损害无法得到赔偿的难题,有利于分散人工智能产业风险,同时兼顾产业发展需求。笔者进一步建议,人工智能强制责任险的保费应当兼顾人工智能的实际用途以及能力评估的结果分级别进行设计,在《人工智能法》内部形成完整的对应体系。

笔者通过对于人工智能法律地位的法理学探讨,最终得出人工智能不具有法律主体地位,仅具有法律客体地位的结论。在义务论视角下,目前的人工智能不满足自主性和自由意志要件,无法具备理性,故无法获得类自然人的法律主体地位。在目的论视角下,当下的人工智能虽然具备强大的社会价值,但是不具备足够的社会价值这一根本价值,故无法获得类法人的拟制法律主体地位。然而,随着人工智能向高自主性和高自由意志发展的趋势,并且考虑到人工智能的重要经济价值和社会改造能力,笔者认为有必要将人工智能确立为特殊法律客体的地位,并且依据该地位作出有针对性的立法设计。基于未来性的考虑,笔者建议通过立法建立人工智能的能力评估、注册登记、分类管理体系,以给予人工智能法律保护,并且设立人工智能强制责任险制度,分散人工智能的产业风险,更好地适应人工智能的未来技术发展。

image.png

上海市法学会欢迎您的投稿  fxhgzh@vip.163.com

相关链接

2020世界人工智能大会法治论坛征文优秀征文选登丨韩亚光:人工智能语境下的法律数据应用问题分析优秀征文选登丨张宝山:从分配正义的角度谈对人工智能征税优秀征文选登丨田力玮:智慧司法:法律智能机器人对于未来的“问”与“答”优秀征文选登丨戴滢 罗逸宁:弱人工智能时代下经济犯罪研究的挑战与路径优秀征文选登丨骁克:从耦合到内聚:人工智能司法应用的挑战与出路优秀征文选登丨孙伟军 倪时超:重大突发公共卫生事件背景下人工智能辅助立法的展望优秀征文选登丨陈静:刑事案件“云庭审”的问题及回归优秀征文选登丨任昊:智慧法院新技术下民事司法的革新优秀征文选登丨黄燕娟:论人工智能生成物的著作权保护优秀征文选登丨吕游:人工智能背景下的脑-机接口技术应用刑事风险分优秀征文选登丨郑翔 彭媛:自动驾驶汽车交通事故侵权责任主体认定的困境和可能优秀征文选登丨杨金权:强人工智能之“法人格”否认及多元规制优秀征文选登丨韩天竹 孙悦:论人工智能生成物在著作权法上的定性与权利归属优秀征文选登丨赵宇琦 谭宇航:影视表演者表演形象保护多路径探析优秀征文选登丨曹珊 何学源:人工智能在建设工程履约证据管理中的特殊优势及其应用构想优秀征文选登丨夏海波 郑泽爽:数据权利边界之廓清优秀征文选登丨马金仪:区块链应用中的反垄断风险与规制研究优秀征文选登丨段守亮等:审判视角下自动驾驶汽车交通事故的民事责任承担优秀征文选登丨林琪琪:智慧化形塑:揭开知识产权法院指导性案例应用之谜面优秀征文选登丨吴涛:论人工智能时代司法决策的情境主义——兼论司法人工智能的可解释性优秀征文选登丨林泽宇:国际法下人工智能武器的合法性及其规制优秀征文选登丨李俪:智能投顾中的信义义务优秀征文选登丨郭雅菲:基于区块链的数字作品发行权用尽研究优秀征文选登丨岳艾洁:无人驾驶汽车交通肇事刑事归责的困境解构与类型化分析优秀征文选登丨戴欣:人工智能生成物版权保护模式重构优秀征文选登丨袁啸昆等:构筑信任,链向未来:区块链技术在著作权领域应用现状研究优秀征文选登丨尹菡:AI人脸识别技术滥用的法律规制

来源:《上海法学研究》集刊2020年第5卷(2020世界人工智能大会法治论坛文集)。转引转载请注明出处。