sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 信息法律研究会
  • 刑法学研究会
  • 行政法学研究会
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 概况
  • 组织架构列表
  • 通知公告
  • 图片新闻
  • 人物介绍
  • 工作动态
  • 成果展示
  • 组织架构
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究小组
  • 文化产业法治研究小组
  •       
当前位置: 网站首页 > 会员服务 > 会员风采

人工智能时代的刑事立法规划

2019-09-03 12:48:39 字体:

作者李振林系华东政法大学副教授。

内容摘要 

人工智能刑事立法目的是保障人工智能健康有序发展、防控人工智能可能存在的风险,以及应对人工智能新事物对刑法适用的冲击。基于这些目的,人工智能刑事立法应当遵循功利主义与人类利益优位、发展优位与风险管控、技术协调与法律协调等原则。根据这些目的与原则,人工智能刑事立法可以从人工智能所涉及的利益出发探究相关犯罪的法益类型,并从人工智能的研发者、使用者等出发明确相关责任主体的注意义务与过失归责原则;在对人工智能刑事立法具体条文的修订和增设方面,应当修改侵害计算机信息系统类犯罪、交通肇事罪、危险驾驶罪等犯罪,增设人工智能重大安全事故罪,并在《刑法》分则第六章中增设第十节“妨害人工智能发展罪”时规定扰乱人工智能活动罪、非法利用人工智能罪、非法提供人工智能技术罪等犯罪。

关键词人工智能  智慧社会  智能机器人  自动驾驶 刑事立法

人工智能正逐步改变着人们的生产生活方式,在信息、生命、材料、能源、环境等领域发挥了强有力的推动作用,并孕育着堪比二十世纪互联网诞生的重大科学突破。随着人工智能技术的纵深发展,人工智能与其他科技的融合创新与聚变发展,人类社会正在日益逼近新一轮变革的临界点,社会形态将全面系统演进,数字世界和智慧社会指日可待。与此同时,形形色色的涉人工智能法律问题定会接踵而至。例如,人工智能创造物的知识产权归属、人工智能产品责任分配、涉人工智能犯罪的规制等。对此,学界目前也已经涌现出了一系列以人工智能为研究对象的法学研究成果。然而,这些研究成果基本围绕着人工智能中的智能机器人的法律人格、民事归责、刑事归责等方面展开,较少从立法层面进行系统性研究。笔者认为,人工智能新时代已然到来,现行刑法显然难以妥善解决人工智能发展过程中所遭遇或可能遭遇的新问题。例如,自动驾驶在一定程度上影响了交通肇事罪的适用,无论是危害结果可否归因于驾驶员还是该罪的主体范围等均存在讨论空间;又如,针对人工智能的侵害活动尚未有相应的罪名可以进行规制。应当看到,刑法解释的尽头即是刑事立法,“凡是可以通过解释使刑法条文适应社会生活事实的,就不应当主张修改刑法”,但如果解决新问题早已超出了刑法解释的能力所及,就必须启动刑事立法。面对纷繁复杂且不断凸显的涉人工智能犯罪问题,现行刑法及对其的解释已经鞭长莫及、捉襟见肘,为保障人工智能健康、有序发展并有效防控相关风险,亟需进行前瞻性的人工智能刑事立法。人工智能刑事立法乃至于人工智能法律框架构建必然是一个社会科学领域的重要新课题,就人工智能可能带来的风险、收益从刑事立法层面展开系统性、全面性、深入性的研究是非常必要的。为此,本文将从人工智能刑事立法的目的出发,构建人工智能刑事立法的基本原则,并结合实际与可期待的未来提出切实可行的人工智能刑事立法构想。

人工智能刑事立法的目的与原则

人工智能刑事立法目的是保障人工智能健康有序发展、防控人工智能可能产生的风险,以及应对人工智能对刑法适用的冲击。基于这些目的,人工智能刑事立法应当遵循功利主义与人类利益优位、发展优位与风险管控、技术协调与法律协调等原则。

(一)人工智能刑事立法的目的

法律在很大程度上是国家为了有意识地达到某一特定目的而制定的。立法活动应是在特定目的的指引之下进行以贯彻国家意志与人民诉求。人工智能刑事立法也不例外。笔者认为,人工智能刑事立法的目的主要在于以下三个方面。

第一,保障人工智能健康有序发展。人工智能刑事立法的首要目的在于保障人工智能健康有序发展。虽然目前学界存在社会治理“过度刑法化”的批判,但不得不承认刑法对治理某些社会问题所发挥的巨大作用。刑法的保护机能要求刑法在面对社会形势变化时,应积极发挥作为社会治理手段的作用。人工智能作为科技革命的重要产物、社会变革之“重器”,理应受到刑法保护。2017年国务院《新一代人工智能发展规划》将人工智能上升为国家战略的重要内容,如果不对妨碍或破坏人工智能技术、产品的研发、使用活动和非法利用人工智能等行为进行刑法规制,将会严重阻滞人工智能发展,破坏国家战略的实施。只有通过适当的刑法保护使得人工智能够在一个健康、有序的环境中发展、演进,才能确保我国能够在人工智能技术的浪潮中拔得先机,率先享受人工智能红利,推进社会发展与变革。

第二,防控人工智能可能存在的风险。任何事物均具有两面性,人工智能也概莫能外。人工智能在给我们带来诸多红利的同时,也蕴藏着巨大风险。刑法不仅要保护人工智能发展,也要防控人工智能风险。无论是从预防刑法还是风险刑法的角度来看,防控人工智能风险都是必不可少的。风险实际上与红利成正比。我们必须准确认识并把握到人工智能可能存在的各种风险并积极对其进行规制。正如作为工业革命产物之一的汽车在提升了交通运输效率和提供生活便利的同时,也产生了各类危害人们生命、健康和财产安全的交通事故,为应对对此风险,刑法设立了交通肇事罪和危险驾驶罪等条文。人工智能刑事立法也必然不能缺少风险防控的内容,以对失控、滥用人工智能等风险加以防控。

第三,应对人工智能对刑法适用的冲击。人工智能作为新事物必然会改变原有的社会事实与公众认知,拓宽甚至完全改变了原有的社会概念与规则,基于原先的社会事实与公众认知所建立的法律法规或多或少会存在适用上的困难或冲击,其中对刑法适用的冲击尤甚。对此,刑事立法必须予以回应。尽管有观点认为,人工智能只要处于支配性工具地位,便可通过现行法及扩张解释予以应对,但这显然是对刑法解释过于自信,忽视了刑事立法的重要性和独特性。例如,人工智能创造物的权利归属问题导致的知识产权犯罪中人工智能的被害人地位、刑法归责等问题便不是刑法解释所能解决的。因此,填补刑法条文的漏洞、解决刑法适用的冲突,以妥善应对人工智能对刑法适用的冲击,也应是人工智能刑事立法的目的之一。

(二)人工智能刑事立法的原则

人工智能刑事立法的原则是指人工智能相关问题刑事立法活动中所应遵遁的精神、规范与准则。众所周知,刑法的基本原则包括罪刑法定、平等适用和罪刑均衡。刑事立法活动理当遵循上述刑法基本原则,同时也应遵循立法活动的基本原则,如科学性、民主性、法治性和经济性等。人工智能刑事立法除了应遵循上述原则之外,还应遵循由发展人工智能的目的所引申出来属于人工智能刑事立法的特有原则。立法的根本目的在于最大多数人的最大幸福。“从全面计量生活的幸福和灾难来讲,立法是一门技术,它引导人们去享受最大限度的幸福,或者说最大限度地减少人们可能遭遇的不幸。”人工智能刑事立法的目的决定了人工智能刑事立法应当遵循下三个具体原则。

1功利主义与人类利益优位

“功利就是一种外物给当事者求福避祸的那种特性。”从立法上看,功利主义的贯彻是指,“一切举措都应该通过功利原则进行最大限度的检验。具体说来,对于政府颁行的法令、政策乃至整个社会制度的评价标准,就在于看其是否指向了社会整体功利的最大化”。功利主义无疑是人工智能刑事立法的重要指导原则。这是因为,人工智能技术的发展、人工智能产品的研发终究服务于人类利益。任何技术研发、应用的目的都是为了使得人们能够享受更大的幸福,这恰恰符合了行为功利主义中的“最大幸福原理”。脱离了为人类利益服务这一目的,人工智能技术的发展将会失去控制,并且很可能导致奇点来临,以致最后人类被人工智能所颠覆、灭亡。应当看到,即便智能机器人以后获得法律主体地位,智能机器人的权利得到法律承认,其利益位阶也应低于人类利益。正如学者所言,“承认机器人权利,此种承认具有功利主义色彩,本质上是为了更好地实现人类利益”。因此,人工智能刑事立法活动中必须严守人类利益优位的底线,增设相关刑法条文时必须把人类利益摆在首位,一旦其他利益与人类利益产生冲突时应在立法上确定人类利益优位。

2发展优位与风险管控

为充分实现人工智能发展目的,人工智能刑事立法还应当遵循和贯彻发展优位与风险管控原则。发展人工智能是目前全世界的共识与潮流,在人工智能刑事立法中也应秉持这一立场。任何一项技术都不可能不具有危险性,但法律的目的并非禁止而仅是让其在监管框架内有序发展。但发展优于限制,保护胜于打击,对人工智能的刑法规制绝不能阻碍人工智能的发展或挤压人工智能发展的空间,而应当给予人工智能足够、合理的空间任其“生长”与“试错”。一旦刑法介入某项新事物的力度过大、时间过早,便会泯灭之后可能的创新与发展,无法助力于社会发展。以互联网金融为例,早期的互联网金融由于刑法介入较晚,力度较小,确实在很大程度上解决了一大批中小企业的融资困难,解放了资金的流动性,优化了资源配置,对促进我国金融发展与资本流动发挥了非常重要的作用。之后由于互联网金融的“野蛮生长”以及具备非法性、欺诈性的非法金融活动增多,于是国务院办公厅发布了《关于印发互联网金融风险专项整治工作实施方案的通知》、最高人民检察院颁布了《关于办理涉互联网金融犯罪案件有关问题座谈会纪要》等文件,以规范性、系统性整治互联网金融风险,打击涉互联网金融犯罪行为。笔者认为,人工智能刑事立法也应在一定程度上汲取涉互联网金融犯罪的惩治经验,在发展的前中期预留给人工智能相当的、合理的生长、发展、“试错”空间,仅在涉及人类根本利益、国家利益、重大人身财产安全及公共安全领域设立底线。随着人工智能的发展,到中后期阶段或风险初露端倪之时,便可结合实际适当增加刑法规制的力度和扩大刑法规制的范围等,以保护人类利益,推动社会健康发展。
基于人工智能的一体两面,我们在注重人工智能发展优位的同时,也不能忽视对人工智能的风险管控。人工智能的风险可以分为以下三个方面。一是人工智能滥用的风险,即滥用人工智能实施违法犯罪活动的风险。人工智能具有深度学习等能力,结合大数据后可在大多数领域内“所向披靡”,远超人类所能达到的极限。正由于此,一旦将人工智能技术滥用于犯罪活动中,将会产生巨大的社会危害性。例如,利用人工智能技术在证券、期货市场进行市场操纵,很大程度上能够通过学习能力规避监管措施。又如,滥用人工智能与大数据进行个人信息犯罪与数据犯罪都会使得原有行为的社会危害性呈几何系数增长。在国家安全、信息数据、网络通讯等领域内的人工智能一旦被滥用,将会产生难以想象的巨大危害,有必要通过刑事立法进行风险防控。二是人工智能失控的风险,即人工智能意外失去程序控制进而实施违法犯罪行为的风险。由于人工智能是通过程序控制,一旦程序出错便会导致人工智能失控。所以,对于人工智能的研发者、使用者而言,必须在一定范围内承担相应的风险防控义务。应当看到,对于不可预见的、外力所致的程序出错与人工智能失控,显然不可归责于人工智能的研发者、使用者。但是,如果是由于人工智能的研发者、使用者的疏忽过失或过于自信过失导致的人工智能失控,且发生重大事故的,则应予以归责。此类立法可借鉴现行《刑法》关于重大责任事故罪的规定。三是人工智能“自主”犯罪的风险,即人工智能产生“自主”犯罪意图进而实施违法犯罪行为的风险。未来具备自主意识的超强人工智能必然会出现,对此具有类人甚至超人的人工智能主动实施的违法犯罪行为,如何进行规制和处罚,也是人工智能刑事立法必须要应对的问题。四是人工智能被侵害的风险,即人工智能技术、产品遭受非法限制、阻碍、破坏的风险。例如,行为人通过黑客技术干扰人工智能系统的实施,以达到逃脱监管或法律制裁的不法目的。又如,其他势力通过病毒等方式侵害人工智能产品,或阻碍人工智能的研发、应用等。人工智能的发展应受到刑法保护,可以通过刑事立法确认其独特的法益类型,并对侵害人工智能的行为进行刑法规制。
人工智能刑事立法贯彻风险管控原则应从源头管控开始。在人工智能的研发阶段,应对人工智能的研发者设定相应的义务,防止研发者破坏、滥用或者研发危险人工智能。例如,美国Google企业员工联名要求公司拒绝向美国政府提供人工智能技术用于军用攻击机器人的开发。除了对研发“杀人机器人”等危险人工智能的行为应予刑法规制外,还应对破坏国家人工智能的研发、应用的行为予以规制。此外,对于因研发过失而导致人工智能程序出错,发生重大事故的,也可予以规制。在人工智能的流通阶段,对人工智能的使用者、监管者、经手者均应赋予相应的义务,禁止其将人工智能技术、产品提供给违法犯罪分子。

3技术协调与法律协调

不协调的人工智能刑事立法将会对人工智能发展产生极大的阻碍,也会使得人工智能刑事司法实践产生诸多争议和困惑。因此,笔者认为,人工智能刑事立法还应当遵循技术协调与法律协调原则。
第一,人工智能刑事立法应当与技术发展相协调。人工智能时代可以分为弱人工智能时代和强人工智能时代。当今社会仍然处于新工业时代迈向弱人工智能时代的过程中。所谓强、弱人工智能时代,是指强、弱人工智能产品的应用普及人类生产、生活的方方面面。弱人工智能产品不具有辨认能力和控制能力,仅能在设计和编制的程序范围内实施行为,实现人类设计和编制程序的目的。强人工智能产品具有独立意志,能在设计和编制程序范围外实施行为。较为典型的弱人工智能产品如无人驾驶汽车。例如,上海嘉定区建成国内首个无人驾驶示范区,自动驾驶车辆已经进入实验阶段,之后将进行量产。刑法必须敏感地应对时代变化。人工智能刑事立法不能太超前于技术时代,也不能落后于技术时代。刑事立法应与所处时代可能出现的技术风险、责任分配规则相适应。在弱人工智能时代,对人工智能产品研发者、使用者应设定较高的注意义务,可进行过失归责。但随着人工智能技术的发展,人工智能产品智能化水平提高,对人工智能产品研发者、使用者的注意义务要求应逐渐降低,转而由具有自主意识的人工智能机器人来承担相应责任。直至强人工智能时代,责任分配从以人(人工智能研发者、使用者等)为主,转变为智能机器人为主。刑事立法与技术相协调还可以表现为,对刑法条文的精细修改与创新式立法。例如,无人驾驶汽车的普及显然将对交通肇事罪、危险驾驶罪的适用产生冲击,应对条文进行精细修改。又如,随着强人工智能的出现,应将智能机器人纳入刑事责任承担主体范围内,应对智能机器人犯罪进行规制,设立相应的刑罚制度。
第二,人工智能刑事立法应当与相关法律相协调。人工智能刑事立法与法律的协调又主要体现为以下两个方面。一是人工智能刑事立法应与其他部门法协调。例如,人工智能创造物的权利归属现在仍处于争议中,有人认为作品应归属于人工智能所有者,也有人认为应归属于人工智能本身。虽然这一争议未有定论,但如果《著作权法》做出了相关规定,在刑法适用上即应与其协调。与其他部门法协调并不是指刑法条文的含义与适用必须遵循其他部门法已有的规定,而是指在没有更充分、更强力理由的情况下,为了法律体系的统一性与法的可预测性,原则上采用不会与部门法相冲突的解释。正如学者所言,“刑法中的绝大多数用语,如果在民法以及其他部门法中有规定的,两者的理解应当保持一致”,“如果刑法用语的含义与其他法律不相一致的,反而是刑法对此应当有明文规定”。如刑法中的信用卡与事实婚姻的概念原本与其他部门法的规定不相一致,而后则通过刑法立法解释等将其解释为与其他部门法相一致的概念。同理此意,当其他部门法确立了智能机器人的法律主体地位或准法律主体地位时,刑事立法便应当考虑智能机器人的刑事责任与刑法保护问题,而不能将其仅作为工具对待。二是人工智能刑事立法应与其他刑法条文协调。人工智能刑事立法不仅需要与外部其他部门法协调,还应注意刑法体系自身的协调性。由于立法者受到立法技术、语言表达、认识能力的局限,新设立的条文或多或少会与原有的条文产生适用上的冲突。对于人工智能刑事立法而言,更应尽量避免冲突,能够与其他刑法条文的规定相协调。例如,一旦修改了交通肇事罪的条文,将无人驾驶汽车所有者所致的事故归责于所有者,那么为了达致刑法内部的协调,对于危险驾驶罪的条文也应做出相应的修改。超脱出交通安全领域,针对此类立法表象背后所展现的归责规则应贯彻于所有刑法条文,即人工智能所有者所致的人工智能出错并导致事故的行为可予归责的规则应当在其他刑法条文中予以贯彻。除了规则建立型的协调问题外,也会存在对刑法用语型的协调问题。例如,未来人工智能假肢被他人破坏的,也可考虑构成故意伤害罪。虽然假肢不属于传统意义上的肉体,但随着人工智能技术的发展,很可能日后代替肉体成为人的意识载体并具有人身性与依赖性,即成为人体的实质组成部分。由此,破坏假肢的行为即可能构成故意伤害罪而非故意毁坏财物罪了。人工智能刑事立法应与其他刑法条文协调还应注意刑罚方面的协调问题。刑事立法有可能导致刑罚不均衡。例如,“《刑法修正案(九)》降低了受贿罪的法定刑,但没有相应降低行贿罪的法定刑,形成了行贿罪的前两档法定刑高于受贿罪的不合理现象”。尽管可以通过解释来弥补这一漏洞,但如果能从源头上、根本上避免这一现象则可不必费心于解释以及普及解释结论。因此,人工智能刑事立法中也必须着重考量刑罚设置的均衡问题,既要在横向上均衡即与其他同类型犯罪相均衡,也要在纵向上均衡即设置合理的刑罚坡度,轻重适当。

上海市法学会欢迎您的投稿  fxhgzh@vip.163.com

来源:《上海法学研究》集刊2019年第3卷,《人工智能刑事法律理论研究——上海市法学会刑法学研究会文集》