sis banner sls2
欢迎光临上海市法学会!   您是第位访客 今天是
标题 内容 作者
  • 财税法学研究会
  • 法理法史研究会
  • 法学教育研究会
  • 港澳台法律研究会
  • 国际法研究会
  • 海商法研究会
  • 金融法研究会
  • 禁毒法研究会
  • 经济法学研究会
  • 劳动法研究会
  • 民法学研究会
  • 农业农村法治研究会
  • 商法学研究会
  • 社会治理研究会
  • 生命法研究会
  • 诉讼法研究会
  • 外国法与比较法研究会
  • 未成年人法研究会
  • 宪法研究会
  • 消费者权益保护法研究会
  • 网络治理与数据信息法学研究会
  • 刑法学研究会
  • 行政法学研究会
  • 知识产权法研究会
  • 仲裁法研究会
  • 反恐研究中心
  • 教育法学研究会
  • 航空法研究会
  • 卫生法学研究会
  • 立法学研究会
  • 法学期刊研究会
  • 法社会学研究会
  • 自贸区法治研究会
  • 竞争法研究会
  • 非公经济法治研究会
  • 人民调解法治研究会
  • 欧盟法研究会
  • 海洋法治研究会
  • 破产法研究会
  • 财富管理法治研究中心
  • 法学翻译研究会
  • 慈善法治研究会
  • 司法研究会
  • 海关法研究会
  • 环境和资源保护法研究会
  • "一带一路"法律研究会
  • 案例法学研究会
  • 互联网司法研究会
  • 文化产业法治研究小组
  • 体育法学研究小组
  • 人工智能法治研究会
  • 刑罚执行与回归社会研究小组
  •       
当前位置: 网站首页 > 学会活动

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(五)

2020-07-13 09:29:40 字体:

山本龙彦[日]

山本龙彦,日本庆应义塾大学法学院宪法学和信息隐私法教授,庆应义塾大学全球研究所(KGRI)副所长。2017年,担任华盛顿大学法学院客座教授。

山本教授曾是日本内务和通信部(MIC)组织的可信个人数据管理服务研究小组成员,MIC主办的AI网络社会会议成员,日本经济产业省(METI)、日本公平贸易委员会(JFTC)和MIC组织的关于改善数字平台交易环境的研究小组成员。

山本教授的主要作品包括:《人工智能与日本宪法》(2018)、《可怕的大数据》(2017)和《日本宪法的未来》(2016)等。

人工智能与日本宪法原则
日本宪法规定保证个人隐私,重视平等原则,实行民主制。充分考虑了人工智能可能对以上方面产生的负面影响,有助于更好地理解如何与之构建和谐关系。

基于人为决策的现代法律体系,前提是假设我们均为理性之人且能够做出自主选择。然而,即便排除一些如决策疲劳和决策无能的潜在因素,人们还是经常做出不理智的决定。这样的窘境可以通过一些途径化解,如将决策权依其必要性和适当性分配给人类和人工智能,并充分考虑其中的风险。通过分配决策权将时间和精力集中在需要人为决策的地方,从而可能提高决策质量。因此,建议建构人与人工智能决策结合的混合治理模式。

一、人工智能与隐私

人工智能社会充满了“预测”和“个性化”。换句话说,人工智能是从数据中学习过去,预测未来的需求和期望,进而对场景进行个性化。这些预测可以归为两类:一类针对社会,另一类针对个人,称为“分析”。分析是从个人数据中推断信息,如个人偏好等,通常用于各种社会领域,因为社会领域既提供信息,又提供服务,如定向广告等。个人在个性化服务中受益颇多,出现了更符合他们生活方式和性格的精准医疗、保险和教育服务。但提高预测的准确性和实现个性化需要大量数据,个人仍需保持谨慎。因此,必须要注意到,人工智能社会是一个“更多数据”的社会,这与保护数据和隐私的理念有着根本矛盾。此外,人工智能可以十分精确地预测敏感的私事或个人无意识的期望,这便涉及有关隐私的另一关键问题。过去,美国有多数超市未经顾客同意,通过追踪其购买历史去预测顾客是否怀孕(一种敏感的身体状态),并希望以此盈利。这样,企业可从看似无关紧要的数据中挖掘出敏感事项。

2015年修正的日本《个人信息保护法》将“个人数据”分为三类:(1)通用个人信息;(2)需要特别留意的个人信息,即敏感个人信息(信仰、医疗记录、犯罪记录等);(3)经匿名处理的信息。据同一修正案,揭露(2)敏感个人信息原则上需要个人事先同意,而获取(1)通用个人信息则无需事先同意。因此企业可以合法分析(1)通用个人信息和通过公开其目的来预测或间接“获取”(2)敏感个人信息。参照之前的例子,我们不能直接评价秘密预测顾客怀孕与否是非法行为,因为企业的营销目的早已公开。这就意味着即使个人认为是隐私,企业也能设法得到该信息并就此与第三方交易。尽管2020年还将修正《个人信息保护法》,但未计划就分析技术直接进行立法。至少个人应该收到通知或有权要求别人停止对涉及敏感信息的数据进行分析。(法律修正后可能需要履行以下功能。日本经济新闻社在2020年3月11日报道:“在此现状下,企业只要公布其使用数据的目的是“促进销售”就足够了。但在修正法律后还必须明确解释其“数据分析方法”,需要解释如何处理数据,例如如何用人工智能预测个人偏好。”)2019年,据披露有一个求职网站受到严厉批评,因其使用人工智能分析学生拒绝非正式工作邀请的几率,并且将数据卖给各企业。这一事例清楚说明了在人工智能社会中,我们不仅应该注意预防信息泄露这一安全问题,也应该注意数据分析问题。

image.png

二、人工智能、尊重个人和平等原则

日本宪法第13条规定“尊重个人”指不能仅以群体特征来评价个人,每种声音都值得认真聆听,每种特殊情况都值得纳入考虑。这是现代宪法的一项基本原则,旨在摒弃封建主义。封建主义中身份和阶级处于最高地位,而个人特点和能力却被忽视。人工智能个性化的总体趋势是细分目标的个体部分,通过致力于这一趋势,进而加强社会等级制度,造成封建主义威胁。尽管相比封建阶级的等级制度,目标个体这一部分更加零散,但如果盲目相信这种随机评价,仅依赖人工智能而省事地对个人进行分类,仍然违背了尊重原则。这并不是否认对人类的评价会因成见而产生偏差。这些情况下,应该寻求混合决策方法,让人工智能与人类互相取长补短。日本宪法第14条是关于“平等原则”的规定。对人工智能的滥用也可能危及平等原则,纵容新旧形式的歧视。首先,如果一组数据集本身就具有偏见,可能会继续延伸和加深旧形式的歧视。过去发生过一个事件:一个面部识别系统误把黑人女性打上大猩猩的标签,因为该组数据集由大多数白人男性组成,所以没能合理识别其他肤色的女性。进而导致该人工智能不能学习黑人女性的面部特点。其次,从用作黑匣子的人工智能算法可以看出新形式的歧视。近些年,信用评分系统得到广泛应用,其原理是分析多种个人数据,进而计算个人的社会信用。如果该分数不仅用作信用,还用作就业、教育或共享经济的信心指数,那么低分数很可能会遭受社会排斥。如果该分数能通过纯粹的努力来提升,那么这就不算一个问题。但是若人工智能使用类似深度学习的复杂方法,就无法对其数据处理方法进行解释。因此,人工智能将通过建立“虚拟贫民窟”,造成社会分层。人工智能可能腐蚀积极的民主社会,进一步建立虚拟贫民窟。面对这一风险,我们必须小心谨慎。毫无疑问,人工智能信用评分系统也有其可取之处,例如,通过基于线上和线下活动记录的可视化信用度,可以为没有传统信用的人实现普惠金融。在中国等国家,有争议的是,人们普遍认为行为会影响信用分,因为该系统鼓励人们远离危险或不道德的活动,所以对社会安全有一定的贡献。另一方面,除了上述风险以外,人们得知自己无时无刻不在监控之下,害怕自己的分数下降,这样都限制了其行为自由。如果充分考虑到这些方面,人工智能评分系统也能用于建立更加包容和自由的社会。

为此就必须:

1)在特定领域下限制评分系统的使用;

2)防止某一公司创造的分数主导整个市场,并确保用多元化的评分系统和算法对个人进行评估;

3)确保评分应尽可能地透明,并对企业经营者实行一定程度的问责制度;

4)制定程序确保个人可对基于分数的决定提出质疑。

三、人工智能与民主人工智能也会对宪法通过的民主制度产生负面影响。人工智能社会将必然变成“更多数据”社会,正如监控社会也必然会出现。尽管无时无刻的监控遏制了不道德的活动,实现了安全社会,但需要顺应的压力越来越大,将会有极权主义风险。
此外,个性化搜索导致了“过滤气泡”——一种知识孤立状态,人工智能进行数据分析而预测出用户偏好,基于这一偏好选择性分配信息,从而个性化个人网络体验,最终导致知识孤立。用户处在一种虚拟的“气泡”之中,这一“气泡”过滤掉人工智能认为是无关紧要的信息。虽然这可能是一个舒适的信息环境,可以加强用户的信仰。但也有人指出,不断过滤对立的政治信仰可能会招致态度的两极分化,进而造成社会分化。虽然近来有人就此反对,但可以肯定的是,身陷“气泡”中会缩小我们的知识面,模糊公共空间意识。因此,人工智能对信息环境的个性化,将让维护民主所需的两个因素难以实现:(1)与他人的意见互动。(2)政治团体成员具有共同经验。而且数据分析加强了假新闻等媒介操纵言论的效果,可能对民主的门槛产生威胁。自2016年美国总统大选以来,有一家英国政治咨询公司支持特朗普竞选,该公司在社交媒体账号收获的数据中分析出个人的心理倾向,并有选择地将假新闻发送给那些易受攻击的人。除此以外,人工智能也被用来制造极高质量的虚假内容,即“深度虚假”。以此方式,人工智能与制造虚假信息和选择性投放信息联系在一起。而社交网络服务正在开发多种系统,利用人工智能检测并删除虚假新闻,也注意到了对言论的过度监管可能带来危害。因此,全球范围内都在寻求算法与言论自由之间的充分平衡。
  语本文强调我们的目标不是通过无视隐私、收集数据,来简单地提升人工智能预测准确性,也不是为充分发挥机器学习的能力,而引入人类无法理解的复杂机器学习方法。2019年3月,日本修正了《以人类为中心的人工智能社会原则》,日本内阁府表示“人工智能的使用不能侵犯宪法和国际准则赋予的人权”。此外,该《原则》中还指出,关于隐私应考虑到保护隐私和公平、问责、透明等问题。这也说明了人类不应该简单地服从人工智能抛出的最优方案。相反,应该为人类和人工智能适当地分配决策角色,并仔细考虑人工智能的阴暗面,以实现日本宪法所蕴含的理想为目标,构建和谐的关系。具体来说,我们可以让人工智能进行自动驾驶,并积极将日常工作等简单任务的决策权分配给人工智能,这样能充分提升其速度和效率。然而,考虑到上述讨论的多种风险,诸如就业、信贷、保险和教育等重要决策,最终都应该按照《通用数据保护条例》的要求,交给人类进行负责任地人为决策。这种人机交互关系的结构与飞行作业类似。一般情况下,飞行作业会交给电脑进行自动驾驶,但紧急情况下会由飞行员手动操作来进行控制。这种混合系统根据必要性、适当性以及对风险的充分考虑,将决策权分配给人类或人工智能,以确保安全。对于生活在未来人工智能社会的人,人工智能社会最大的宪政问题可能是如何组建一个将人为决策与人工智能决策适当结合的混合治理体系。

image.png

上海市法学会欢迎您的投稿  fxhgzh@vip.163.com

相关链接

2020世界人工智能大会法治论坛 探讨“人工智能的权利义务与法治实践”

2019世界人工智能大会法治论坛精彩回顾

2020世界人工智能大会法治论坛H5

东方法学讲堂【人工智能法治专题】第一讲:刘宪权谈人工智能与刑事责任

东方法学讲堂【对话名家】:刘宪权

东方法学讲堂【人工智能法治专题】第二讲:季卫东谈疫情监控的智能网络与法律制度创新

东方法学讲堂【对话名家】:季卫东

东方法学讲堂【人工智能法治专题】第三讲:胡凌谈从刷脸到扫码

东方法学讲堂【对话名家】:胡凌

东方法学讲堂【人工智能法治专题】第四讲:马长山谈司法人工智能的可能与限度

东方法学讲堂【对话名家】:马长山

东方法学讲堂【人工智能法治专题】第五讲:彭诚信谈算法 数据 规则 法治

东方法学讲堂【对话名家】:彭诚信

东方法学讲堂【人工智能法治专题】第六讲:王迁谈人工智能与知识产权保护

东方法学讲堂【对话名家】:王迁

“2020世界人工智能大会法治青年论坛”即将开幕

讲堂报名丨季卫东 金耀辉:AI的权利和义务,人类说了算?

重磅阵容丨2020世界人工智能大会法治论坛嘉宾介绍(一)

重磅阵容丨2020世界人工智能大会法治论坛嘉宾介绍(二)

一图了解丨2020世界人工智能大会法治论

峰会时刻丨2020世界人工智能大会云端峰会排片表

讲堂丨季卫东  金耀辉:AI的权利和义务,人类说了算?

2020世界人工智能大会云端峰会开幕

2020世界人工智能大会法治论坛

官宣丨2020世界人工智能大会法治论坛征文活动获奖名单

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(一)

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(二)

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(三)

2020世界人工智能大会法治论坛主题演讲嘉宾观点集萃(四)