- 人工智能与法律的对话3
- 彭诚信主编
- 6708字
- 2022-03-21 18:00:44
二、欧洲
(一)机器人技术法规的相关指南
1.概述
作为受欧洲委员会2资助的“机器人法律项目”的调查研究,于2012年3月启动。3“机器人法律项目”的成果为2014年9月发布4的“规范机器人技术指南(Guidelines on Regulating Robotics)”。
该指南中,总结了思考机器人和法律时的基本思想。具体来说,通过对自动行驶车辆、手术支援系统、机器人假肢、护理机器人5进行伦理分析和法律分析,以阐明问题并指导政策建议。
2.首先有规制的必要吗?
在该指南的开头,首先讨论是否需要对机器人进行规制。
前面已经指出,过于严格的法规可能会抑制创新。对于许多读者来说,这可能是直观地(或凭借经验)赞同的地方。但同时,该指南还表明,如果依据看似自相矛盾的、不明确的法规,该由谁来负责以及怎样负责的规定不确定,也有可能会阻碍技术创新。
创新性越强,越有可能脱离先例和现有框架,而巩固法律评估的难度也就越大。即使在法律专家中,也常常存在分歧和“灰色”评估。例如,在日本关于自动驾驶和驾驶支援系统等新技术,开发人员和使用者对于承担怎样的法律责任还没有进行充分的讨论,现在责任的形式还不清楚。这样的话,开发者和使用者除了要承担单纯意义上的法律风险外,还要承担法律不确定性的法律风险。6结果,进行了过度的安全确认,可以预想到会产生诸如引入市场延迟之类的萎缩效果。换句话说,当在社会中实施新技术时,如果不清楚将什么视为对权利和利益的侵犯,以及该由谁来承担什么样的责任,如果这些规定含糊不清,则会增加“交易成本”,交易主体会遭受意想不到的不利影响。在没有可靠的法律环境的情况下,过度规制和规制不足都是风险因素。
通过推进法律分析,也可以从“灰色”中解析出“白色”的外延(关于自动驾驶汽车引起的交通事故责任,详情请参照本书第七章和第九章)。此外,如果事先就自动驾驶汽车的预期安全性进行了公开讨论,并且形成社会共识,那么决定何时向市场引入自动驾驶功能将变得更加容易。
该指南在采用这种观点的基础上指出,有必要形成促进机器人技术创新的法律框架。7并且得出有必要建立欧盟成员国之间共享全面原则和框架的结论。
3.产业政策和规范的结合
“规范机器人技术指南”还试图与自由、安全、正义和平等等规范进行协调。机器人是在欧洲市场上占有重要地位的战略领域,8但它们可能会通过改变劳动力市场、收入分配和所需的工作能力来改变社会结构。因此,该指南分析了必须适当地结合产业政策和规范策略,以免损害机器人产业的发展。
为了更详细地理解这个问题,笔者想介绍该指南中增强技术9的部分。增强是指以改善个人性能为目的,通过技术改变人体;增强技术是指以此为目的的技术。当前,它主要用于恢复残疾人失去的功能。但是,它不仅具有补充功能,还可以给健康人带来新的功能。
关于增强技术,该指南评估应积极促进研发,以改善残疾人的“生活质量”。此外还指出,欧盟有义务根据《残疾人权利公约》对其进行推广。同时,分析得出对增强技术潜在市场的开拓将为欧洲带来巨大的好处。
另外还指出,考虑到增强所带来的机会和风险,有必要从伦理和法律角度更新“知情同意”的概念(关于知情同意在日本的意义,请参照本书的第八章)。但是,从对“人的尊严”(《欧盟基本权利宪章》第1条)、自我决定的自由、预防原则10等的解释出发,很难区分允许增强与不允许增强的标准,并很难得出给予健康人的新功能是否存在问题的判断标准。因此,建议该指南不仅应制定技术安全标准(欧盟医疗器械指令等),还应通过公开讨论和专家研究来制定伦理和法律准则。
为了使新技术在社会上普及,分析怎样的形式才能被人们接受的规范和价值观也变得重要。例如,增强可以超越功能的恢复和维持,以能力和性质的“改良”为目标,所以有可能重新探讨“病理”“健康”“(健康)正常”“残疾”“治疗”等概念。根据技术应用的形式,可能需要等待新技术投放市场或工业应用,直到建立共识和社会性议论成熟为止。但是,即使它是基于不确定的科学和技术预测,也可以通过将社会性讨论、伦理和法律研究与技术研发并举来减缓时滞。这也关系到获得产业上的优越性。
(二)有关机器人技术的民法规则
1.概述
基于“机器人法律项目”的成果等,2015年1月开始,欧洲议会法务委员会设置了“机器人技术与AI相关工作组”。112016年6月,为了便于工作组讨论,欧洲议会调查局的科学技术选择评价委员会(Science and Technology Options Assessment,STOA)事务局公开了机器人进展风险分析报告书。12以此为基础,讨论得以继续,2017年1月,法务委员会汇总了《关于机器人技术相关民事规则向欧洲委员会的建议》(Report with recommendations to the Commission on Civil Law Rules on Robotics)作为报告书。13
该报告书认为,为开展AI、机器人相关事业,确保法律的稳定性非常重要。此外,为确保安全性等,有必要在欧盟区域内导入统一的民法规则。除此之外,还强调欧盟必须承担主导作用,以避免被他国制定的标准所强迫(虽然没有明确指定,但可能是设想到美国)。该报告书内容涉及面广,大多为探讨自律型智能机器人等的定义、分类,确立伦理原则,明确自律型机器人的责任归属,研究自动行驶汽车相关强制加入保险制度,导入为确保可追溯性机器人、AI的登录制度,包括设立机器人的相关技术性、伦理性、法律课题的专门建议机构等。并且,为明确将来发生损害时的责任,也提到可能会承认一部分自律型机器人的“电子法人”等一定的法律主体地位(关于作为合同代理人的机器人、AI,请参照本书第六章;另外,关于机器人、AI承认行为能力和法律人格的法律理论上的诸课题,请参照本书第三章)。
2017年2月,在欧洲议会的正式会议上,该提案在修改后被采纳。因此,今后欧洲委员会将讨论是否应该提出修正法案。14
2.机器人、AI和劳动力、雇用
通过的内容是讨论有关机器人和AI的民法规则。另外,已删除有关引入所谓“机器人税”的所有描述。在这里,笔者想提及一下机器人、AI和劳动力与雇用。
随着机器人和AI的普及,一方面,人们对诸如提高生产率以及不在危险环境中工作的需求等对工作环境的改善抱有很高的期望;另一方面,人们普遍担忧机器人和人工智能会影响广泛的职业,并且可能夺走原本由人类承担的各种工作。
2017年1月公布的报告书中也指出,可能会造成雇用减少、贫富差距扩大、税收减少、破坏社会保障制度等。随着机器人的普及,如果对人的雇用减少,社会保险费和税收就会减少。另外,对以失业者为对象的教育培训投资也会提高。因此,为实现可持续的税制和社会保障制度,建议对注册搭载AI等机器人的企业,以及拥有机器人的企业等,赋予以灵活运用机器人所获利益的一部分来负担“机器人税”或引入“基础投资”等义务。
但是,国际机器人联盟和德国机械设备产业联盟表示反对引入“机器人税”,在出示汽车行业等统计数据的同时,主张每个国家每10 000名工人的机器人数量是“机器人密度(robot density)”,而“机器人密度”与员工人数之间存在正相关。在欧洲议会全体会议上,有意见认为,对机器人征税会阻碍机器人的普及,降低欧盟和成员国的竞争力,并最终导致人员失业。因此,引入“机器人税”在该会议上没有被采纳。
在机器人、AI替代任务和个别业务的同时,即使创造出新的劳动力和雇用,对技能适应性和雇用流动化的对应,也作为法律政策上的课题遗留下来。确实,还没有开发出能解决所有课题的“泛用AI(Artificial General Intelligence)”,因此完全替代人类的机器人、AI的登场仍是遥远的未来。但是,可以预期,专门用于一种或几种功能的“专用AI(Narrow AI)”将变得更加精炼和普遍。这样一来,为了让就业者学习机器人、AI的使用方法,为企业调整结构转换环境,就需要一定的政策改变。15反过来说,为加速对机器人、AI的灵活运用,消除劳动力、雇用方面的担忧,从而促进人才向新产业移动,重新审视社会保障制度也很重要。另外,在欧洲议会上也讨论了关注机器人、AI对雇用、劳动力的中长期影响的内容。16
3.需要开发原则和使用指南吗?
欧洲议会还提议了“机器人技术宪章(Charter on Robotics)”框架,并提出开发人员伦理行为规范。17在介绍细节之前,笔者想先谈谈将开发原则和使用指南作为抽象规范提出的原因。
正如本章开头所述,目前不论产业界、政府还是学术界,都在积极开展国际活动来制定原则和指南。18然而,有人(即使采取对机器人、AI有必要进行一定程度限制的立场)认为制定指南和原则是“多余的事情”,也有批评认为讨论没有实际事例证实的纸上谈兵会导致效率低下。
当然,关于机器人、AI的开发和利用,可以不讨论抽象原则,而设想通过个别法律修正和立法对现行法中存在的问题一一解决的方法。但由于利用机器人、AI的场合多样,如果临场才形成规则,制度整体上没有整合性,开发者、用户等可能会产生混乱,从而引起不公平。为了避免这种情况,希望在不同的机器人、AI利用方面能保持统一的视角。
另外在欧洲,如果各成员国的规则在欧盟内也大不相同,这将成为进出口的障碍并阻碍业务发展,因此需要一定程度的协调。开发原则和使用指南预期具有指示应从什么角度来考虑成员国的法规和标准的功能。此外,一般而言,在规则形成过程中,不仅是立法和行政部门,司法部门也起着重要作用。换句话说,事件发生时,各地法院希望能够适当地理解新技术、适用法律解释并谋求妥当地解决。那时,如果有法庭上的当事人和法律界人士可以援用、法院可以参照的指导方针(以及为获得指导方针而进行讨论的积累),不仅可以提高讨论效率,对于社会整体也有价值。19机器人技术宪章中的规范也期待能起到补充法律措施的作用,旨在强化、促进创新的同时回应公众的关注。
4.机器人技术宪章
机器人技术宪章由机器人开发者的伦理规范、研究伦理委员会的规范、设计者和用户许可证三部分组成。让我们逐步对每个部分进行介绍。
(1)机器人开发者的伦理规范
首先,说到底“机器人开发者的伦理规范(code of ethical conduct for robotics engineers)”是任意性的,不具有义务性和强制性,只是一般性的原则和指导方针。20
具体而言,有以下12项:①机器人应为人类利益而行动的“有益性”;②机器人不得对人类施加危害的“无害性”;③以人类的充分信息为基础能够任意判断的“自律性”;④看护机器人或护理机器人等享受到公平的“正义”;⑤应该始终尊重人的尊严、自主性等权利的“基本权利”;⑥根据预防原则应考虑社会和环境的“预防性”;⑦鼓励所有利益相关者参与决策过程的“包容性”;⑧对当代和子孙后代的社会、环境和自然影响的“责任”;⑨应尊重人类身体、健康和权利的“安全性”;⑩作为可通过编程来安全可靠地操作机器人的必要条件的“可逆性”;⑪安全且适当地使用个人信息“隐私”;⑫从研究到普及为止的所有阶段被要求的“利益最大化、受害最小化”(对这12项进行更深的探讨,请参照本书第四章)。
上述12项(即使保留各论)作为总论来说是很普遍的,再次提出它们似乎毫无意义。但是,例如系统开发等过程中的项目管理,从项目目的、范围、前提条件等基本决定即“项目宪章”的制作开始,通过在启动过程中整理“明确的前提”,从而使利益相关者之间达到相互认识并匹配的效果。另外,作为个别论点产生时应该回顾的更高阶、更抽象的原点,可以期待一定程度上缓和讨论的无限后退。此外,通过对各项作整体解释,它将作为系统发挥作用。例如,通过将无害性、安全性、有益性或利益最大化、受害最小化视为一体,指出并非都指向零风险。再加上,事先将伦理规范作为项目进行提示,也许可以期待标准规格的相互进入等也能带来波及效果。21
(2)研究伦理委员会的规范
其次,“研究伦理委员会的规范(code for research ethics committee)”是将上述机器人开发者的伦理规范作为组织(研究机构和企业)来实现的管理指南。
提出以下6项:①“独立”,应将道德审查程序与研究本身分开以避免利益冲突;②“能力”,伦理审查过程应由具有适当专业知识的人进行;③审查过程的“透明性和说明责任”;④“研究伦理委员会的作用”,以组织内所有研究为对象,在考虑研究和利害关系者的尊严和正当利益的同时,应及时作出判断;⑤“研究伦理委员会的构成”,应该将具有专业知识的跨学科、专业均衡的成员召集在一起;⑥“监督”,即使在批准后,也应确立适当的过程以关注研究,并继续进行监督。
上述可以定位为有关程序的规范。说到“法律”,容易联想到规范内容本身,但用于实现规范内容的相关程序规范也是一种法律。例如,不仅有实体法对民法和刑法等内容进行规范,还有程序法对诸如民事诉讼法和刑事诉讼法之类的形式方面进行规范。(详细内容参照本书第十章)。虽然程序法似乎在实体法中处于附属地位,但毋庸置疑,在内容规定形式的同时,形式也规定内容。因此,有必要同时探讨两者。
(3)设计者和用户许可证
“设计者许可证(licence for designers)”“用户许可证(licence for users)”是作为模型雏形提出的。设计者许可证是将机器人开发者的伦理规范修改为许可证形式,还包括引进紧急情况下停止机器人功能的“关闭开关”等。用户许可证也是通过改变机器人开发者伦理规范所获得。在使用方面需要注意的有:在数据主体未明确表示同意的情况下,禁止收集、使用个人信息;禁止改造机器人作为武器使用(关于作为武器的机器人,请参照本书第十二章)等。
在此,关于设计者和用户的区分,笔者想厘清必备的技术知识。机器人倾向于关注躯体,但是在感知周围环境的基础上通过适用、判断算法应用软件也成为构成要素。而且,机器人技术和云技术的接近正在急速推进,很多研发人员和经营者都计划将躯体与网络连接,将感知、收集到的数据通过云累积、共享、进行分析以改善服务等。此外,还将实现对第三方(既不是躯体的制造商也不是单纯的使用者)的应用开发和提供。也就是说,将来机器人也有可能实现目前在智能手机上看到的应用开发和使用环境。因此,除作为利害关系人的制造商开发者设计了作为平台的机器人之外,还预想有一些应用程序开发人员也具有作为用户的一面。
AI也具有类似的结构。例如,在使用深度学习的AI开发过程中,定义基本结构并设计算法后,输入学习数据并调整以便获得预期结果的参数;也有用户接受他人设计的算法,进行学习数据的输入和参数的调整,开发出新AI的情况。因此,设计人员很有可能以意想不到的方式使用它并开发出超乎想象的AI。22
如上所述,设计者和用户对于最终成果机器人、AI的预见可能性和期待可能性有所不同,因此在指导方针等方面有区分两者的实际意义(围绕机器人、AI开发、使用的利益相关人的多层化、复层化,请参照本书第五章)。
(三)“制造物品”和法律政策
1.产业构造的反映
前文概述了欧洲机器人、AI的开发原则和使用指南相关的法律政策动向。尽管目前为止讨论的内容包括了AI,但应该注意到机器人是讨论的主要内容,如“规范机器人技术指南”“机器人技术相关民法规则”“机器人技术宪章”等。这被认为是受欧洲(特别是德国)产业结构的影响。
欧洲和日本、美国一样,服务业的比重在提高,就业也在扩大。当然,德国在“制造”产业结构上优势明显。2000年以后,德国将劳动密集型生产工程转移到东欧各国等地,只将高附加值生产工程留在国内,并通过谋求高品质模型的品牌化等手段,成功地提高了对销售额的附加价值。为进一步推进产业结构,并维持和强化作为出口国的国际优势,德国联邦政府还提出推进以制造业为中心的产业数字化即“产业4.0”战略。23另外,2016年11月德国联邦劳动社会部公布白皮书《劳动4.0》,以考虑“工业4.0”的未来就业政策。24《劳动4.0》和之前编写的“2030年劳动市场预测”调查报告书中指出,如果推进“产业4.0”战略,则不仅可以预期到经济增长,而且预计就业也会增加。
与机器人、AI开发原则和使用指南相关的法律政策趋势也基于此背景。
2.来自学术研究机构的建议
学术研究机构在促进机器人、AI产业振兴中也发挥着重要作用。同样在欧洲,学术研究机构的AI研发基地在政府支持下,与产业界、政府和学术界联合培养出机器人、AI研发人员,支持起步推进创业。不仅如此,研究人员还参与规范制定,进行研究和提出建议。在此,笔者想概要总结一下欧洲学术研究机构的法律政策动向。
(1)FHI
在早于2005年的时候,英国牛津大学哲学系成立了名为FHI(人类未来研究所)的机构。顾名思义,其着眼于技术变革对人类未来的伦理影响,研究领域除AI外,还涉及气候变化和经济崩溃等风险,25是正在进行的跨学科研究。关于对AI的研究,在保证可控性和安全性的同时,从如何灵活运用这一观点出发在推进研究。26
(2)CSER
风险研究中心CSER(Centre for the Study of Existential Rick)于2012年在英国剑桥大学人文与社会科学学院成立。研究主题是国际破坏性风险,包括诸如AI和纳米技术之类的尖端技术。邀请产业界、政府和学术界等各种利益相关者举办讲习班和研讨会。
(3)CFI
2015年英国剑桥大学还设置了新莱弗尔梅未来智能中心CFI(Leverhulme Centre for the Future of Intelligence)。与牛津大学、伦敦大学、加利福尼亚大学等合作进行广泛研究,从确保算法的透明性到人工智能对民主的意义,以便最大程度地利用人工智能。