我国医疗人工智能相关法律研究进展和国际比较.docx

上传人:wj 文档编号:30869840 上传时间:2024-09-12 格式:DOCX 页数:32 大小:3.24MB
下载 相关 举报
我国医疗人工智能相关法律研究进展和国际比较.docx_第1页
第1页 / 共32页
我国医疗人工智能相关法律研究进展和国际比较.docx_第2页
第2页 / 共32页
我国医疗人工智能相关法律研究进展和国际比较.docx_第3页
第3页 / 共32页
我国医疗人工智能相关法律研究进展和国际比较.docx_第4页
第4页 / 共32页
我国医疗人工智能相关法律研究进展和国际比较.docx_第5页
第5页 / 共32页
点击查看更多>>
下载资源
资源描述

我国医疗人工智能相关法律研究进展和国际比较.docx

《我国医疗人工智能相关法律研究进展和国际比较.docx》由会员分享,可在线阅读,更多相关《我国医疗人工智能相关法律研究进展和国际比较.docx(32页珍藏版)》请在冰豆网上搜索。

我国医疗人工智能相关法律研究进展和国际比较.docx

  

 

  

我国医疗人工智能相关法律研究进展和国际比较

 

  

 

 

 

 

 

 

 

   

 

 

 

 

 

一医疗人工智能的应用以及面临的主要法律问题

2017年7月,国务院发布了《新一代人工智能发展规划》,明确了我国人工智能发展的战略目标;2018年,国务院办公厅出台的《关于促进“互联网+医疗健康”发展的意见》加速了医疗人工智能在辅助医疗、影像诊断、疾病管理、监管控费、药品研发等领域的普遍应用。

华为、阿里巴巴、腾讯以及科大讯飞等企业纷纷踏入医疗人工智能领域,掀起了医疗人工智能的研发与应用的浪潮。

但是人工智能的深度学习与自主意识不断模糊着物理世界和“自然人”的界限,挑战“自然人”的主体地位,并引发一系列的伦理、法律问题。

我国没有关于医疗人工智能的专门立法,医疗人工智能的研发、审批、应用、监管需要新的标准与法律规范。

目前在医院应用的医疗人工智能产品,例如,“达·芬奇”手术机器人等是被当作医疗器械进行管理的。

目前,我国解决涉及机器人医疗侵权损害纠纷[1]的主要法律依据是《侵权责任法》以及《最高人民法院关于审理人身损害赔偿案件适用法律若干问题的解释》。

在与手术机器人相关的判例中,从作为判决依据的主要法律法规中可以看出,医疗机器人归类于医疗器械。

2020年中国第一个通过第三类医疗器械认证的人工智能产品上市,拉开了我国医疗人工智能产品获批的序幕。

随着拥有深度学习能力的机器人出现,医疗人工智能的监管机制和防范理论亟待突破与发展。

深度学习的机器人不再是弱人工智能级的机器人,而是拥有自主意识的强人工智能级机器人,它使我们医疗责任的归责原则和承担主体更加复杂,赋予强人工智能级的医疗人工智能法律主体地位将成为可能,这将打破原有的民法体系,需构建新的法律原则与新的法律体系对其进行规制。

新的监管机制和防范理论有待构建,有必要通过制定法律或设立机器人登记制度赋予医疗人工智能法律人格。

有学者提出可构建赔偿基金制度与强制保险制度。

(一)医疗人工智能的应用

当前,人工智能在AI治疗、医学影像、辅助诊断、健康管理、疾病预测、药物研发等方面得到了广泛的应用(见图1)。

智能诊疗平台可以根据大量的医疗数据与相关知识,以及病理报告和症状辅助医生提高诊断结果的准确率,并针对每个患者制定个体化的精确治疗方案。

机器人辅助手术可以提高手术的成功率和精确度,减少患者创伤,缩短手术时间。

基于放疗专家筛选出的病理诊断、影像文件、结构数据等肿瘤大数据,深度学习算法建立的预测模型,结合精准快速的肿瘤靶区自动勾画,形成高质量的放疗计划。

此外,医院护理机器人可以辅助完成护理工作,担负辅助患者康复训练工作。

在慢病管理方面,医疗人工智能能够帮助患者维持良好的状态或者使患者康复;在疾病预防方面,医疗人工智能能够有效降低患病率和发病率,预测、防控重大流行疾病,为卫生行政主管部门提供应对决策预警;在药物研发方面,医疗人工智能的作用主要体现在分析药物的化学结构与药效的关系,以及预测小分子药物晶型结构等。

图1人工智能在医疗领域的应用

(二)医疗人工智能面临的主要法律问题

医疗人工智能面临的法律问题(见图2),其核心或者出发点是对大数据与核心算法的规制。

因为大数据与核心算法是医疗人工智能的灵魂与表现形式。

然后确立规制医疗人工智能的基本原则。

医疗人工智能基本原则是安全、有益、平等,最终目的是以人为本。

还有一个问题是医疗人工智能的知识产权问题。

在确定了出发点与最终目的之后,就从以下几个方面进行规制。

图2医疗人工智能面临的主要法律问题

图3医疗人工智能规制具体的规制领域

1.是否可以确立医疗人工智能(或者“机器人医生”)的法律人格

医疗人工智能的法律人格问题可以分为两个层面:

一个是是否必须确定医疗人工智能法律人格的问题;另一个是如何确立医疗人工智能的法律人格的问题。

人工智能通过深度学习,逐渐呈现出一些“自主性”的特征。

“机器人是人吗?

”这个问题变得越来越重要。

因为人工智能的民事主体身份的确认是明确其法律行为、法律责任、归责原则等问题的基础。

在传统的民法体系中,民事主体有自然人、法人、非法人组织、国家与国际组织。

深度学习的强人工智能是否可以被赋予有限的民事能力,是否能以“机器人”的名义位列民事主体是一个重大的法律问题。

2.如何设定医疗人工智能的诊疗规则

法律是以国家名义颁布的、以权利义务为内容的、以国家强制力保障的主体的行为规范。

无论是设定医疗人工智能的民事主体身份,还是把医疗人工智能当作医生的医疗辅助手段,都必须有相关的法律文件对医疗人工智能的诊疗行为进行规制,例如,关于机器人手术的相关法规,2012年,国家卫计委印发的《机器人手术系统辅助实施心脏手术技术规范(2012年版)》和《机器人手术系统辅助实施心脏手术技术培训管理规范(2012年版)》。

但实际上,手术机器人不仅做心脏手术,还做脑部、胸部、腹部、四肢等多部位手术,但其他的相关法律法规的设立还在摸索初期,国际公认的手术机器人标准也尚未形成。

3.法律责任归责原则与承担方式

医疗人工智能导致医疗损害的责任认定要从两个层面去进行法律架构:

一个是法律责任的归责原则;另一个是法律责任的承担方式。

医疗人工智能有可能因硬件故障、程序漏洞、深度学习后的自主性等引发医疗事故,例如,在英国2015年首例“达·芬奇”手术机器人心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。

[2]我国《侵权责任法》规定:

“责任医师或医疗机构对患者在医疗服务中所受的损害有过错的,医疗机构应承担赔偿责任。

医疗器械产品缺陷导致的医疗损害,由医疗机构和生产者承担连带赔偿责任,适用无过错责任原则。

”很显然,《侵权责任法》考虑到了由医疗器械导致的损害的责任承担问题。

但是在由具有自主性、独立性和拟人性的医疗人工智能导致的医疗损害的案件中,谁是责任主体、应用什么归责原则,却是一个新问题。

4.风险防范问题

(1)隐私风险

患者个人的医疗数据包括个人基本信息,比如姓名、年龄、性别、住所、籍贯、工作单位、联系方式等,还包括身体指标、既往病史、诊疗记录、生物基因信息等健康信息。

这些相关的隐私信息如何收集,如何储存,如何使用,如何在保障患者知情权的情况下,合法获取患者的疾病信息都是重要的法律问题。

(2)数据安全

医疗人工智能的深度学习需要收集并分析海量的数据资源。

而这些数据资源关系到国计民生,甚至国家战略决策,一旦泄露后果不堪设想,例如,2015年我国深圳某基因科技服务有限公司、某医院与英国牛津大学开展合作研究,研究中国人类遗传资源。

在合作过程中,中国公司把人类遗传资源信息通过网络传递到国外,且没有经过相关部门的批准与许可,因此收到科技部的行政处罚书。

2016年,英国伦敦皇家自由医院为了研究肾脏医疗新方法,约160万名患者的相关信息被该医院交给“深度思维”公司,因为侵犯患者隐私,侵犯患者知情同意权,“深度思维”公司数据来源的合法性和正当性受到质疑,同时皇家自由医院也因传递患者信息这一行为被英国信息委员会要求整改。

因此如何充分利用大数据以供人工智能的深度学习同时保护好大数据安全也是一个期待解决的法律问题。

(3)医疗人工智能深度学习后的“自主性”导致的风险

上海交通大学江晓原教授认为人工智能的发展的会对人类造成远期、中期、近期的三大威胁。

“近期威胁是大规模失业与人工智能的军事化应用。

中期威胁是人工智能的失控与反叛。

远期威胁是至善全能的人工智能消解人类的生存意义。

”[3]人工智能通过大数据的喂养与“自主性”地深度学习,成为各个领域的实际控制者。

民众不知不觉地被无形的、强大的算法技术管控与统治,无法抗拒。

如被算法控制的打车平台、自动驾驶与导航系统、银行对个人或者企业的信任风险评估体系、互联网的广告分发系统、媒体软件的内容推送系统、犯罪预警系统、股票与基金模型等,其中一些具有偏见与歧视的算法被数据科学家称为“数学毁灭武器”。

尤其是人工智能的反叛与失控可能会给人类带来毁灭性的打击,因此如何防范人工智能深度学习后的“自主性”导致的风险是一个极其重要的法律问题。

(4)伦理风险

人工智能有可能因为设计者的偏见与歧视,或者经过深度学习后习得了偏见与歧视,这种有意或者无意的偏见与歧视会导致不公平,或者对某些特定群体不利。

因此我们要防止技术的滥用和异化,尽量避免歧视与偏见,避免损害生命体的尊严。

在真实世界中,昂贵的医疗人工智能诊疗新技术的应用有可能侵犯贫困患者平等的生命健康权利;优生优育计算软件有可能剥夺某些缺陷胎儿的生存权利;利用医疗数据软件指导开发的某些药物与医疗器械有可能不利于某些特定人群、种族、性别等。

算法的不透明,有可能严重影响消费者利益,甚至有可能通过辅助决策与执行影响公共政策。

当然还有战争机器人的伦理问题等。

二医疗人工智能法律规制的基本原则与伦理问题

国务院颁布的《新一代人工智能发展规划》认为,应当“最大限度降低风险,确保人工智能安全、可靠、可控发展”。

腾讯研究院法律研究中心首席研究员蔡雄山认为应该确定人工智能的发展方向与原则。

发展方向是人类普遍受惠(BroadlyShared)和对人类有益(Beneficial),即普惠性与有益性。

美国众议院人工智能核心小组成员约翰·德兰尼(JohnDelaney)称赞《人工智能未来法案》,他认为该法案确保了人工智能的发展方向,就是利于社会发展与劳动者的生产方式。

2016年5月,欧盟法律事务委员会的《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》、“机器人宪章”要求机器人的研发机构与研发人员在研发与设计机器人时必须遵守基本的伦理原则,并且对这些基本伦理原则进行了归纳。

2017年,电机电子工程师学会(TheInstituteofElectricalandElectronicsEngineers,IEEE)的自主化智慧系统伦理全球倡议(IEEEGlobalInitiativeonEthicsofAutonomousandIntelligentSystems)中的伦理通则包括不侵害人权(HumanRights)、福祉(Well-being)优先、对技术设计及操作问责(Accountability)、透明公开(Transparency)、降低滥用(Misuse)风险。

图4关于人工智能立法原则的国际比较

我国法律体系是一个一元多层次的统一法律体系,有许多通识性的基本原则包含在《宪法》,以及《民法》、《行政法》与《刑法》等部门法当中,而且这些基本原则对于下位法具有指导意义与法律效力,因此并非所有相关的基本原则都必须用文字体现于医疗人工智能的法律条文当中。

简要概括医疗人工智能法独特的基本原则,就是安全、有益、平等(非歧视)、以人为本(见图5)。

图5人工智能规制的基本原则

法律是历史的产物,具有时代的特色,也是对当下生活世界另外一种方式的真实写照。

目前我国国家食品药品监督管理总局(CFDA)认为医疗人工智能是第三类医疗器械,因此是“工具”,是“客体”。

所以规制医疗人工智能的基本原则,首先是“以人为本,为人服务”。

其次医疗器械与药品的审核标准或者说临床试验的两个考核指标是“安全性”与“有效性”,与此相对应,规制医疗人工智能的法律原则可以是“安全性”与“有益性”。

最后由于人工智能可能存在歧视或偏见,可能导致不公平或者对特定人权不利,所以还必须确立另外一个原则,即平等(不歧视)原则。

目前也有不同的声音,认为对于深度学习的智能机器人应当赋予其“人”的资格。

如果赋予智能机器人“人”的资格,那么机器人就不再是“工具”,不再是“客体”,而是与自然人平等的“人”了。

伦理规则、法律规范都对医疗人工智能起到引导与规范作用。

但我们应以伦理为先导,开展人工智能的伦理研究,即先确立一些基本的伦理原则、设立伦理委员会、开展伦理审查,以此作为后来“人工智能法”确立的基础是目前比较通用的方法,例如,韩国颁布了《机器人伦理宪章》、日本起草了《下一代机器人安全问题指引方针》;谷歌公司设立了“人工智能研究伦理委员会”。

因此我国要尽快完善医疗人工智能的伦理审查机制。

首先,统一共识,确立医疗人工智能研发与应用的伦理规范指南。

为相关的整个领域、整个行业提供依据与标准。

其次,建立医疗人工智能伦理评价的指标体系。

就像药物临床实验一样,确立医疗人工智能产品临床实验的评价指标体系,明确要达到什么样的结果。

这个指标体系既是立项审批时风险评估的依据,也是结项验收时的评价指标。

再次,设立医疗人工智能伦理审查委员会。

该伦理审查委员会的构成包括医学、伦理学、法学、计算机等理论与实践领域的专家。

审查底层算法的伦理性,防止存在偏见与歧视;审查合法性,使之符合相关法律法规;审查安全性,即是否有相关的设计来保证人工智能的安全;审查有益性,即是否对社会发展、人类的生存、生活有益。

最后,为促进医疗行业信息化的发展,我国可以根据《“健康中国2030”规划纲要》和《关于促进和规范健康医疗大数据应用发展的指导意见》的战略部署,对底层算法、数据收集、存储与利用、医疗人工智能产品的准入门槛、运行机制、实际应用等制定一系列技术标准。

三医疗人工智能核心算法与大数据的法律规制

“算法即法律”,人工智能以算法为核心、为主体,以大数据与计算能力为两翼,这种“一体两翼”结构的关键要素便是“算法+有效数据+计算能力”[4],它使得深度学习的机器人成为可能,并且不断超越。

(一)医疗人工智能核心算法的法律规制

1.人工智能算法的法律属性与特点

“智能算法基于其不透明性和自主性逐渐脱离了工具化的范畴”。

[5]海量数据与惊人的计算能力远非人力所能为,因此人工智能在为人类服务的过程中或许会逐渐反客为主,甚至可能主宰公共政策的制定,主宰社会资源的分配,形成一种新型的关系,即人工智能算法与人类之间的技术支配关系。

(1)智能算法的法律属性

算法的表现形式是程序,实体内容是一套用计算机语言描述或表达的决策方案。

算法的实体内容可以理解为一套自动化的决策方案,这个决策方案就是对不同主体的权利义务的分配与处分,因此从公共管理、社会秩序、权利与义务等视角而言,算法即法律。

法律必须公开才有利于遵守,既然算法是法律,算法就必须公开。

而事实上,算法表现为程序、源代码,与普通大众具有隔离性,因此我们必须让那些不懂算法的大众具有救济权利的机会。

法律算法的表现形式是计算机语言描述后的程序,也可以理解为是开发者的数据产品、商业秘密、知识产权。

为了实现对算法的解释而要求披露算法源代码引起了关于保护商业秘密的争议。

(2)智能算法的特点

①算法黑箱与算法自主

智能算法与民众的理解和现有法律体系具有隔离性。

人工智能需要海量数据“喂养”,依凭海量数据、计算能力与算法形成“深度学习”能力,或者“自主性”的能力,这种能力导致“黑箱”(blackbox)出现。

“黑箱”一方面指的是人工智能的设计者或者研发者所预设的底层算法,普通大众无法洞悉;另一方面指的是人工智能通过深度学习,逐渐习得的“自主性”,人类无法捉摸与把控。

“黑箱”不仅意味着大众不能目测观察,甚至意味着不能理解。

②算法偏见与算法歧视

选取数据中预先存在的偏见、算法决策中数据的抽样偏差及其所设置的权重等原因导致的针对具有某些特征的群体的不公平,就是算法偏见与算法歧视。

③算法绑架与权力化趋势

首先,算法的“一体两翼”结构,即“算法+有效数据+计算能力”,其中包含对于海量数据的垄断性占有与使用,即对资源的垄断性占有与使用。

其次,算法直接变为行为规范,影响并控制个体的行为。

比如滴滴打车平台控制了预约分配、路线、费用、评价标准,司机与乘客只有遵循这些规则才能良好地使用此平台,司机与乘客的行为受到了管控。

此外,算法将被普遍应用于公共管理领域,例如公共领域的人脸识别、交通监控、疾病监控等。

并且辅助甚至代替公权力,做出具有法律效力的管控决策。

算法权力来源于三个方面:

机器优势、架构优势,嵌入优势。

图6智能算法的特点

2.人工智能算法的法律规制

人工智能的法律规制应考虑的是基于何种理念和框架对其规制。

在人工智能自动化决策中,监管机构需要对人工智能在透明、公平、歧视、偏见、隐私保护、数据安全等方面的影响进行评估。

首先就是算法黑箱与算法自主性的问题,监管部门可以要求研发者将算法公开或者对算法解释。

当然关于算法透明也有学者表示了担忧,他们认为深度学习的算法是否可知,本身就是一个疑问;在与国家安全、社会秩序和个体权益权衡中,其是否应当透明也值得探讨;即便算法应当透明,是否能够保证算法在正当程序范围内被执行,也尚存疑。

因此应该对透明原则的必要性和可行性有充分的认识。

其次是算法歧视问题,对于防止算法歧视的措施是平等保护。

算法支配在个人层面需要正当程序的保护,在企业层面需要维护公平竞争,在权利受到不公平的对待时具有权利救济机制。

最后就是针对算法权力化的问题,人工智能将会被普遍应用于公共管理领域,例如疾病防控、预防接种、交通管理,人工智能辅助甚至凭借其“自主性”可能替代公权力做出决策。

人类与人工智能的紧密结合导致人类可能对人工智能高度依赖。

我们既要充分利用人工智能为人类服务,也要防范人工智能“作恶”。

有学者对算法权力的规制提出了一系列措施,包括算法的特征、算法权力的规制目的、算法权力的规制路径、算法权力的规制方法(见图7)。

图7智能算法的规制

(二)大数据与隐私

人工智能以算法和数据作为支撑做出行为,为了解决某些问题,人工智能利用其技术优势能轻易收集到人类的隐私,人工智能发展得越强,人类隐私所面临的威胁就越大。

面对在人工智能时代人类隐私问题的挑战,我们应该发展更强大的隐私保护技术,防止数据被黑客或其他不法分子获取,人们应该提高个人防范意识,同时尊重他人的隐私,政府应该加强监管,重视隐私评估制度,提高个人信息获取的门槛。

图8人工智能涉及的隐私问题与对策

人工智能隐私方面目前存在的问题包括如何对隐私直接监控、更多获得隐私的方法、画像识别能力、人工智能信息载体、算法并不完美、侵权行为具有迷惑性、后果严重等问题(见图8)。

为应对以上问题,可利用的对策包括明确调整对象、增强信息处理透明度、拓展用户权利、禁止自动化处理敏感信息、引入隐私设计理论、增强隐私保护技术(见图8)。

以上这些对策虽有利于解决人工智能隐私目前存在的一些问题,但不能完全解决这些问题,因此我们引入一些伦理原则,包括透明原则、非歧视原则、安全原则以及控制原则(见图8),借此进一步解决人工智能隐私的相关问题。

(三)人工智能算法与大数据的相关法规

1.我国的相关法规

我国尚无关于人工智能算法的专门法律法规,勉强有关联性的是全国信息安全标准化技术委员会依据国家标准化管理委员会发布的《中国国家标准公告》(2017年第32号)中的“约束信息系统自动决策”的内容:

“当仅依据信息系统的自动决策而做出显著影响个人信息主体权益的决定时(例如基于用户画像决定个人信用及贷款额度,或将用户画像用于面试筛选),个人信息控制者应向个人信息主体提供申诉方法。

”[6]该公告也只是赋予了个人提出申请的程序性权利,并不涉及实质约束。

我国电子技术标准化研究院发布的《人工智能标准化白皮书(2018版)》中已涉及并重视人工智能的伦理、安全和隐私问题。

有学者认为2018年8月31日第十三届全国人民代表大会常务委员会第五次会议通过的《中华人民共和国电子商务法》中的第十八条、三十九条、四十条涉及对企业运用算法进行的商业行为的规制。

2.欧盟的《通用数据保护条例》(GeneralDataProtectionRegulation,GDPR)

2015年12月欧洲议会同意制定欧盟新的数据保护法规;2016年4月14日,欧洲议会投票通过了《通用数据保护条例》(GeneralDataProtectionRegulation,GDPR),该法由11章共99条组成,2018年5月25日生效,在27个欧盟成员国统一实施,取代了原有的《数据保护指令》(DataProtectionDirective95/46/EC),并在《数据保护指令》的基础上,进一步强化了对自然人数据的保护。

其中包含的重要内容有:

受到约束的数据的范围、数据主体的权利、处理个人数据的基本原则、数据控制者与数据处理者的义务、关于数据主体被遗忘权的规定、关于数据主体可携带权的规定、关于个人数据泄露通知的规定、关于执法和处罚的规定等。

欧盟的《通用数据保护条例》在“数据效率”之外,传递出“数据正义”(DataJustice)的理念以及它所包含的具体的法律规则,均可以作为我国数据立法的参考。

3.美国的《2019年算法问责法案》(AlgorithmicAccountabilityActof2019)

2019年4月10日,美国国会引入《2019年算法问责法案》(AlgorithmicAccountabilityActof2019),旨在指导联邦贸易委员会(FederalTradeCommission,FTC)规范相关实体使用、存储或共享用于进行自动决策系统影响评估和数据保护影响评估的个人信息。

根据该法案的界定,自动决策系统是指“一种来源于机器学习、统计或其他数据处理或人工智能技术的决策方法,它可以影响消费者的决策或促进人类的决策”。

自动决策系统影响评估是指“评估自动化决策系统和自动化决策系统的开发过程(包括自动化决策系统的设计和培训数据)对准确性、公平性、偏见、歧视、隐私和安全性的影响”。

数据保护影响评估是指“评估信息系统处理的个人信息的隐私安全水平”。

《2019年算法问责法案》采用了影响评估的机制,强制要求相关实体针对高风险自动决策系统进行自动决策系统影响评估和数据保护影响评估,对自动化决策在公平、歧视、偏见、隐私保护、数据安全等方面的影响进行评估,明确FTC作为算法评估的监管机构,并明确了FTC在监管过程中的权力和责任。

四医疗人工智能的主体地位

(一)医疗人工智能是“人”吗?

医疗人工智能运用于医院,法律力有不逮。

例如“达·芬奇”手术机器人。

当然目前的“达·芬奇”手术机器人有一个医生操作平台,由医生在主导手术。

但是当强人工智能的手术机器人出现,并能够独立手术时,我们将如何定义手术机器人的身份,是医疗器械还是医生?

我国有学者(中国社会科学院研究员段伟文)将其定义为泛主体。

“2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为‘电子人’,除赋予其‘特定权利和义务外’,还建议为智能机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号”。

[7]“2017年10月26日,沙特阿拉伯授予美国‘汉森’机器人索菲亚公司生产的‘女性’机器人索菲亚公民身份……2017年科大讯飞与清华大学联合研发的人工智能‘智医助理’机器人在国家医学考试中心监管下参加了临床执业医师综合笔试测试,2017年底科大讯飞发布公告称,‘智医助理’机器人以456分的成绩通过了临床执业医师考试”。

[8]

对于具有“自主性”的强人工智能的身份界定不仅是机器人或者人工智能立法的先决问题,而且是起点与前提。

欧盟委员会法律事务委员提出应建立机器人分类标准与登记制度,并界定了自主机器人——电子人(ElectronicPersons)的四大特征(见图9)。

图9电子人的特征

关于人工智能或者智能机器人的主体地位的界定,目前主要有三种说法(见图10)。

图10人工智能的主体资格

1.肯定说

肯定说认可人工智能的法律人格,倡导推进立法以保护权利,规范机器人行为。

有学者认为,“人工智能具有自主性、主动性,已非纯受支配之客体,在法律上应设定为‘电子人’。

其依据在于实践中人工智能主体已有成例或官方建议;历史上,自然人、动物或无生命体法律主体的演化表明,存在充足的法律主体制度空间容纳‘电子人’;法理上,现有法律主体根植之本体、能力与道德要素,‘电子人’皆备”。

[9]

2.积

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 农学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1