科研课题结题论文
计算机工程管理科学科研申请书
体育艺术科研立项申请书
电力电工科研课题申请书
中小学职业教育改革项目申请书
护理护士保健职称课题
医学药学科研立项申请书
教育教学科研项目申请书
经济管理研究项目计划书
档案图书馆科研立项申请书
水利交通工程论文代写代发表
建筑工程职称论文代写代发表
NSFC项目申请书代写
NSFC申请攻略申报书代写
代写国家社会科学基金课题立项项目标书
国家自然科学基金资助政策
代写自然科学基金申报中的问题研究
·医学临床 ·经济财会
·政治法律 ·教育体育
·文学艺术 ·计算机
·基础医学 ·药学生物
·建筑电气 ·语言文化
·工学工程 ·护理康复
·写作经验 ·格式范本
名称:研友工作室
电话:0760-86388801
传真:0760-86388520
邮箱:51643725@qq.com
地址:广东中山市孙文中路2号
网址: www.zzss8.com
商务QQ:51643725
微信二维码

业务联系
经济财会
《产品质量法》规制人工智能伦理风险的适应性与对策
添加时间: 2022/9/14 10:44:36 来源: 作者: 点击数:461

《产品质量法》规制人工智能伦理风险的适应性与对策

  张安毅  李博文*

河南财经政法大学,河南 郑州450000

摘要:人工智能替代人类做出本应由人类完成的决策,这使得人工智能将面临社会伦理抉择,应以伦理为先导构建人工智能规制体系。至今来看,人工智能是人类设计、经过加工制作出来的产品,人工智能的各种风险也源于其产品缺陷,应以《产品质量法》规制人工智能包括伦理风险在内的一系列问题。人工智能的决策过程与结果都要接受人类道德的评判,但人工智能却不会以人类特有思维做出判断,因此人工智能质量标准应加入社会伦理标准。人工智能伦理缺陷具有独特性,应成为一个独立的产品缺陷类型。人工智能发生侵权的,应将设计者也纳入产品责任主体,以督促设计者防范产品风险的出现。

关键词:人工智能;产品;风险;规制

人工智能在便利人类生产生活的同时,带来了难以忽视的数据安全、算法漏洞等风险,尤为突出的是,人工智能在发展中出现的自主决策危害人类的伦理风险,比如自动驾驶汽车为避免违反交通规则或自我避险而选择冲撞行人。解决人工智能的各种风险在技术上并不存在障碍,重要的是如何从制度上保障可能具有超人类思维能力的人工智能不违反服务人类的目标,从立法上妥当设置人工智能与人类的关系。不过,由于人工智能的法律地位等问题至今未形成一致意见,这也导致人工智能的伦理规则如何构建存在着路径不明等问题。目前法学界主要从人工智能致损的侵权责任角度来解决人工智能的伦理风险,但侵权责任规则的主要功能是确定责任承担规则、救济损失,如何避免人工智能发生伦理风险而危害人类,侵权责任规则其实力不从心。笔者认为,迄今为止人工智能在本质上仍然属于产品的范畴,以我国《产品质量法》规制人工智能的伦理风险具有必然性、合理性,目前急需进行的是探讨《产品质量法》中人工智能特殊规则的构建,并在合适的时机将人工智能立法引入我国《民法典》。

一、人工智能伦理风险的来源与应对的路径选择

人工智能革命已经到来。[1]人工智能开启了人类生产生活的全新方式,不过新兴科技带来的福与祸总是相伴而行,[2]随着人工智能的普及其“脆弱面”也逐渐暴露,带来一系列刺手的问题,人工智能伦理风险就是其中之一。不过本文所指的人工智能伦理风险,并不是人工智能对劳动力的取代引发失业等社会性问题,而是指人工智能在智能决策、自我行动过程中做出违背人类目标、损害人类权益决策和行动的风险,这种人工智能“反人类”决策往往违反人类社会的法律、伦理规则。实践中也已出现类似的实例,比如当护理人员向智能音箱询问心脏的问题时,该智能音箱居然表示“心跳是糟糕的过程,人口过剩对地球是件坏事,……请确保刀能够捅进你的心脏。”[3]一般产品都是在人的操作下发挥产品功能,但人工智能的价值或者说人工智能发展的目标在于代替人类做出思考、判断、决策。在高危行业、推算领域等人工智能应用场景,人工智能往往可以比人类做的更好,比如超声甲状腺结节的人工智能诊断系统将诊断的准确率从60%-70%提高到了85%[4]但从另一方面讲,不同于人类凭借理性和经验的决策,人工智能的决策是建立在数据收集、分析与自动化推理之上,一个由算法“黑箱”控制的无意识的数字决策,会轻易地将法律法规、伦理准则变成废纸。人工智能应用于人类社会要直接处理人类社会的伦理判断与选择,但人工智能却不具有人的伦理情感、法律意识,不具有人类所独有的是非善恶观念,不会以人类社会价值观为背景做出判断,因此人工智能依靠其系统设定做出的单向性决策,可能会违反人类社会公认规则。已有证据表明人工智能可以为了保护自身的生存安全而实施超出人类预期的行为。[5]

人工智能的表现与活动肯定不能逾越人类社会的法律法规、伦理规则,但法律法规、伦理规则能否直接针对人工智能进行适用,这需要从人工智能的法律地位出发来探讨。按照目前人工智能技术的快速发展趋势,人工智能必将获得脱离人类控制的独立自主能力,因此不少学者主张赋予人工智能法律主体地位,让人工智能直接接受现行法律的规制。有的学者主张人工智能应该具有类似于企业法人的法律人格, [6] 有学者主张以财产性人格的进路将人工智能拟制为电子法人。[7]还有学者认为,人工智能应当具有有限的法律人格。[8]然而,人工智能的所作所为是按照既定程序运行的,虽然人工智能具有学习能力,但其仅仅是依据预定的程序去学习,改变不了其本质上依赖算法程序的特性,法律不可能对人工智能的进行激励、约束或控制,人工智能也没有自己的财产可以独立承担法律责任,让人工智能成为法律主体、接受法律规范没有任何意义。

人工智能只是人类基于特定用途发明的工具,在将来也不应该超越于人类而具有独立存在的社会价值,人工智能应置于人类的控制下,“应将其作为法律关系的客体而非主体。”[9]人工智能作为人造物,权利、义务、责任对其来说并不具备与对人类相同的作用,比如适用于人类的惩罚方式如拘役、有期徒刑、死刑等就对人工智能没有震慑作用。伦理学界的学者也指出,人工智能不具有心智状态,不具备超出自己所属系统自由选择的能力,不能成为伦理主体。[10]因此,在人工智能不具有主体地位的情况下,人工智能不能成为法律、伦理直接规范的对象。人工智能是人类生产设计的,规制人工智能还要从人工智能的生产设计环节入手。

综上,如果将决策权交予人工智能,却又对伦理问题不管不问,人工智能就面临着失控风险,人工智能活动需要接受法律伦理规范的审视,但我们无法直接要求人工智能遵守法律、伦理规则,人工智能也不可能对人类社会的法律、伦理产生敬畏尊重等意识。解决人工智能伦理风险最终要解决的还是如何激励、约束、规范其设计、生产活动的问题。人工智能的决策是通过运算得出的,其运算具有规律性、重复性,这也决定了控制其算法程序以规制其伦理风险具有可行性。

二、《产品质量法》规制人工智能伦理风险的适应性

人工智能所带来的伦理风险国外学界也已广泛关注。霍金就曾警告过,人工智能可以发展出超人的智慧,如果人工智能的目标与人类相左,事情就麻烦了。[11]对于如何规制人工智能的伦理风险,国外一些学者也提出了具体建议,比如在人工智能对数据的处理过程中要保护个人信息基本权利,人工智能的算法识别分类要建立在反歧视规则之上等。[12]但遗憾的是,至今国外也未建立针对人工智能伦理风险的系统规制体系。笔者认为,如何建立人工智能伦理风险的法律规制体系,应从人工智能的本质属性出发来考虑。一般来说,制造者以消费者一定的欲望或是需求为基础,生产出来的各种类物的集合就是产品,而人工智能就是为了满足特殊需求而生产的特殊产品。人工智能究其本质依然是人类设计制造出来、经过销售后为人类服务的产品,所以仍然不能脱离“物”的范畴体系。人工智能产品一般也是批量化生产和规模化销售,从属性界定来看,人工智能当然属于产品的序列,应接受我国《产品质量法》的调整。而《产品质量法》规制人工智能伦理风险也具有多个方面的适应性与合理性:

第一,《产品质量法》的产品质量和产品缺陷制度,可以用来判断人工智能产品是否合格、是否符合社会要求。人工智能所伴随的各种风险比如违反伦理的自动化决策、失控而致损第三人等,从某一方面讲,其实都来源于人工智能产品本身的缺陷。人工智能不应存在伦理风险,其实也是对人工智能产品质量的要求。人类社会的行为规则适用于人工智能自动化决策,途径也在于构建人工智能生产设计的质量标准。传统产品的缺陷类型,包括设计缺陷、制造缺陷和警示缺陷,仍然可以适用于人工智能,比如智能机器人电池漏电就属于制造缺陷;人工智能厂家采用过度宣传的手段对人工智能产品进行宣传出售,导致消费者没有注意应留意的各种风险,而对人工智能产品盲目自信,这属于人工智能的警示缺陷,即因为警示不够充分导致产品存在缺陷;[13]人工智能与其他产品的不同,是人工智能致人损害基本都是由于系统出现故障导致的,或许是系统接收信息的敏感度低延迟处理危险信号导致损害行为发生,或许是在自主学习过程中错误地预测了外部环境导致实施了错误的行为致人损害,或许是系统运行程序没有设定必要的应有规则致人损害,比如人工智能在接触人类隐私后选择公开他人隐私以完成自己的创造物,这些都属于系统设计存在的漏洞,属于设计缺陷。规避人工智能的伦理风险,从本质上还是要控制人工智能的产品质量,防范出现产品缺陷。

第二,《产品质量法》的产品责任制度,可以督促生产者尽最大努力保证人工智能这一产品的安全,杜绝人工智能在自动化决策过程中出现伦理风险。很多时候人工智能运行过程中处于完全自主、自动的状态,此时如果出现伦理风险进而导致产生侵害他人权益的后果,判断谁有过错并进而确定责任人就成为难题。比如自动驾驶汽车发生交通事故时,车内的乘车人是乘客而不是司机,自动驾驶汽车是按照设定的程序运行,谁有过错就难以判定。而产品责任实行无过错责任归责原则,可以督促生产者、设计者履行自己的产品质量控制责任。有学者就以自动驾驶汽车为例,指出对系统安全性问题让生产者承担产品质量责任具有合理性。[14]另一方面,人工智能产品在致人损害的过程中大多都是由人工智能决策系统出现故障导致的,有时候是人工智能在自主学习过程中错误地预测了外部的环境,实施了错误的行为导致损害发生。这种侵权事故的发生究其原因还是人工智能系统漏洞,应由人工智能产品生产者依照产品责任承担民事责任。比如医疗人工智能产品,不论是初级的医疗人工智能产品还是尖端医疗智能机器人,都是医疗诊治过程中的辅助工具,如果由于医疗人工智能产品发生故障导致医疗侵权,让设计制造者承担侵权责任才能督促厂家生产出来合格的医疗人工智能产品。

第三,《产品质量法》的产品责任制度抗辩事由也可以适用于人工智能伦理风险引发的损失赔偿场合,保障生产积极性。人工智能的伦理风险需要控制,但不能因为规避伦理风险而遏制人工智能技术的发展。我国《产品责任法》第41条规定了产品责任制度抗辩事由,其中科学技术无法发现瑕疵的抗辩事由也被称为开发风险抗辩,开发风险抗辩的衡量标准一般是社会整体层面的平均科学技术水平。这些抗辩事由适用于人工智能伦理风险引发的产品责任场合具有合理性,可以保障生产设计者的研发积极性,在一定程度上鼓励科技创新。当然这种抗辩并非易事,比如生产设计者以缺陷尚不能发现这种法定事由为由主张免责,就需要证明这种缺陷超越了人类的认知能力和水平。人工智能具有后天学习能力,也许会在学习了人类知识之后产生决策上的伦理风险,但这是生产者在生产人工智能时就可以预测到的现象,当然不能以此为由免责。

现阶段《产品质量法》规制人工智能伦理风险具有合理性,当然未来高智能的人工智能很可能会具有不受人类控制的思维和行动能力,如果未来人工智能发展出自我规范约束能力,具有法律伦理、是非观念意识,人工智能就可能直接成为主体而接受法律、伦理规则的调整了。但在人工智能可以进行自我管理之前,人工智能的伦理风险也只有通过《产品质量法》才可以得到恰当、良好的控制。

三、人工智能伦理风险的产品质量制度规制对策

     人工智能本身可以克服人类在运算能力等方面的不足,但人工智能赖以决策的数据不全面、机械的推演等都可能会导致人工智能偏离人类初衷而出现伦理风险,此类复杂问题的解决应落脚于产品质量控制,主要是人工智能产品质量标准的制定及产品缺陷的认定。

     (一)人工智能的产品质量标准

人工智能是否会出现违背人类根本目标、利益的伦理风险,取决于人工智能的决策系统也即算法,而这在根本上属于人工智能的质量要求范畴。但传统的产品质量标准是对产品的结构、规格、物理性能、重量、检验方法等所作的技术规定,丝毫不涉及社会伦理方面的内容。因此,我们需要在《产品质量法》的质量标准基础上,改进人工智能的产品质量标准。传统的产品质量标准仍可以适用于人工智能产品,比如对自动驾驶汽车来说,传统汽车质量标准对轮胎、发动机的质量要求仍然适用。但人工智能产品的特殊性在于,其自动决策是要帮助人类做出选择,这导致人工智能很多时候会像人类一样陷入道德选择困境。例如在碰撞不可避免时,自动驾驶汽车决策应遵循何种决策规则,是优先保护乘客安全,还是设法去拯救最多的人,还是保护最有价值的财产以便使车主财产利益最大化,就是一个难题。正如学者指出的,自动驾驶汽车的算法也可能需要面对伦理上的挑战。[15]

通常情况下,人工智能的算法主要从结果出发,把效率作为其第一要义,这很可能导致算法无视社会权利观念、公平观念等,但人工智能的算法不仅仅是一个技术选择问题,在自动驾驶汽车发生交通事故而必须处理“保护谁和损害谁”的问题时,决定“保护谁和损害谁”本质上是一个伦理抉择。为人工智能产品加诸道德伦理要求,也并非为了使人工智能成为独立于人类之外的独立物种,而是为了更好地控制人工智能可能给人类带来的系统性风险。[16]人工智能从事的行为其实原本属于人类应进行的决策,这就要求应以人类社会规范来检视人工智能的表现。但人工智能不会以人类特有思维做出判断,不会考虑决策背后的文化、价值等社会因素。我们需要做的,是通过规范设计保障人工智能的决策符合社会伦理要求。

今后,人工智能质量标准中的伦理要求应纳入立法,成为一项强制性的规范。建议我国未来的《产品质量法》立法明确,人工智能产品的质量标准应包括对其程序设计也即算法方面的要求,人工智能的算法应符合社会伦理标准,具体内容应包括:第一,人工智能算法操纵下的自动化决策应符合法律法规。这是人工智能产品程序设计的底线,人工智能决策出现违反法律法规情形的,比如人工智能帮助人类窥探他人隐私,当然属于产品重大缺陷。第二,人工智能算法操纵下的自动化决策应符合社会核心价值观和伦理道德原则,尊重主体权利,尊重他人人格尊严等。比如人工智能面临人类生命权与其他权益相冲突时,应当将保障生命权放在首位。第三,人工智能的算法应具有公正和可解释性。人工智能的算法应接受检验,主要是算法运行结果的检验。法律可能无法保证算法的透明,因为普通大众难以理解算法运算机理,但要保障算法的公正和可解释性。目前我国还未制定人工智能产品质量的国家、行业标准。建议以后将科技部作为人工智能产品质量的监管部门,可以由法律授权监管部门专门制定人工智能质量的社会伦理标准具体细则。人工智能的伦理问题往往是消费者难以发现的,而算法的伦理检验其实是人工智能产品质量的检验,应成为人工智能产品上市的必经环节。新类型的人工智能产品进入市场销售前,监管部门要对人工智能进行内部算法检验,对其决策风险进行评估,确保算法的结果符合法律法规、社会核心伦理观。

(二)人工智能的产品缺陷

按照我国《产品质量法》的规定,如果一个产品质量不合格就属于存在产品缺陷, 传统产品主要从性能、耐用性、可靠性与维修性、安全性、适应性、经济性等方面来设定质量的合格判断标准,丝毫不涉及伦理问题。传统产品缺陷制度在适用于人工智能时应予以改进。如果人工智能决策系统不能避免人工智能出现违反伦理道德规范行为的,在本质上属于程序设计问题,依据传统的产品质量法理论,这应属于产品设计缺陷。但笔者认为,如果人工智能的程序设计不能避免人工智能出现违反社会伦理做出决策的,人工智能的算法不符合社会伦理标准的,应视为存在产品伦理缺陷,由生产者对产品伦理缺陷负责。未来应将人工智能产品伦理缺陷独立为一个类型,具体原因在于:第一,不管是产品的设计缺陷,还是制造缺陷和警示缺陷,所针对的缺陷都是产品存在危及人身和财产安全的不合理风险,但人工智能产品伦理风险的本质是自动化决策违背人类社会伦理规范,这不一定会导致出现现实的可评估的人身和财产损害,比如存在性别歧视的算法所导致的后果就是一种社会不良影响。所以现有产品缺陷制度无法涵盖人工智能产品伦理缺陷的内涵。第二,伦理缺陷是导致人工智能产品存在伦理风险的源头,伦理缺陷虽然也是设计问题造成的,但却不同于传统的产品设计缺陷。通常情况下设计缺陷一般是指产品结构设计、选材设计、安全装置设计等方面存在的问题,但伦理缺陷是没有考虑社会伦理规则导致决策上出现的问题。传统设计缺陷是可以预测的,但许多人工智能具有深度学习能力,人工智能的产品设计者也无法准确预测人工智能在某些情况下会做出何种行为,甚至人工智能的自动化决策也是无法事先预估的,伦理缺陷列为一个单独的产品缺陷类型,才能督促人工智能的产品制造商重视并杜绝此类缺陷的出现。第三,人工智能属于物,不是伦理主体,但人工智能蕴含着人类的思想,与人类道德密切相关。人工智能蕴含着伦理主张、伦理需求,人工智能的决策过程与结果都要接受人类法律、道德的评判。因此,伦理规范对人工智能的评判结果不合格的,就应有不合格的结论,即伦理缺陷。

四、人工智能伦理风险的产品责任制度规制对策

人工智能如果出现伦理风险,侵害了其他主体的合法权益,需要以产品责任予以规制和救济,以解决人工智能侵权的责任主体、归责原则、责任方式问题,一个运算机理违法、违反伦理道德的算法引发的损害,应视为产品缺陷引发的损害,从而按照产品责任承担侵权责任,这样可以倒逼人工智能的生产商控制算法。但传统《产品质量法》规定的产品责任举证规则、责任主体规则都需要改进,以更科学的规制人工智能产品侵权。

(一)人工智能产品责任的举证规则

在通常情形下,受害者要求产品的责任主体承担产品责任,应对被诉产品存在缺陷、损害的发生、产品缺陷与损害之间存在因果关系进行举证证明。对于人工智能产品的制造、警示缺陷判定相对简单,比如自动驾驶汽车的轮胎是否符合质量标准、机器人的传感器是否灵敏等,原告对此承担举证责任并不困难。但人工智能设计、伦理方面的缺陷属于算法程序上的缺陷,需要从其运算原理上进行说明,指出设计环节上存在的不合理之处,对此问题社会大众在理解上都会存在困难,更不用说举证证明了,即便是该领域的专业人士也难以通过算法证明算法程序上的缺陷。一些人工智能还具有后天学习能力,其判断分析建立在后期不断增加的数据资料之上,其行为、决策的推理过程,已经不同于设计者设计人工智能之初,而且人工智能的计算分析能力远比人脑强大,想通过人类的运算证明人工智能决策上的设计、伦理缺陷是一项几乎无法完成的工作。很多时候,即便专业人士证明了人工智能的设计伦理缺陷,司法工作人员能否对此形成统一意见也是个问题。因此,在人工智能产品责任场合,有必要对人工智能产品是否存在设计、伦理缺陷实行举证责任倒置。受害人证明了存在损害、损害是由人工智能造成的,人工智能生产者就应当对人工智能是否存在设计、伦理缺陷进行举证,并承担举证不能风险。如果人工智能生产者证明了产品不存在设计、伦理缺陷,受害人就应当对人工智能是否存在其他缺陷进一步进行举证。

(二)人工智能产品责任的责任主体

按照我国《民法典》的规定,在适用产品责任时,受害人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。但人工智能设计环节的复杂性、重要性决定了在设计者和生产者不是同一主体时,有必要把设计者也列为产品责任主体。人工智能的研发设计环节有很强的专业性,即使是专业人士也难以清晰的解释其计算过程和原理,为了保障研发的足够投入并分散研发失败的投资风险,很多场合人工智能设计者也是单独成立的法人或其他独立市场主体。实践中,许多人工智能致损都是设计缺陷、伦理缺陷造成的,生产者也无法控制人工智能会做出什么样的决策。为了督促设计者尽最大注意防范人工智能出现风险,应由人工智能的设计者对基于设计因素发生的设计缺陷、伦理缺陷承担产品责任。人工智能基于算法拥有独有的自主学习系统和独立的辨认、控制能力,这种算法是设计者才能掌控的,如果人工智能基于设计上存在的问题而发生侵权,要求生产者和销售者承担责任,也无法起到防止风险发生的效果。有学者就指出,高度自主人工智能可能打破预先设定的算法,这种偏离预期的行为与生产者无关,仅要求生产者承担责任难以有说服力。[17]因此,人工智能设计者应纳入侵权责任主体,与生产者一道承担无过错的产品侵权责任。

五、小结及立法建议

在西方法学界,机器人是否是人、谁为机器人的行为负责也是个争论不休的话题,西方学界也预判到当人工智能有了情感交流能力,在自然人与自然人、人工智能与人工智能以及自然人与人工智能之间的多元关系中,谁来制定规则,为谁制定规则,都可能都远超出了当下的想象。不过截止目前来看,人工智能仍应接受人类的控制,人工智能是人类生产的产品,在法律上就应接受《产品质量法》的规制。不过人工智能与一般产品不同的是,人工智能拥有自我判断能力,人工智能替代人类决策使得人工智能的伦理选择、伦理风险必然出现,我们需要做的是要以伦理为先导构建人工智能调控体系。遗憾的是,我国2020年颁布的《民法典》并未直接规范人工智能问题,未来可以先在《产品质量法》中完善人工智能的质量标准、侵权责任,待《民法典》出台修正案或出台司法解释时再专门增加条款规范人工智能法律问题。

本文以立法建议作为结束语。建议在我国《产品质量法》中增加条文专门规范人工智能的特殊问题:人工智能产品的自动化决策应符合法律法规和社会伦理规范,人工智能产品销售前应接受伦理规范审核;人工智能产品的自动化决策违反法律法规或伦理规范的,视为存在产品伦理缺陷。人工智能产品造成他人损害的,生产者、设计者应对产品是否存在设计缺陷、伦理缺陷承担举证责任。人工智能产品存在缺陷造成他人损害的,生产者、设计者应当承担侵权责任。 

参考文献

[1] 刘宪权.人工智能:刑法的时代挑战[M].上海:上海人民出版社,2018.103.

[2] 王云,刘亚平.人工智能技术发展中的生态伦理困境和启示[J].长沙理工大学学报(社科版),2018.(4):7.

[3] 斌斌.回溯全球AI十大事件:人类或是最大敌人[EB/OL]. https://baijiahao.baidu.com/s?id=1655162194949078925&wfr=spider&for=pc,2020-01-11.

[4] 大文.医疗人工智能困局:技术成熟,缺乏立法.[EB/OL].

https://www.sohu.com/a/131265099_400678,2017-3-31

[5] 司晓、曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017.(5):169.

[6] DAVIES CRAn Evolutionary Step in Intellectual Property Rights-Artificial Intelligence and Intellectual Property[J].Computer Law  Security Review,2011.(27): 601-619

[7] 张志坚.论人工智能的电子法人地位[J].现代法学,2019.(5):75.

[8] 袁曾.人工智能有限法律人格审视[J].东方法学,2017.(5):53.

[9] 刘洪华.论人工智能的法律地位[J].政治与法律,2019.(1):45.

[10] 戴益斌.试论人工智能的伦理责任[J].上海大学学报(社科版),2020.(1):29.

[11] 黄志澄.如何看待霍金对人工智能的警告[N].中国青年报,2017-06-05.

[12] []瑞恩·卡洛,[]迈克尔·弗兰金,[加拿大]伊恩·克尔.陈吉栋等译.人工智能与法律的对话[M].上海:上海人民出版社,2018.56.

[13] 王乐乐.自动驾驶汽车的缺陷及其产品责任[J].清华法学,2020.(2):102.

[14] Tom Michael Gasser Legal Issues of Driver Assistance Systems and Autonomous Driving[M]Azim Eskandarian ( Ed) Handbook of Intelligent Vehicles London: Springer2012.1519-1535

[15] Jeffery KGurney Crashing into the Unknown: An Examination of Crash -Optimization Algorithms through the Two Lanes of Ethics and Law [J]. AlbLRev.,2015.(1): 183-267

[16] 刘宪权.人工智能:刑法的时代挑战[M].上海:上海人民出版社,2018.103.

[17] Tom Michael Gasser Legal Issues of Driver Assistance Systems and Autonomous Driving[M]Azim Eskandarian ( Ed) Handbook of Intelligent Vehicles London: Springer2012.1519-1535

Adaptability and Countermeasures of Regulating Artificial Intelligence Ethical risk in Product Quality law

Zhang Anyi  Li Bowen

(Henan University of economics and law, Zhengzhou, Henan 450000)

Abstract: Artificial intelligence takes the place of human beings to make decisions that should be completed by human beings, which makes artificial intelligence face the choice of social ethics. Therefore, the regulation system of artificial intelligence should be constructed with ethics as the guide. So far, artificial intelligence is a product designed and processed by human beings, and the risks of artificial intelligence also come from its product defects. The product quality law should be used to regulate a series of problems of artificial intelligence, including ethical risks. The decision-making process and results of artificial intelligence should be judged by human morality, but artificial intelligence will not make judgments based on human unique thinking, so the quality standard of artificial intelligence should be added to the social ethics standard. The ethical defects of artificial intelligence are unique and should be an independent type of product defects. If the infringement of artificial intelligence occurs, the designer should also be included in the subject of product liability, so as to urge the designer to prevent the occurrence of product risk.

Key words: artificial intelligence; products; risk; rule and regulation

关于研友  |  诚聘英才  |  联系我们  |  友情链接
版权所有:@2007-2013 中山研友工作室 ZZSS8.COM 电话:0760-86388801 QQ:51643725
地址:广东中山市学院路1号 邮编:528402 皖ICP备12010335号-3
  • 物理类核心期刊投稿邮箱网址
  • 研究成果的运用研究的认识与体会
  • 电动持续负压吸引治疗足部慢性溃疡护理
  • 基于SPOC平台的问题牵引式教学法在
  • 医学期刊投稿邮箱收集(有效大全最新)
  • 腰硬联合麻醉用羟乙基淀粉扩容与用复方
  • 医学期刊投稿邮箱收集
  • 睾丸鞘膜切除翻转术中缓慢放出睾丸鞘膜