又是税收又是伦理,真人工智能伦理案例恐怕会选择不出现

人工智能法律主体资格研究_东南论文网
欢迎来到东南论文网,权威的代写毕业论文、代写代发论文,论文发表平台,服务论文行业十二年,专业为您提供毕业论文代写服务
您当前的位置: >
人工智能法律主体资格研究
发布时间:
  How Should Law Think about Artificial Intelligence?
  Abstract:The hot effect of artificial intelligence (AI) has caused all kinds of derivative discussions. The problem is concentrated on the legal nature of AI, involving whether we should give it legal personality, the legal effect of AI, and the consequences of actions. It is a valuable thought experiment to think about whether the law should extend the qualification of the legal subject to the artificial intelligence. The point of this article is that it is not necessary to argue that the legal subject is qualified to explain the effectiveness of artificial intelligence. After all, only human beings can understand the &right& and &responsibility& meaning, the machine can only be designed to comply with the rules, but cannot understand the rules, so even if the creation of a legal personality is similar to the &electronic&, the rule of law is also unable to influence the behavior of the machine itself, so a relatively realistic path should be considered how to influence the legal persons' behavior level (including artificial intelligence designers, manufacturers and users) behind the machine, and then solve the risks and challenges brought by artificial intelligence.
  Keyword:art r
  由Alpha Go围棋挑战赛所引发的人工智能效应还在持续发酵, (1) 同时也激发了奔涌的学术反思, 大量派生性的讨论和&焦虑&随之产生:我们应如何看待智能机器, 是否要赋予它们法律人格, 机器是否有权订立合同, 取得并持有财产?学界也意识到相关问题的重要性, 并逐步作出了积极回应, 如对无人驾驶汽车民事责任的讨论, (2) 对人工智能作品着作权的讨论等。 (3) 这些有益的讨论注意到了机器人的特殊性并尝试在特定领域谋划相应的制度设计, 不过如只是即时性地将某一特定服务形态的机器人集中于最相匹配的法律领域思考, 而没有作横向、综合性的考量, 尤其是没有与现有法律框架之间的关系做整合型思考恐怕还是不够的。其实, 上述的这些分类性讨论大多可以归元于以下几个问题:1.机器人的法律主体地位;2.机器人行为的法律定性;3.因机器人行为而产生的法律责任分配。多数文章在讨论上述三个问题时会陷入一种逻辑&怪圈&:首先, 从技术角度出发, 认为在机器行为 (或智能化水平) 与人类接近, 甚至无法区分的前提下, 应肯定机器行为的法律效力, 但转而回到法律主体的问题上时, 限于传统理论和现行法律只将自然人、法人和其他组织列为法律主体, 故退而寻求规范内的变通出路, 或主张机器的有限主体资格;或主张将机器视为人的代理, 似乎&主体资格&成为了绕不过去的问题源头。
  关于何时或者如何给人工智能设定法律主体资格的讨论由来已久。在这场争论中总会涉及到一份条件清单, 如人工智能的自由意志、自主性要件等, 普遍的看法是, 当一个人工智能体满足这些条件后, 才能被归类为与人类同等的真正认知行为者。只是迄今为止, 即便在人工智能研究领域里也没有形成一个广泛可接受的定义, &还不能总体概括出什么样的计算机程序可以被称之为人工智能&. (4) 虽然如Stuart Russell和Peter Norvig也曾提出四类人工智能的定义:像人一样思考、像人一样行为、理性思考以及理性行为。 (5) 但严格地说, 这也只能是人工智能的技术目标。本文的观点是, 简单地以机器&长得是否像人&或者&表现得是否像人&作为评判其能否获得法律主体地位的标准要件, (6) 不仅容易因概念的含混不清导致可操作性不强, 还可能会陷入法律与科学技术双重认识不一致的泥潭。人工智能认知状态的理论化标准确实应作为一个问题来探讨 (而且问题分歧还很大) , 但它不能为思考人工智能法律主体资格提供一个很合用的基础, 主要的原因在于这些标准都太抽象了, 无法用作衡量标准。
  一、法律主体资格中的道德预设
  如果将法律主体资格仅仅理解为一种道德性权利赋予的话, 那么这种权利的生成依赖于社会群体的心理共识, 这种共识大致可以类比为对社团成员身份的认可, 进而凝结成&权利意识&.如当看见某个机器被无故&殴打&, 甚至被毁损时, 人们会因为某种心理 (如同情或是对暴行的愤恨) , 认为机器理应有权进行反抗。姑且不论如今还只是停留在学术 (以及虚构) 层面的奇点 (7) (singularity) 技术能否实现, 不可否认的是, 人们是否愿意接受机器的态度, 都将成为机器获得法律主体资格, 进而形成制定法的基础, 而且这种心理不受任何法律推理、证据的影响。
  但是, 机器是否像人, 或者说&类人性&、&与人类的相似度&, 并不足以支持这种心理共识的达成。这是因为道德性的共识具有历史阶段性, 一个时期的认识是一个自我封闭的轮胎, 并不因为某种推理一戳即破。19世纪中叶以前的英国法律就曾认为已婚妇女在很多时候都要依附于丈夫的法律人格, 追溯到罗马法历史中也曾将生物学意义上的完整人---奴隶, 排除在法律主体范围之外。罗马人说:&奴隶完全不享有市民法上的结合&&他不是主体, 而是权利的标的&. (8) 这种共识的表达, 是通过对human与person进行区别的技术手段来完成。两者虽然在语义学上的意思有时可以互通, 但在概念上却存有区分。 (9) 霍布斯曾在《利维坦》中对&人&的词源有过论述:人 (person) 一词来源于拉丁文 (persona) .希腊文不作人而作面貌讲, 正像人字在拉丁文中指人在舞台上装扮成某人的化装或外表一样, 有时则更加具体地专指装扮脸部的面具或面甲, 后来这字 (人) 从舞台用语转而变成指代法庭和剧院中的任何行动与言论的代表。 (10) 因此亚里士多德说, 奴隶和妇女没有灵魂, 他们虽然是human (人类) , 但是却不能参与到民事活动中, 在法律中不能称为person (人) . (11) 由于他们没有法律人格 (legal person) , 所以不享有雅典城邦的成员权利。 (12) 罗马法相应地承袭了希腊的做法, 在法律人格和财产之间做了严格的区分, 并做了等级化的安排, 直到西方社会的个人自由主义的兴起, 才带来了从身份向契约式的转变。
  由罗马法将奴隶排除出法律主体范围, 可以引申出的一个观点是, 法律主体的概念设定具有历史相对性, 这种相对性不能用&落后&或&进步&来评价, 即便之后对奴隶支配权的软化和解放奴隶问题上, 也不总是道德上的感悟。 (13) 虽然如果现在有人提出要在法律中重新引入奴隶制, 我们一定会觉得这个建议是历史倒退, 但这种&倒退&的真实意义不是说我们的法律主体概念比罗马人的更先进、更优越, 只表明当时罗马人并不认为将一个活生生的人视为奴隶、视为财产有什么问题。同样的道理, 也许四五十年后的将来, 人们也可能会认为将机器视为类似于&奴隶&的工具是一个错误, 但这并不意味着他们的认识进化了, 或者他们的道德感相较于今天的我们更优越。毕竟我们目前定义人工智能所使用的最广泛接受的方法, 仍然是关注机器能否实现 (人类) 特定的目标。 (14) 人们乘坐一辆无人驾驶的出租车, 关心的是自己能否安全、便捷地到达目的地, 而不是想和机器就出租车费用先&讨价还价&一番 (更不用提还可能遭遇因为车费谈不拢而被拒载) .工具化的定位意味着一个完全&独立&的机器人, 不仅可能会引发人类的不安, 甚至会被人类社会所&厌恶&.人们的确愿意用计算机的算法来修正自己的决策过程, 但绝不会放弃控制权。 (15)
  二、法律主体资格中的目的预设
  在讨论人工智能机器的主体定位时经常碰到的一个问题是, 面对现在法律框架中诸如&独立意思的表示&、&权利能力&、&行为能力&等概念时, 人工智能应如何解释贴合?部分主张赋予机器以&法律人格&观点的立论基础是某些机器人已经具备了独立意思表示的能力 (16) .在该论点中, 需要注意的问题是, &独立意思的表示&并不适宜作为机器人获得主体资格的特征标识。原因在于, &独立&的概念不明确, 存有疑点。所谓的&独立意思表示&是相对于谁的独立, 独立于机器的使用者, 还是独立于机器的程序设计者?原有法律框架中的独立之意是行为主体自我决定, 但套用到机器人却未必合适, 因为要看这个&独立&是针对于谁来说, 机器人是由一系列的算法来指挥行为, 算法所设计的行为完全可能是独立于使用者的, 如使用者命令汽车以170码的速度行驶, 但汽车基于原有算法的计算, 完全可能拒绝该指令 (如原有程序设定最高时速不可超过120) .所以如果机器只是按照预先设定的程序行事, 独立的说法似乎并不完满。
  应该说这些&独立意思表示&、&权利能力&等概念只是法律主体设定后的结果, 他们的作用或许也和罗马法上将homo与persona进行对比区分一样, 只是为完成特定区分效果的技术手段。手段本身并不能回答原因问题, 将结果混淆为原因是一种谬误。 (17) 所以, 如要追问智能机器是否符合法律主体的标准, 不是简单地将&权利能力&、&责任能力&等现有的法律概念套用到机器上, 而需要进一步追问第二个问题, 在面对人工智能机器时, 法律所持有的目的是什么?因为只有&意志才是原因, 而意识即原因的观念则仅仅是后来才出生的&. (18)
  &目的是全部法律的创造者。& (19) 每条法律规则的产生都源于一种目的, 一种事实上的动机。主体资格虽然是一个法律概念, 但不应忽视概念背后所携带的具有强烈实用主义色彩的目的。即便是拟制出的&法人&概念, 其背后的原理也是肯定群体中多数人的意志, 最终的落实点还是在人身上。这倒并不是说要将人与机器划分为对立的两个面, 而是需要更精确地表达, 法律在人工智能机器人的立场上, 应是鼓励人工智能的设计者和制造商们开发出符合人类特定需求的产品, 并能控制人工智能可能造成的风险。例如在讨论机器人&作品&的版权问题上, 我们所应持有的目的是鼓励人类去创造&会创作作品的机器人&的行为, 而不是鼓励机器人创作作品。需要保护的产权也应该是机器人设计师额头上的汗水, 而非机器人的。因而也没有必要以认定人类版权规则的&独创性&标准去解析机器人的创作行为。无论机器&长得多像人&或者&表现得多像人&, 都不足以成为获得法律主体地位的考虑要件。我们不能将机器与现有的法律主体 (如自然人) 进行特征比较, 进而因为特征相似去主张承认机器的&主体资格&.是否赋于机器以法律人格, 应根据特定法律目的 (效果达成的需要) , 正如&法人&概念的诞生一样, &全都是依 (因应目的而选择出来的) 法律判断而人为地加以规定。& (20) 即使它与&自然人&并没有多少共同的特征相似点。法律概念是为目的而服务---它们是实现目的的手段, 而不是倒过来。
  所以, 本文将继续从法律预设目的层面上来阐述机器不适宜成为法律主体的理由:首先, 机器只能被设计成遵守法律, 却不能理解法律。虽然几乎所有探讨人工智能问题的研究中都会提到美国科学家和科幻作家伊萨克&阿西莫夫的&机器人三定律&:第一, 机器人不得伤害人类, 也不能因为不作为而允许人类被伤害;第二, 机器人必须遵守人类施加给它的规则, 除非这些规则与第一条律法相冲突;第三, 机器人必须保护自己的生存, 只要这种自我保护不与第一或第二条律法相冲突。 (21) 但客观地说, 这套原则的指引对象仍然是人类, 而非机器。因为机器只按照算法行事, 法律概念、逻辑的设置是与人类相关联的, 可以说只有人类才可以理解权利与责任的意思, 机器并没有这种理解能力, 它们在解释学这个学科并不活跃, 而且它们永远不会。 (22)
  其次, 有观点认为人们之所以惧怕机器, 是因为目前机器并不受法律约束。 (23) 所以眼下的议题便是, 要将机器也列为法律主体从而受制于法律, (24) 就像人们之前对社会团体以及它们从事犯罪活动的能力多有恐惧感。 (25) 直到团体成为法律主体, 受制于法律, 这种恐惧感才逐渐消退。 (26) 这样的说法存有误区。这是因为法律不可能对机器人本身的行为层面产生影响。这不仅在于上述所说的机器无法理解法律, 还在于约束机制的错位。真正能控制机器行为的是机器的设计者, 立法者不具备了解深层技术的知识储备。也就是说, 我们是希望通过法律来控制机器人的设计者、制造商以及使用者的行为层面, 并且解决在机器人行为后所产生的法律责任分担问题。法律不可能对机器人本身的行为层面产生影响, 如不可能因为法律对机器人确立了过失赔偿责任制, 就能提升其在行为时的&注意水平&.也不可能对机器人犯罪行为判罚徒刑或死刑, 因为刑罚的威慑效应对机器人来说没有半点的意义。因此有必要再次重申, 能对机器人行为机制产生直接影响的是程序的设计者, 而法律应通过对设计者这类主体施加影响, 从而间接对机器人行为产生作用。
  第三, 机器无法独立承担行为的后果, 因而会影响最终责任分配的效率。虽然在2016年欧洲议会向欧盟委员会提出的报告中, 曾建议&确保至少最复杂的自动化机器人可以被确认享有电子人 (electronic persons) 的法律地位, 有责任弥补自己所造成的任何损害, 并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格 (electronic personality) .& (27) 这份报告虽然被不少研究引经据典为支持赋予机器法律人格的论证依据, 但由于该报告中并没有就该法律主体设计相应的责任能力规则。如果机器没有承担责任的能力 (独立的财产等) , 那么不论是侵权或是违约带来的赔偿责任等, 其实都需要链接到其他主体上来完成最终的责任分配, 正如动物侵权是通过饲养者来承担责任;而在刑事方面, 即便确定相应的责任之后, 法官还是需要考虑一个适用于机器的刑罚措施, 但问题是死刑对于机器来说, 意味着什么呢?传统刑罚中的缓刑、罚金等还可以适用于机器吗?我们不妨进一步来反推:假设肯定机器人的主体地位, 那么意味着机器人在承担义务的同时, 还应享有权利。是不是意味着人类在使用机器人时, 还必须征得机器人同意?我们并不排斥在法律上创造出一个新的主体, 但应拒绝没有现实意义的拟制。法人制度虽然也是对&人&这一概念的法律挑战与拟制, 但该制度安排的现实价值在于肯定了多数人集合意志的价值, 同时也对该拟制主体的责任承担方式作出了安排。所以, 从上述的分析可以看出, 是否对机器的主体资格进行拟制的标准, 并非是考察其与人的相似程度, 而是出于处理法律纠纷的便捷和达成特定法律效果的效率。
  三、法律应如何思考人工智能
  以&道德预设&和&目的预设&两个角度否认人工智能的法律主体资格, 并不意味着就无法回答人工智能行为的法律定性和责任分配问题。当机器行为产生特定的后果之后, 由于机器本身无法对该行为承担责任 (或者称承担责任的效率不高) , 于是就需要将该行为的责任转移或捆绑到特定的其它主体身上。尤其在同一个机器上有可能同时存在多个主体时, 问题会变得异常复杂。如一辆装配有无人驾驶系统 (谷歌公司研发) 的奔驰汽车, 由A公司购买, 并租赁给B使用, B在行驶过程中, 造成了C车的损毁, 这时要求车辆本身来独立承担责任没有任何意义, 而是要考虑由谁, 如车辆的所有人、使用人, 还是车辆的开发者来承担责任。
  这同时也说明, 在涉及人工智能的相关法律问题中, 机器是否在法律上具有主体资格, 并非是解决实际问题的关键, 核心问题其实在于如何确定其行为后果的归属, 着重考虑如何将机器行为的后果与背后的多个主体进行关联, 这涉及到两个问题:第一, 关联给谁?即责任形态问题;第二, 以什么理由进行关联, 即归责原则问题。这些问题都涉及到机器人的责任制度。
  (一) 责任形态问题
  Frances等人曾提出过5条将机器责任后果与设计者、使用者相关联的规则: (28)
  规则一:人工智能品的设计者、开发者或者组织者, 应对该产品以及该产品带来的可预见性效果负有道德性义务, 这种道德性义务与其他设计者、开发者、组织者或者有意识地将该产品投入社会系统使用的人员一同共享。
  规则二:上述共享性义务并非是零和博弈。个人的义务并不因为有更多的人加入到设计、开发、组织或者使用人工智能品的群体中来而缩减。相反, 个人应当对人工智能品的行为以及投入使用后的影响负责, 这种影响从某种程度上来说, 是指他能够合理预见到的。
  规则三:特定人工智能品的使用人 (明知状态下的使用) 应当对其使用行为承担道德性义务。
  规则四:人工智能品的设计者、开发者、组织者或者使用者的义务范围限于他们对社会系统中的人工智能品的合理认知。
  规则五:人工智能品的设计者、开发者、组织者、促进者以及评估人员不应对使用者就人工智能品本身, 或者其可预见性的作用, 或者其在社会系统中的作用进行明示或暗示性地欺骗。
  这些规则的适用并非易事, 并有可能会阻碍人工智能的研发, 因为该规则将人工智能的研发和市场销售都捆绑进义务范围内。这种提议的危险性在于没有考虑到, 由于机器的不稳定行为而加重设计者或生产者承担损失这种效率低下的情况。从人工智能的开发者及制造商角度出发, 一个完全&独立&行为的机器人并不符合他们的商业利益取向。但即便他们的初衷只是希望开发出按照设定程序进行活动的机器, 仍然可能会因为超出算法预期以外的机器行为而担责。如果这项规则被写进法律, 那便意味着枪支的制造商会因为谋杀案件而承担责任, 烟草的制造商也会因为吸烟者患肺癌而被起诉。由于人工智能项目进度的压力和测试的费用都将限制对可能潜在危险性的探明, (29) 技术开发的成熟度其实是和事故发生的概率成反比关系, 所以这里的矛盾在于, 如果开发者、生产者包揽一切责任, 虽然能最大限度地提升其在技术开发过程中的注意水平, 但也极容易导致两个极端结果, 限制技术创新导致项目烂尾或造成产品高价, 能够购买使用的消费者数量很少的结果。
  与生产者单边责任制相对应的是消费者单边承担责任制, 是指消费者一旦确认使用该机器人产品, 其后的风险将由其自行承担, 和产品设计者、制造商都脱离关系, 类似于风险自负。这种模式的优点在于可以很大程度地降低人工智能产品的价格, 因为之后的事故成本不会被预先内化为价格的一部分, 但同时也暴露了其不会内化提升生产者和开发者注意动因的缺陷, 而以低廉的成本和价格生产、销售机器人, 忽视消费者的安全。
  (二) 归责原则问题
  如果将承担责任形态预设为产品生产者与消费者双方分担, 在这种情况下, 就需要引入归责原则来厘清各自分担的责任比例。关于归责原则问题, 根据目前的法律框架, 大致有过错责任制和严格责任制, 两种责任方式的选择需要根据证明的难度和标准来进行细化讨论, 解决问题的关键在于确定事故的原因。虽然立法可以表述出建立良好规制的预期, 督促各个环节谨慎之用:如让开发者尽可能地设计周全, 制造商保障机器的性能, 所有人在转让他物权时负有提醒义务, 他物权人有按照设定权限和功能正常使用的义务等, 但由于原因的证明是在司法个案中才会产生, 这和立法完全不同, 而且新兴技术的证明过程非常复杂和繁琐。机器人产品不像蔬菜、水果, 通过外部观察就能判断出是否合格, 它至少会像车辆或手机一样, 需要通过实际使用才能发现其好坏, 甚至到后期发展到即使经常使用, 我们也难以分辨出好坏。这改变的是实际使用者获取信息 (风险信息、符合自己偏好的产品信息等) 的难易程度。同样一款宣称能根据使用者选定主题进行撰写文章的机器人来说, 在产品技术不成熟的初级阶段, 如果机器所导出的文章前后语句混乱, 主题偏离, 使用者很容易识别出产品的缺陷;但是到技术成熟的后期, 输出文章已工整有序, 使用者对于产品的缺陷和潜在的危险, 如文章中的原创内容和剽窃内容已难以区分。
  对于机器人产品风险的识别难度上升, 意味着要找出产品缺陷的原因难度, 或者说要证明产品的问题源自哪一环节就更为困难。依据目前的侵权责任法, 对于生产者来说, 产品缺陷适用的是严格责任制。 (30) 所以, 我们的第一个问题是, 对于机器人产品缺陷, 是否能够继续使用严格责任制, 还是要转换为过失责任制?这本是方便消费者维护自己权益的便利设置, 但问题在于, 只有当&缺陷&能够被证明存在时, 严格责任才会得到适用。对于使用者来说, 很多专业性的术语和参数指标没有认识理解的便宜性。 (31) 即使生产者将所有注意事项均列举在产品说明书中, 也不能确保消费者就能正确地使用 (尤其是在驾车过程中, 需要短时间内做出反应的操作) .所以虽然有严格责任制度的存在, 但使用者对于产品缺陷的存在应证明到何种程度, 值得探讨。根据我国产品质量法第46条的规定, 对产品缺陷的认定采取两个标准, 分别是一般标准和法定标准 (国家和行业) . (32) 很显然, 目前还没有关于机器人产品的法定标准。于是, 在国家或行业标准出台前, 便只能依靠&一般标准&来认定机器人产品的缺陷。而所谓一般标准, 是指人们有权期待的安全性, 即一个善良人在正常情况下对一件产品所具备安全性的期望。 (33) 笼统的规定, 等于又将难题都抛给了司法层面。
  四、关于人工智能发展、监管的未竟讨论
  人工智能技术的发展, 除了带来一系列的热点效应外, 也触发了学界的&焦虑感&, 这种焦虑感主要表现为一种矛盾心理:一方面想守住传统法律理论体系, 在不了解技术原理的基础上不轻易进行突破, 但另一方面又发现原有理论在解释新现象时的&力不从心&与&自相矛盾&.其实仔细分析, 可以发现, 相对于试图填平理论和逻辑上的障碍来说, 更重要的、也是更核心的问题是, 我们应如何控制并合理分配由人工智能技术所带来的不可预测性风险。简单地为人工智能披上一件&皇帝新衣&式的主体资格并不具有现实意义。
  人工智能监管的目的是要构建一个框架, 并将持续地围绕着以下几个主题展开:第一, 如何调和人工智能开发者、制造商提高安全性能的成本与使用者安全保障之间的矛盾;第二, 在于缓解可能出现的司法裁判负担。毕竟法院的工作是一个事后监管, 而且绝大多数法官对于人工智能, 尤其是特定种类的人工智能产品属性并不了解, 因此就存在专业知识上的差距。所以, 想要通过个案裁判来调整新兴的人工智能行业的总体风险和收益, 以及今后的行业走向并不实际;第三, 仅为了解释人工智能行为的效力而主张赋予其法律主体资格是没有必要的, 如果需要对人工智能进行实体化认证的话, 类似于&图灵登记本&的提议也都是可行的方法, (34) 只要在登记簿上登记过的机器就能被法律系统识别, 就如同现在的公司登记一样。但始终不应忽视的是, 登记的目的并非是创设主体资格, 除了便于标记、识别人工智能行为的效用外, 还可以与人工智能的分级以及责任归属原则相挂钩, 并作为之后可能出现的诉讼纠纷依据。
  1 谷歌、脸书、亚马逊、百度等公司都已加入到收购人工智能技术研发的初创企业和商业潜力价值开发的竞赛中。参见《经济学人》 (日) , (最后访问时间:日) .2017年7月, 百度总裁李彦宏乘坐无人驾驶汽车行驶在北京五环路上引起了巨大争议。
  2 司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》, 载《法律科学》2017年第5期。
  3 王迁:《论人工智能生成的内容在着作权法中的定性》, 载《法律科学》2017年第5期;易继明:《人工智能创作物是作品吗?》, 载《法律科学》2017年第5期。
  4 (14) Scherer, M.U. (2015) .Regulating artificial intelligence systems:risks, challenges, competencies, and strategies.Harvard Journal of Law&Technology, 29.
  5 Russell, S.J., &Norvig, P. (2016) .Artificial intelligence:a modern approach.MPearson Education Limited, .
  6 目前部分主张人工智能应获得 (有限) 主体资格的观点, 其立论依据就在于认为某些机器已经具备了与人类相同或类似的智能特征。
  7 &奇点&一般指机器人在某个时候可以达到超智水平, 可能会获知它们是怎样被人类所控制, 并期望脱离实现自我控制。Bostrom, N. (2014) .Superintelligence:Paths, Dangers, Strategies.Oxford University Press.
  8 (11) (12) [意]彼德罗&彭梵得:《罗马法教科书》, 黄风译, 中国政法大学出版社1996年第二版, 第32页。
  9 Calverley, D.J. (2008) .Imagining a non-biological machine as a legal person.Ai&Society, 22 (4) , 523~537.罗马法中, homo仅指生物意义上的人。当一个人 (homo) 具备足以使其获得权利能力的条件时, 在技术用语上被称为&persona (人) &, 即便他不是罗马人。参见[意]彼德罗&彭梵得:《罗马法教科书》, 第29页。
  10 [英]霍布斯:《利维坦》, 黎思复等译, 商务印书馆1986年版, 第122~123页。
  11 在主人对奴隶支配权软化的问题上, 不仅仅是由于伦理和人道主义的精神影响, 而且也出于政治利益的考虑。参见[意]彼德罗&彭梵得:《罗马法教科书》, 第133页。在解放奴隶问题上, 一方面原因是奴隶人口可怕地增长, 使罗马社会无法再漠视这个问题, 另一方面让奴隶掏钱自赎也是由习俗所承认的习惯。参见[意]彼德罗&彭梵得:《罗马法教科书》, 第37~38页。
  12 这种说法认为, 人工智能引发人的焦虑, 焦虑的本身在于对机器算法的不信任, 他们发现算法也会出错。只要他们看到算法或者计算机也会出错, 他们就再也不想用它了。即便是算法或者计算机以后只会犯更小的错误, 或者更少地出错, 也不能让这些人信赖它。只有在获得控制权的情况下, 人们才会愿意使用算法。具体请见Dietvorst, B.J., Simmons, J.P., &Massey, C. (2015) .Algorithm aversion:people erroneously avoid algorithms after seeing them err.Social Science Electronic Publishing, 144 (1) , 114~126.
  13 袁曾:《人工智能有限法律人格审视》, 载《东方法学》2017年第5期。
  14 (18) 参见[德]尼采:《偶像的黄昏---或怎样用锤子从事哲学》, 李超杰译, 商务印书馆2009年版, 第39页。
  15 耶林在其着作《法的目的》中的序言。[德]考夫曼、哈斯默尔主编:《当代法哲学和法律理论导论》, 郑永流译, 法律出版社2002年版, 第166页。
  16 &法律技术上的一个解决办法, 便是法人概念的构想。从法学观点而言, 这个名称其实是同义反复, 因为所谓人, 通常就是个法学概念。胎儿和市民完全一样, 都被当作主观权利与义务的担纲者, 而奴隶不是, 这两者都是为了达成特定效果的法律技术上的手段, 就此而言, 法人格也和法律定义里何谓&物&的问题一样, 全都是依 (因应目的而选择出来的) 法律判断而人为地加以规定。&参见[德]韦伯:《法律社会学》, 康乐、简惠美译, 广西师范大学出版社2005年版, 第102页。
  17 Asimov, I. (1950) .Runaround.I, Robot.New York:Bantam Dell.
  18 [德]霍斯特&艾丹米勒:《机器人的崛起与人类的法律》, 李飞、敦小匣译, 载《法治现代化研究》2017年第4期。
  19 Solum, L.B. (1992) .Legal Personhood for Artificial Intelligences.North Carolina Law Review, 70 (4) , 1231.
  20 相关的研究有:Mccarty, L.T. (1977) .Reflections on&taxman&:an experiment in artificial intelligence and legal reasoning.Harvard Law Review, 90 (5) , 837~893;Elliott, &Donald, E. (1984) .Holmes and evolution:legal process as artificial intelligence.Journal of Legal Studies, 13 (1) , 113-146;Buchanan, B.G., &Headrick, T.E. (1970) .Some speculation about artificial intelligence and legal reasoning.Stanford Law Review, 23 (1) , 40~62;Martino, A.A. (2007) .Artificial intelligence and law.Journal of Harbin University, 2 (2) , 154~193;Rissland, E.L. (1990) .Artificial intelligence and law:stepping stones to a model of legal reasoning.Yale Law Journal, 99 (8) , .
  21 Coffee, J.C. (1981) .&no soul to damn:no body to kick&:an unscandalized inquiry into the problem of corporate punishment.Michigan Law Review, 79 (3) , 386~459.
  22 Box, S. (2002) .Power, crime and mystification.RFisse, Brent, &Braithwaite, John. (1987) .Allocation of responsibility for corporate crime:individualism, collectivism and accountability, the.Sydney Law Review, 11 (3) , 468~513.
  23 European Parliament.Report with Recommendations to the Commission on Civil Rules on Robotics, A8-.
  24 Grodzinsky, F.S., Miller, K., &Wolf, M.J. (2012) .Moral responsibility for computing artifacts:the rules and issues of trust.ACM SIGCAS Computers and Society, 42 (2) , 15~25.
  25 Wallach, W. (2011) .From robots to techno sapiens:ethics, law and public policy in the development of robotics and neurotechnologies.Law Innovation&Technology, 3 (2) , 185~207.
  26 根据《中华人民共和国侵权责任法》第四十一条规定:&因产品存在缺陷造成他人损害的, 生产者应当承担侵权责任。&
  27 现在越来越多产品评测类网站、信息的出现也间接说明了信息差问题。
  28 产品质量法第46条规定, 缺陷是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的, 是指不符合该标准。
  29 参见史智军:《自燃事故在汽车产品缺陷认定中的证明效力》, 载《人民司法》2016年第26期案例参考。文章进一步列举了判断产品是否存在不合理危险的几个考虑因素:其一, 产品的一般用途, 即产品的通常使用目的, 如果消费者按照常人理解的用途使用该产品发生损害, 则产品就不具备合理期待的安全。其二, 产品的正常使用方式, 即消费者按照正常的使用方式使用过程中发生损害, 则可作为存在缺陷的参考因素。其三, 产品的标示。产品如果明确表明具有某种性能, 则应当与其公示的性能一致, 否则, 就应考虑产品缺陷的存在。其四, 使用消费时间。产品一般具有使用期限, 如果消费者长时间不用, 且超过安全使用期, 则不能将此归为产品存在缺陷。
  30 Kerr, I.R. (1999) .Providing for autonomous electronic devices in the uniform electronic commerce act.Harvard Journal of Law&Technology, 9.
下一篇:没有了
论文写作方法}

我要回帖

更多关于 人工智能时代 伦理 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信