关于人工智能存在的问题著作权,究竟有哪些问题存在

人工智能创作作品该不该有著作权? 日本拟立法-中新网
人工智能创作作品该不该有著作权? 日本拟立法
日 10:21 来源:  
&&&&&资料图:当地时间日,日本东京,DIY机械展览上100机器人大跳“广场舞”,这批智能机器人高约34.5厘米,还能识别200个日文短语,走路、踢球更是不在话下。&&
  4月18日电 据日媒报道,日本政府下属的知识产权战略本部(本部长为日本首相安倍晋三)将讨论制定对人工智能(AI)创作的音乐和小说等的权利进行保护的法律。
  根据现行的日本《著作权法》,只有人类创作的作品享有著作权。由人工智能创作的作品即使被盗用,也无法采取措施禁止和要求损害赔偿,这有可能对投资人工智能形成障碍。制定法律条款的方针将纳入5月敲定的知识产权推进计划中。
  日本的《著作权法》禁止在未经作者同意的情况下擅自使用相关音乐、小说和绘画等。但是,该法将著作物定义为“思想和感情的创作性表现”,在人类几乎不加入创作意图的情况下由人工智能创作作品时,权利难以成为受保护的对象。
  日本知识产权本部认为,需要制定考虑到人工智能正在进步这一现实的法律。该本部设置的委员会将在4月18日发布报告书,随后在知识产权计划中纳入相关方针。
  具体来说,将讨论的是建立像商标那样保护人工智能创作物的权利的新注册制度,以代替著作权,或通过修订日本《反不正当竞争法》等禁止擅自利用。
  日媒称,届时,获得权利的将是开发出利用人工智能来创作作品的机制的人与企业。相关人与企业将拥有要求禁止擅自利用和提出损害赔偿的权利,以使投资者能收回投资费用。
  目前,设想适用于只要人类做出极为简单的指示即可生成音乐的自动作曲系统等。不过,由于人工智能可在短时间内创作出大量作品,保护对象计划仅限于获得欢迎等具有一定市场价值的作品。
  日本知识产权本部在推进权利保护的同时,还将讨论旨在使利用人工智能制作内容更加顺利的立法。将讨论修订《著作权法》,以便在提取现有大量作品的特征、由人工智能用于创作时,无需获得原作品的权利人的许可。
  原因是,数据的收集和分析虽然将伴随现有作品的复制,但如果每次都需取得利用许可,庞大的信息处理将变得非常困难。
【编辑:吴倩】
>相关新闻:
>国际新闻精选:
 |  |  |  |  |  |  | 
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
[] [] [京公网安备:-1] [] 总机:86-10-
Copyright &1999-
chinanews.com. All Rights Reserved人工智能与著作权--《法制与社会》2016年25期
人工智能与著作权
【摘要】:随着快速发展的人工智能技术,尤其是前段时日,谷歌阿尔法狗(Alpha Go)与李世石的围棋人机大战,显示了人工智能的无限潜能发展,从而引起了社会广泛的关注,与此同时人工智能对于著作权方面影响也逐步引起人们的关注。随着人工智能的发展,人工智能的作品的创作日益呈现出程序化、无差别化、同质化,相似性等特征,以及人工智能作品属性的问题给著作权带来了新问题、新挑战。本文从人工智能作品的认证的角度,明确人工智能作品的属性,阐述著作权与人工智能的边界建构。
【作者单位】:
【分类号】:D923.41
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【相似文献】
中国期刊全文数据库
梁晏婷;[J];软件工程师;2002年04期
柳励和;[J];株洲工学院学报;2002年S1期
翟霞;[J];理论学刊;2002年05期
余波;[J];中国出版;2004年12期
王媛;;[J];中共郑州市委党校学报;2004年03期
石瓶门;;[J];中国信息界;2004年19期
刘静玲;[J];兰台世界;2005年12期
香江波;[J];出版参考;2005年10期
韩苏闽;;[J];医学信息;2006年03期
任玉翠;;[J];江西社会科学;2006年11期
中国重要会议论文全文数据库
张俊霞;;[A];中国犯罪学学会第十八届学术研讨会论文集(下册)[C];2009年
阚有清;;[A];福建省图书馆学会2008年学术年会论文集[C];2008年
庞怡;杨红春;;[A];信息时代科技情报研究、科技期刊编辑学术论文集[C];2004年
侯翠香;;[A];中国气象学会2005年年会论文集[C];2005年
毛旭;;[A];文化大省建设中的图书馆现代化——浙江省图书馆学会第八次学术研讨会论文集[C];2001年
曹越;;[A];全球信息化时代的华人传播研究:力量汇聚与学术创新——2003中国传播学论坛暨CAC/CCA中华传播学术研讨会论文集(下册)[C];2004年
吴淑金;李强;陈兵;袁宁;杜冠辉;陈嘉伟;宋妮妮;;[A];“广东科技情报服务促进广东经济发展”综合研讨会论文集[C];2007年
巩劼;李燕燕;;[A];学报编辑论丛(第十一集)[C];2003年
钟紫红;;[A];中国编辑研究(2004)[C];2004年
董颖;邹唯宁;;[A];信息网络与高新技术法律前沿(2005)——电子法与电子商务时代的传统知识保护研讨会论文集[C];2005年
中国重要报纸全文数据库
王婧姝;[N];中国民族报;2008年
张志勇;[N];中国艺术报;2008年
光明网记者
吴晋娜;[N];光明日报;2013年
黄政;[N];桂林日报;2007年
章平;[N];中国新闻出版报;2006年
葛伟;[N];中国艺术报;2008年
索来军;[N];中国新闻出版报;2009年
秦旭光;[N];鄂尔多斯日报;2010年
吴学安;[N];中国知识产权报;2011年
北京市高级人民法院
周波;[N];中国知识产权报;2012年
中国博士学位论文全文数据库
林华;[D];中国社会科学院研究生院;2012年
张晓秦;[D];对外经济贸易大学;2007年
牛巍;[D];中国科学技术大学;2013年
刘汉波;[D];华东师范大学;2008年
徐瑞鸿;[D];中国政法大学;2007年
袁同成;[D];上海大学;2010年
董皓;[D];中国政法大学;2008年
中国硕士学位论文全文数据库
高合云;[D];湖南师范大学;2009年
徐启俊;[D];华中科技大学;2011年
李越;[D];首都经济贸易大学;2013年
曾晰;[D];华南理工大学;2015年
钟文芳;[D];华南理工大学;2015年
韩超;[D];海南大学;2014年
刘佳;[D];南京工业大学;2014年
修雪璐;[D];黑龙江大学;2014年
黄江;[D];广东财经大学;2015年
孙左侠;[D];辽宁师范大学;2015年
&快捷付款方式
&订购知网充值卡
400-819-9993人工智能涉足创作领域
版权归属问题引关注
近期,微软向公众发表了一封公开信,表明小冰放弃创作版权,引起业内高度关注,人工智能创作具备的优势及存在的问题,特别是版权归属问题也再一次引起深思。
  人工智能正在向各个领域渗透,包括创作领域,微软小冰发布的诗集、Google人工智能AI创作的神奇画作被拍卖最高单幅价格高达8000美元,美联社与人工智能公司合作开展的人工智能新闻写作平台Wordsmith创作的稿件也达到了每季度3000余篇。人工智能的浪潮似乎正在向人类发出更为深层次的挑战。  但近期,微软向公众发表了一封公开信,表明小冰放弃创作版权,引起业内高度关注,人工智能创作具备的优势及存在的问题,特别是版权归属问题也再一次引起深思。  人工智能创作进展还比较缓慢  技术与艺术一向被视为两个极端。技术意味着可量化、可复现、可批量产出,艺术则截然相反,意味着创意、个性、独一无二。目前人工智能创作领域,内容生产取得一定成果,但艺术创作特别是赋予情感的创作领域,人工智能的进展还是比其他几个细分领域缓慢的。  微软的人工智能产品小冰推出了人类历史上第一部人工智能创作的诗集。从最开始的模仿到创作再到大规模的生产,小冰训练了1000次。微软的技术人员介绍,小冰每学习(迭代)一次的时间大约是0.6分钟,10,000次迭代需要100个小时。而人类如果要把这些诗读10,000遍,则大约需要100年。  美联社与人工智能公司合作开展的人工智能新闻写作平台Wordsmith创作的稿件也达到了每季度3000余篇。  对于什么属于真正的人工智能创作,微软(亚洲)互联网工程院相关负责人指出,人工智能创造的三原则:第一,人工智能创造的主体,须是兼具IQ与EQ的综合体,而不仅仅是具有IQ;其次,人工智能创造的产物,须能成为具有独立知识产权的作品,而不仅仅是某种技术中间状态的成果;第三,人工智能创造的过程,须对应人类某种富有创造力的行为,而不是对人类劳动的简单替代。  人工智能学家主编、《互联网进化论》作者刘锋接受《中国企业报》记者采访时表示,人工智能创作创新领域虽然取得一些成果,但仍然是最为艰难的一个领域,进展也相缓慢,距离预期还很远。学习素材模仿创作还可以,但创作形成自己风格的、带有情感的作品还远远不够。在他看来,创作领域属于人类独特的领域,目前行业里的一些报道有些夸大事实。  微软(亚洲)互联网工程院副院长李笛也认为,人工智能创作是超越和取代不了顶级诗人、作家的,他分析,人工智能在创作领域涉猎两个方面,一方面是艺术创作,另一方面是内容产业。目前在内容创作领域取得一些成果,但艺术创作领域还存在瓶颈。  “艺术创作有一定的标准,并且这些标准是由人去制定的,人工智能创作刷新不了这个标准。”李笛表示。  创作版权归属引关注  近日,微软小冰推出了“联合创作模式,任何人都可以用照片激发小冰,让她根据图片生成一首诗。同时微软向公众发表了一封公开信,表明小冰放弃创作版权,和她一起创作的的人,能够独享最终作品的全部权利。这是在法律上对人工智能版权问题悬而未决之际,第一个宣布“放弃版权”的人工智能。  华中科技大学法学院教授熊琦认为,人工智能的作品究竟能否被认定为具有法律意义的作品,还需要解决两个问题,第一是人工智能所生成的内容是否达到了最低限度的创造性;第二是,人工智能所生成的内容是单纯的机械计算和程序推演,还是属于人工智能设计者的行为。  对此,李笛告诉记者,小冰放弃版权,实际上是微软在人工智能创作内容生产结构上的一个调整。小冰最大的商业价值将是内容生产领域的中坚力量,不是取代中坚创作的人类,而是联合创作,帮助作家完成最基础的初稿工作进而提高效率和产能,再由作家去升华。这种模式也将有助于吸引更多的人参与进来。  北京冠领律师事务所主任律师周旭亮接受《中国企业报》记者采访时表示,人工智能最终也是人创作的,从这个层面来看法律可以保护人工智能的创造者,进而保护人工智能创作的作品。但人工智能的创作也可能超越其发明者的逾期,那么这种情况下人工智能创作的作品是否享有权利,由谁享受这个权利目前还是法律上的一个空白。  “相信未来在这方面的法律完善和监管上会进一步提高,如何在人工智能与法律制度之间保持平衡是行业目前直面的挑战,在这一方面我们可以参考国外的人工智能安全研究和立法标准。”周旭亮补充道。
---------------------------------
关注中国企业报微信公众号ID:zgqybnews
经济进退、行业冷暖、牛企动静、观察者发言,关于财经你想知道的这都有!
微信二维码
微博二维码人工智能时代,法与人的边界人工智能时代,法与人的边界一法网百家号法务人俱乐部 · 国内有价值的法务社群导 言在人工智能技术日新月异的时代变革中,人类/机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们的面前。如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的社会风险?如何设计人工智能时代的调控规范体系?这些问题不仅涉及对传统法律制度的深刻反思,更是以“未来法学”问题为主旨的有益探索。智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:1、机器人法律资格的民事主体问题随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。是否赋予机器人以虚拟的“法律主体资格”,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。机器人是机器还是人,在法理上涉及到主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟现在正发生动摇。从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架已然打破:人的遗传基因物质不能简单作为客体物看待,而没有生命但具有人工智能的机器人也有可能被赋予法律资格。将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。日本学者北川善太郎认为,在民法上,“法的人格者等于权利能力者”,关于人或法人的规定,“表现了最抽象化层次的抽象的法人格”。法人格概念的意义在于揭示民事主体的内在统一性和其实质,界定主体与客体的关系。“民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。”从法律技术逻辑层面看,《德国民法典》以权利能力核心概念为中心,进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。据多数科技专家研究,由于人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。质言之,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同;同时,机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。换言之,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位。2、人工智能生成作品的著作权问题人工智能的实质,是“让机器从事需要人的智能工作”,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。从计算机到机器人的发展,在作品创作方面即是一个从阅读到写作的跨越。在机器人时代,某些作品就是人工智能的生成内容。据美国Narrative Science的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人的写作方式,采取“信息→知识→智能”的技术路径,基于“人机合作”系统而导致内容生成。该行为是否构成法律意义上的“独创性”或“主观能动性”,一些国家和地区的法学家试图作出正面回应。有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风;欧盟法律事务委员会提出动议,拟赋予机器人以著作权。关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。依世界知识产权组织的权威解释,作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的。”这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。3、智能系统致人损害的侵权法问题智能型“新一代机器人”,与传统的执行重复任务的工业机器人不同,它拥有相对的自主权和更高的人工智能水平,且将广泛而深入地参与人类社会的生活。“智能型机器人”的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。机器人致人损害有两种情形:一、是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。在这种情况下,发动黑客攻击或传输病毒的侵权人应该承担法律责任自不待言,这些不是本文研究的主要话题;二、是智能系统自身的产品瑕疵而造成的损害。据报道,早在上个世纪80年代,日本即发生过工业机器在作业现场将工人置入机器压死的事件;2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。上述致人损害的事由,究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用?甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。关于智能系统致人损害责任的认定,有两种责任方式可供选择:一、是基于行为人过失所产生的产品责任。在侵权责任法中,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身损害、财产损失或有致使他人遭受人身、财产损害之虞而应承担的特殊侵权责任。致人损害的产品,必须存在缺陷,它包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷。上述情形符合智能系统致人损害责任的一般特征。2016年,联合国教科文组织会同世界科学知识与技术伦理委员会发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。从产品责任的认定条件来看,机器人造成的损害可归类于机器人制造者和销售者的过失,包括产品制造的过失、产品设计的过失、产品警告的过失以及没有尽到合理的注意义务。二、是基于技术中立原则所产生的替代责任。关于技术产品致人损害,技术中立原则可提供责任规避。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用“技术中立”原则。在这种情况下,适用替代责任较为适宜。替代责任又称为转承责任,最初出现在代理关系与雇佣关系中,即被代理人对代理人实施的,得到被代理人“授权”或“批准”的侵权行为承担责任;雇主对其雇员在“雇佣期间”实施的侵权行为承担责任,概称为“为他人侵权行为承担责任”。在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。4.人类隐私保护的人格权问题网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。个人信息包括了当事人不愿他人知道或他人不便知道的隐私信息,主要类别有:个人登录的身份和健康状况、个人的信用和财产状况、电子邮箱地址、网络活动踪迹等。在信息化社会,这些零散的和广泛的个人信息有可能被收集,并进行数据处理,从而拼合成所谓数字化人格——在很大程度上是被迫建立的人格,个人毫不知情的人格。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用:一、是增强自我保护意识。在当下的移动互联和今后的万物联网的时代,我们本身就是隐私的泄密者:智能手机安装了太多而不甚使用的APP,社交网络讲了太多而不适宜公开发表的言论,都可能造成隐私泄露;还有各种电子产品,从带有GPS的照相机到与WIFE相连的智能电器,都精细地记录私人的行踪和生活信息。在人工智能时代,挖掘个人隐私是由机器完成的,因此保护隐私,须从自己做起,对智能电器有防范之心;二、是强化企业保护用户隐私的责任。企业须负有保护用户隐私的意愿和责任,“这将是用户隐私是否得到有效保护的关键”。在当下,用户数据日益聚集在大型互联网或数据处理的企业手中,对其进行保护个人隐私的责任约束就显得非常重要。在欧盟和美国,根据政府要求,也出于用户主张,服务条款应特别声明从用户获得的数据属于用户本人,如对个人数据有不当处置,应承担责任。这不仅是合同规定的违约责任,也是违反法律的侵权责任。三、是加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。例如,美国1974年制定《联邦隐私权法》,是为隐私权保护的基本法,后又于1986年通过《联邦电子通讯隐私法案》,2000年出台《儿童网上隐私保护法》,此外还颁布了《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。欧盟则在1997年通过《电信事业个人数据处理及隐私保护指令》之后,又先后制定了《网上个人隐私权保护的一般原则》、《信息公路上个人数据收集处理过程中个人权利保护指南》等相关法规。隐私权的保护,是信息时代特别是人工智能时代的法律难题。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。5.智能驾驶系统的交通法问题人工智能在交通领域的重要应用是网联自动驾驶。智能驾驶通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术,实现了“人工智能+无人驾驶”,颠覆了以往的人车关系、车车关系。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。无人驾驶汽车可能带来的法律问题,主要有:一、是法律规制对象的转变。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者;二、是法律责任体系的重构。以过错责任为基础而建立的“风险分配”责任体系,在未来的交通法规中将不复存在。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。三、是交通监管重心的变化。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能;而在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。6.机器“工人群体”的劳动法问题人工智能技术发展的基本面向,是对人-机关系的改变。智能机器人的大规模应用,一方面推动了社会生产力的发展,大大提高了生产效率;另一方面也带来了社会结构的变化,使得人与机器人的关系成为社会生活的重要方面。以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题:一、是传统劳动法的调整功能消减。据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代,其中包括文秘、工人、中介、司机等一大批岗位。报告特别指出,目前软件工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替。这些都对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”二、是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。欧盟法律事务委员会动议,主张人工智能具有“工人”身份,并赋予其劳动权等“特定权利与义务”;韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。法律制度总是滞后的,但关于法律问题思考应该是前瞻的。面向智能革命时代,我们应在认识和分析现行法律困境的基础上,探索与科学文明相伴而生的制度文明,创制出有利于人工智能健康、有序发展的社会规范体系。法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度。”面向未来时代的制度构成,应以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:1.以安全为核心的多元价值目标人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。人工智能时代的法价值即是人类法律理想价值观的追求,是价值这一哲学范畴的法律化表现。法律的理想价值总是高于法律现实价值,可以为法律制度的演进提供目标指引和持续动力。人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。其中,“正义是社会制度的首要价值”,也是作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成了人工智能法律构建的正当性基础。在最高法价值指引之下,人工智能法律还存在着专门法的特别价值,这主要是安全、创新和和谐。安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。对此,法哲学家雷加森斯·西克斯言道:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律” 。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。创新是人工智能法律的价值灵魂。在特定的时代背景下,特定的法律制度会包含若干不同的价值项,而且其各自的价值侧重点也有着不同。当代经济的发展着重依靠知识和信息的生产、分配和利用,创新业已成为知识经济时代的主要特征。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:(1)谋化国家发展战略。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;(2)制定产业促进与监管的政策法律。在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;(3)完善知识产权创新激励机制。通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。2.以伦理为先导的社会规范调控体系人工智能时代的文明,需要相应的行为规范作为社会关系的调整器。就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。从人类文明创始到现今人工智能时代开启,社会行为规范已然成为一种制度体系。社会规范调控体系或系统,是指在一定的国家、地区、领域内存在的,由一定的社会经济关系所决定的社会规范而构成的相互联系、相互制约的统一体。在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活的不同领域发挥不同的影响和作用。对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。在发达国家,对人工智能的伦理研究早于立法研究。近年来,欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。概言之,伦理规范的调整功能非常独到且为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。3.以技术和法律为主导的风险控制机制人工智能技术不仅是高技术,而且是高技术的核心,可称之为高技术核。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,即“人类在利用技术时违背技术自身规律而产生的社会风险”。人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,专利法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。此外,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,是奉行技术民主原则(包括技术信息适度公开和公众参与、公众决策)。防范人工智能的技术性风险,不仅涉及强化法律规制的传统制度改造,而且要求建立以社会监管为重要内容的政策体系,同时形成以全面理性(包括社会理性和科学理性)为基本内涵的风险控制机制。中国正在走向人工智能时代。世界新一轮科学革命、产业变革与我国转变经济发展方式形成历史性交汇。对人工智能的发展和规制进行制度安排,是时代新潮流,也是国际大趋势,更是本土创新发展的内在要求。笔者认为,在制度构建方面,目前有三项重点任务:一、是尽快出台国家发展战略,以此作为人工智能政策体系的支撑。从国际层面看,美、德、英、日等国加快人工智能顶层战略设计,从国家层面统筹人工智能发展。在我国,《“十三五”国家科技创新规划》和《“十三五”国家战略性新兴产业发展规划》,对人工智能发展做出重要表述。但总体而言,我国人工智能政策还没有上升到国家战略高度,人工智能的战略地位凸显不足,人工智能发展的统筹协调部门未予明确,政府、社会以及企业的责任分工尚未厘清。国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。中国必须高度关注智能革命发展前景以及引发的相关社会变革,尽快作出相应的战略政策部署;二、是及时制定《机器人伦理章程》,以此作为人工智能研发、应用的道德基础。在一些发达国家,对人工智能的伦理研究早于法律研究,诸如《机器人伦理宪章》、《机器人伦理学路线图》等,都是将安全评估和风险防范作为人工智能伦理规范的重要内容。我国似可组织政治家、科学家、企业家、法学家参加的专家小组,编写机器人伦理章程,构建人工智能伦理规范,其要义包括:设计伦理框架,为机器人预设道德准则;强化科技专家的社会责任,为人工智能研发、应用提供道德指引;引导公众接纳人工智能,为调整人—机关系规定道德模式;三、是适时进行机器人专门立法,以此作为人工智能法律的基本规范。人工智能技术对传统法律制度带来巨大挑战,以至现有的法律理念与规则在“高技术核”面前几乎无所适从。在这种情况下,法律制度需要创新变革自不待言,而寻求一个调整人类与智能机器相互关系的专门法将是一个最终的选择。对此,欧盟的立法行动最快。据报道,欧洲议会已正式向委员会提出议案,拟制定“人类与人工智能/机器人互动的全面规则”,这或将是首个涉及机器人的立法草案。我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。结 语未来时代已经到来。这是一个创新的时代,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,已成为一个具有普遍意义的关系范畴。人们在生产力、生产关系和上层建筑所有领域中进行的创造性活动,即技术进步和制度变革都是一种创新过程。智能革命引发的法律、政策和伦理话题刚刚开始,伴随人类社会的知识创新,我们需要跟进理论创新和制度创新。法学家和法律改革家们需要秉持理性主义精神,去发现和探索一个理想的法律制度体系。我们有理由相信,科学技术的智慧之光与法律制度的理性之光,将在人工智能时代交相辉映。本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。一法网百家号最近更新:简介:一法网,专注法律领域干货分享,致力法务提升作者最新文章相关文章}

我要回帖

更多关于 人工智能发展存在问题 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信