财经频道: 人工智能的法律三问

财经频道
财经新闻
人工智能的法律三问 finance.people.com.cn/n1/2018/0502/c1004-29959676.html May 2nd 2018, 00:00
  “你怎么知道自己是机器人?”   “索菲亚”回答:“你不必担心我们机器人,你们人类又怎么知道自己就是人类呢?”去年,人工智能机器人“索菲亚”成为全球首位被赋予法律公民身份的机器人。   当前,科学技术巨大进步推动人工智能迅猛发展。人工智能带来的生产生活方式深刻变革,给法律制度带来哪些挑战?现行法治体系又该如何调整和应对?   人工智能生成物是否具有知识产权?   “微明的灯影里,我知道她的可爱的土壤,使我的心灵成为俘虏了……”这段诗句的创作者不是传统意义上的“人”,而是人工智能产品“微软小冰”。2017年5月,“微软小冰”创作诗集《阳光失了玻璃窗》出版,作为历史上第一部完全由人工智能创作的诗集,它的出版带来一个新问题——人工智能生成物是否具有知识产权?   中南财经政法大学知识产权研究中心主任曹新明认为,根据现行法律,知识产权成果是指“人类创造出来的成果”,人工智能并不能成为知识产权意义上的权利主体。“但是,如果将‘人工智能’创造活动类同于科学研究的‘电脑’,即把人工智能生成物视为通过人工智能创造的智慧成果,那么人工智能生成物又确实具备‘知识产权作品’的某些属性。”   “问题的关键在于对‘人工智能’的法律定性。”曹新明表示,目前学界对这一问题主要有“工具”和“虚拟人”两种观点。“工具”即把人工智能视为人的创造物和权利客体;“虚拟人”是法律给人工智能设定一部分“人”的属性,赋予其能够享有一些权利的法律主体资格。   “即便承认人工智能生成物具有知识产权,其权利归属也是一个亟待解答的问题。”曹新明认为,如果将人工智能视为“工具”,人工智能生成物的权利可归属于设计开发者,或者所有权人,或者使用权人以及多个权利人共有。如果将人工智能视为“虚拟人”,则可以把人工智能生成物看作民法意义上的“孳息”,比如将人工智能视为“母鸡”,那么人工智能生成物就是“母鸡”下的“蛋”,“蛋”自然归“母鸡”所有者拥有。   此外,创造人工智能生成物,往往会通过一些程序进行“深度学习”,其中可能收集、储存大量的他人已享有的知识产权信息,这就可能构成对他人知识产权的侵害。曹新明认为,“在这种涉嫌构成侵害知识产权的情形下,究竟应当由谁承担责任,也是一个新问题。”   人工智能可以替代司法者吗?   近年来,人工智能在司法领域的应用逐渐深入:2016年12月,名为“睿法官”的北京法院智能研判系统上线,为法官提供办案规范和量刑分析等精准信息,用大数据推进法律适用和裁判尺度的统一;2017年5月,全国首个“刑事案件智能辅助办案系统”在上海诞生,在对上海几万份刑事案件的卷宗、文书数据进行“深度学习”后,已具备初步的证据信息抓取、校验和逻辑分析能力……   “利用人工智能,可以帮助司法者得到类似案件的全部先例以及法律、法规、司法解释等裁判规则,从而减轻他们的工作负累、促进准确适用法律。”中国社会科学院法学研究所研究员支振锋认为,通过数据采集、整理、分析、综合,人工智能在促进司法者依法、全面、规范收集和审查证据,统一司法尺度、助力司法公正等方面,的确大有可为。   但是,这是否意味着人工智能将替代司法者,实现独立断案?显然不可以。   “人工智能只是实现司法正义的辅助手段,切不可本末倒置,这是我们始终应该铭记的一条基本原则。”在上海交通大学凯原法学院院长季卫东教授看来,如果过分依靠人工智能自动生成判决、根据大数据矫正法律决定的偏差等,难免形成审判主体的多重结构,事实上形成程序员、软件工程师、数据处理商等主体和司法者共执司法的局面。   “此外,如果让人工智能超出辅助性手段范畴,全面应用于审判案件,那就有可能把司法引入歧途。”季卫东认为,在案件事实曲折、人际关系复杂、掺杂伦理和感情因素的场合,如何依据法理、常识和人情做出判断并进行妥善裁决,其实是一种微妙的艺术,需要依靠法官的理性综合分析。“即使人工智能嵌入了概率程序,具有深度学习能力,也难以保证做出公正合理、让人信服的个案裁判。”   支振锋也认为,就目前的发展情形看,人工智能还没有取代司法者的可能,尤其是作为涉及情感与理性、规范与价值的法律诉讼,如果交给人工智能,这在法律和伦理上,都很难得到支持。“应防范对人工智能形成‘路径依赖’,人工智能越发达,越应强调司法者的职业伦理。”支振锋说。   人工智能侵权责任如何认定?   2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为“小胖”的机器人突然发生故障,在没有指令的情况下,自行砸坏了部分展台,并导致一人受伤。   人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。   “从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”   与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。   “现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。   “当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。   在程啸看来,针对人工智能带来的新问题、新挑战,在法律制度的研究方面未雨绸缪,将为以后的司法实践赢得主动。“人工智能已经到来,只是在生产生活的各个领域分布不均。我们不应等到未来分布均匀、人工智能已完全融入生产生活的方方面面时,才想起来从法律进行规范。”程啸说。   《 人民日报 》( 2018年05月02日 18 版)

You are receiving this email because you subscribed to this feed at blogtrottr.com
If you no longer wish to receive these emails, you can unsubscribe here: blogtrottr.com/unsubscribe/bvL/J8G95S