【摘要】人工智能是全球科技关注的热点,但作为前沿技术也是把“双刃剑”,面对人与机器间的关系引发社会秩序、管理体制以及伦理规范等方面的问题,必须用法律手段予以规制。要在充分理顺好科技创新和法律制度的关系基础上,出台针对人工智能的法律法规,厘清人工智能开发主体的法律责任,做好人工智能社会运用的法制监督。
【关键词】人工智能 法律 规制 【中图分类号】D92 【文献标识码】A
人工智能已成为全世界关注的科技前沿技术,世界各国纷纷加大人财物等的投入,抢占人工智能高地。2017年我国发布《新一代人工智能发展规划》,明确了人工智能发展目标,这标志着我国人工智能发展提高到国家战略层面。但人工智能为社会发展带来机遇的同时,也带来隐私保护、知识产权纠纷等问题。科技的发展需要法律的规制,既要保障人工智能服务于人类,又要提高科技创新水平。
科技的快速发展给法律秩序带来了新变化
科技创新扩展了立法范围。现代科技的发展,立法范围不断扩大,让科技法成为单独立法部门。科技创新成果运用到生产生活中,就会出现新的社会关系,法律方面的问题随之出现。参照国际上通用的做法,通过立法干预科技活动,规范科技范畴中新出现的社会秩序及关系,比如《中华人民共和国专利法》等,尤其是当代科技发展迅速,使科技立法发展到新阶段,成为独立法律体系,科技法学也发展成独立学科。
立法规范并协调科技创新中的各类关系。科技创新作为创造性社会活动,是先进生产力的代表,必须建构与之相匹配的生产关系来加以维系。在法律框架内受保护的科技创新,才能为实现健康有序发展。现代科技活动的发展往往都牵涉到复杂社会关系,这些关系往往涉及到复杂的利益背景、利益关系,充满了利益矛盾及冲突,为此,必须通过法律来进行调整。
人工智能的快速发展,为法律秩序带来新变化,依靠当前的法律规范不能对人工智能法律关系加以调整与规范,这需要创新法律体系,建立人工智能法律体系。人工智能法律体系建构的初衷是通过运用法律杠杆减少人工智能对公众带来的风险,最大程度为人工智能发展创建安全的法治环境。又因为其涉及到多个学科、诸多领域,涉及案件的案情也较为复杂,这对法官提出了更高要求,需要结合人工智能发展的态势,创建“人工智能法庭”,组建专业性强的审批队伍,落实人工智能法律适用,解决人工智能法律案件,维护人工智能的公平正义。
厘清人工智能开发主体的法律责任
人工智能冲击法律是因为能建立对人的模拟,能进行独立思考,开展独立行动,基于此,人工智能对当前法律进行冲击,法律应对人工智能需要厘清人工智能开发主体的法律责任,提高法律执行效力。
第一,规范人工智能采集、使用、分析大数据行为,尤其是涉及公民个人信息的,要坚决予以制止,保证公民的个人信息安全。与此同时,对新近出现的无人驾驶技术等要明确设计、生产、经营以及使用各主体的法律责任,如果出现因人工智能导致的法律案件,明确不同主体的法律责任,能精准定位各方责任,便于案件处置。此外,做好人工智能开发者的科学管理,尤其是开发者在进行设计时,要秉承以人为本的理念,严守社会伦理道德,严禁以不正当目的进行人工智能开发。对人工智能的销售、使用者进行约束,销售人员执行人工智能产品验收制度,有产品合格证明、质量认证标志。人工智能的使用者要进行合理利用,不能损害他人合法权益,要在法律相关规定中明确使用条件和具体标准。如果因人工智能导致的侵害,需要明确责任分担机制。如果是开发者的责任,必须由开发者去承担,而因其认知上的局限,出现损害,开发者也需要承担一定责任。而销售、使用人员出现过错的,需要承担相关责任。
第二,针对人工智能涉及到著作权,人工智能生成的内容,如果是机器人独立完成,自然成为受著作权保护的产品,不考虑其价值、用途等。机器人生产的作品拥有著作权,但是不能和自然人那样去行使权利,也就是说即便是机器人独立完成的作品,其著作权应属于机器人的创造者,这主要是因为机器人并不是真正意义上的“人”,是借助算法、数据来完成创作,其本质是人类的创作,必须充分考虑设计者的作用,因人工智能不能认定为著作权人。所以,在明确人工智能不同的主体后,便于清晰划分法律责任,禁止滥用人工智能从事违法活动的行为,利于保障人工智能技术的推广和运用。
坚持法律手段与伦理道德并重
人工智能时代的到来,也亟需行为规范调整社会关系。社会规范体系中基本的调节手段是法律、道德,借助不同方式或机制对社会生活的各个领域发挥影响。针对人工智能对社会关系作出的调整,伦理道德也能起到一定的先导作用。法律规范是根据生活而生成的,并且立法过程极为复杂,难免滞后,然而,伦理规范能发挥预设、先行作用,对已经变化或者可能出现变化的社会关系予以调整。美国、日本等都开展了对人工智能的伦理学探索,国外一些企业在从伦理规范方面强化了人工智能专家肩负的责任,突出科研工作者对社会的责任,指导合理的人工智能研发。因此,在借助法律手段对人工智能进行规范的同时,也要充分考虑道德规范的作用,对设计的人工智能产品预设道德准则,对其开展伦理指引,明确人工智能技术研发以及使用的道德规范,用伦理规范去约束科研工作者,这样伦理规范自然就能为法律的实施提供法源,转变为法律规范,完成道德法律化。因此,人工智能时代注重法律手段与伦理规范并重,能更好地推动人工智能健康发展。
做好人工智能运用的法制监督
全面落实法律防控,降低人工智能潜在性侵害。法律防控是实施风险治理的有效措施,实施人工智能的立法者需要关注风险功能的法治化。比如专利法能发挥激励创新的功能,授权客体的扩大及权益保护,是推动人工智能发展的法律表现。当然,也要关注权利客体排除领域,避免权利出现滥用,尽早清除人工智能存在的潜在性危害,与此同时,也要善于借助科技方面的法律法规,对人工智能的开发、使用以及传播等建立约束与惩戒机制。
规避人工智能造成的技术风险,实施技术控制。技术控制主要表现为政策制定、法律法规以及伦理规则等等,实施风险控制是进行提前预防,也就是从技术视角进行规制,规避技术所产生的负面效益。风险规避的基础性方式是从技术研发到运用的过程中实施的责任制度,包含科学伦理、法律责任等,而风险规避的实施是倡导技术民主原则,适时公开技术信息,引入公众参与决策。规避人工智能造成的技术性风险,既要从长远出发对传统法律制度进行改造升级,也要充分借助社会力量,做好监管工作,建立完善的风险防控机制。
总之,人工智能时代的来临,不仅是科技领域的现象,也改变了经济社会形态,为人们的生产生活提供了便捷,为经济社会发展带来了新机遇。但是人工智能的发展,也需要法治,用法来管控人工智能的发展方向,建构适宜人工智能发展的法律体系,明确各主体的法律责任,同时,也要注重发挥伦理道德的效能,并做好人工智能发展的法制监督,确保人工智能在法律规制下实现健康发展。
(作者为北京理工大学法学院博士研究生)
【参考文献】
①雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报(社会科学版) 》,2018年第1期。
②郑戈:《人工智能与法律的未来》,《探索与争鸣》,2017年第10期。
③梁志文:《论人工智能创造物的法律保护》,《法律科学(西北政法大学学报) 》,2017年第5期。
上一篇:杜绝不合理的“选择性执法” 下一篇:我国公司高管职务犯罪之反思