主页 > 论文欣赏 >

人工智能在社会应用中的法律问题研究


2020-09-16    来源:法制与社会    作者:杨源

关键词 人工智能 法律主体资格 责任归属 个人信息安全 
  基金项目:本文受到2019年度西安培华学院科研项目资助, 项目名称:人工智能在现实应用中的法律问题研究,项目编号:PHKT19056。 
  作者简介:杨源,西安培华学院,研究方向:刑法学。 
  中图分类号:D920.4                                                   文献标识码:A                       DOI:10.19387/j.cnki.1009-0592.2020.09.009 
  人工智能给人们的生活带来了极大便利,同时也存在着不少安全隐患。如无人驾驶汽车相撞、智能导航线路出错导致车祸等等,对于这些问题,目前在立法上还存在着空白地段,为了使人工智能更好地造福国民,规避该技术带来的社会风险,有必要对其使用过程中出现的问题,进行合理地法律调整与约束。

一、人工智能的法律主体资格认定问题


  人工智能具有一定的自主性,它发生事故往往是由于人工智能系统出故障或者发出错误指令等原因导致的,那么此时应当由谁来承担责任?如何承担?解决这些问题,需以厘清人工智能的法律主体资格为基点。目前学界普遍认为,人工智能技术的发展阶段分为弱人工智能时代和强人工智能时代,两者的区别在于是否可以进行推理和解决问题。在强人工智能时代,人工智能具有自我意识,可以独立思考问题并制定最优解决方案;而弱人工智能时代,人工智能不具备学习和思考能力,只能根据事先设定的程序进行机械运算。因此,笔者认为,应当对不同阶段人工智能的法律主体地位,进行分别讨论[1]。 
  关于弱人工智能是否具有法律主体地位,学界有肯定说和否定说之分,但大部分学者赞同否定说。否定说比较有代表性的是“意志理论说”和“工具说”。“意志理论说”认为现代法学主体是以意志自由为核心而构建的,而人工智能机器虽具有一定的自主意识,但那也是设计者或操作者的意志,它所体现出来的意志与人类的意志是两回事。“工具说”认为,人工智能机器只是一个工具,它只是比人类所使用的其他机器更加智能而已,本质上仍然是物。 
  笔者比较赞同否定说中的“工具说”,因为在弱人工智能时代,人工智能只有运算和感知智能,其意识是人类赋予的,是各种算法的机械运动,它的整个工作过程都是受到人类控制的,它只是人类使用的一种工具,一种智能化的工具而已。同时在2019年举办的世界人工智能大会法治论坛上发布的《人工智能安全与法治导则(2019)》,也将弱人工智能定位为人类的“工具”,认为其具有法律主体资格。 
  对于强人工智能是否具有法律主体地位,学界也存在肯定说与否定说之分,多数学者赞同肯定说。肯定说认为,人与动物的区别在于人具有智慧,具有自主思考与理性的決策能力。在强人工智能时代,人工智能机器也将具有自主意识,能够独立思考与解决问题,因此应当承认其具有法律意义上的人。但由于其承担后果能力有限,又有学者提出了“代理说”“电子人格说”。“代理说”认为智能机器人的操作者与智能机器人属于法律关系中的本人与代理人的关系,代理人基于被代理人的委托进行代理行为,代理行为产生的后果由被代理人承担。“电子人格说”认为,智能机器人并不会因为设计或制造出来自动拥有机器人人格,而是需要通过申请获得一个电子人格。 
  对于肯定说中的“代理说”,由于我国法律规定,代理人必须具有法律主体资格且拥有一定行为能力的人,而作为代理人的智能机器人是否具有法律主体资格又是一个待解决的问题,因此“代理说”目前还不是很完善;对于“电子人格说”,其认为智能机器人需要通过申请才能获得电子人格,那么由谁来进行申请?申请通过的标准又是什么?这些问题还没有明确的规定,因此也不够完善。 
  因此笔者认为,强人工智能也并不具有法律主体资格,因为它即使具备一定的学习能力,甚至具有一定的意识,具有超强的科研计算能力,也不具有独立的意识,它对人类工程师有强大的依赖性,它是人类工程师在对人工智能产品研发时输入一定的参数,使其具备基础的智能性,之后其学习、决策、创作等一系列行为都是原始程序运作的结果。无论它与人类的意识多么的相似,它仍然受人类控制,无法像人类一样具备理性的判断能力和独立的意思表示能力,本质上仍是人类设计的产品。

二、法律责任的承担方式


  人工智能机器只是人类设计的产品,是一种“工具”,不具有法律主体资格。从现行法律法规来看,侵权责任主体其实是民事主体,因此人工智能并不是侵权责任主体。人工智能侵权多是由于产品缺陷引起的,可依据产品质量法、侵权责任法的相关规定追究责任,具体如下: 
  (一)责任主体 
  1.设计者、生产者、销售者 
  对于人工智能产品而言,产品的研发设计是核心环节,设计研发中编写的算法或输入的数据存在问题也可能导致产品存在缺陷,因此人工智能产品的生产者应当包括设计者在内[2]。当人工智能产品存在缺陷引起侵权时,被侵权人可以直接向生产者追偿,也可以向销售者请求赔偿。如果销售者无过错,其在向被侵权人承担赔偿责任后,可以向生产者追偿,两者承担的是不真正连带责任。如果销售者无法指明缺陷产品的生产者也不能指明供货商,则要承担不能指明缺陷产品生产者的赔偿责任。 
  2.使用者 
  对于人工智能产品,如果使用者在使用过程中操作不当而造成他人损害的,则由使用者自行承担责任。此时“使用者”就应当进行区别,如果是用人单位的职工,则应由用人单位承担侵权责任;但如果用人单位的职工存在故意或重大过失,用人单位在承担赔偿责任后,可以对其进行追偿。如果使用者为非用人单位的个人,则由使用者对造成的损害后果承担责任。
(二)生产者的免责事由 
  在弱人工智能阶段,产品的智能性比较低,且不具备自主意识,往往是根据事先输入的算法在人类的控制下工作,因此当产品因存在缺陷而使用产品质量法追究责任时,不存在异议。但在强人工智能阶段,人工智能系统具有一定的学习能力,在某些情况下可以依据学习能力做出一些原程序设定之外的行为,这可能是研发者和设计者在研发、设计过程中很难预见的,如果这些因素导致产品缺陷致人致物受损时,要求设计者、生产者承担责任,有失公平。此时,可以参考产品责任中的免责条款,免除生产者的责任。 
  (三)建立强制保险制度 
  人工智能产品,特别是在强人工智能阶段的产品与一般产品相比,它的科技含量更高,智能性也越高,在其因产品缺陷造成侵权时,危害后果也更严重,赔偿的范围或程度可能是一个设计者、生产者、销售者无法承担的。另外,当出现生产者免责情形时,被侵权人的损失应当由谁承担?此时我们可以借鉴我国机动车交通事故强制险而设立“人工智能责任强制保险”,由保险公司来承担责任。人工智能的生产者、销售者分别按照生产批次,一次性购买一定数额的责任强制险,当该批次的任一人工智能产品出现产品缺陷时,可由生产者、销售者投标的保险公司在其承保范围内进行赔偿。

三、公民个人信息安全保护


  人工智能越高级越需要数据的喂养与算法的支持。这就意味着我们在享受人工智能带给我们便利的同时,需要把大量的个人信息,交付给互联网公司,以便获得更精确的服务。在弱人工智能阶段,人工智能作为人类手中的工具,不能自主搜集人类信息,相对而说,对公民个人的信息安全侵犯比较小;而在强人工智能阶段,人工智能具有一定的自主意识,可以根据自己的需求自主搜集信息,以达到某种需求[3]。笔者认为,可以采取以下措施来完善公民个人信息的保护: 
  (一)完善法律体系 
  我国缺少一部关于公民个人信息保护的专项法律。目前世界范围内解决个人信息安全比較完善的是欧盟,笔者认为在制定该法律时需要注意以下几点:(1)明确个人信息的范围。(2)明确本人及他人关于个人信息合理使用的边界。(3)明确数据的归属。比如用户在使用过程中提供的数据,到底属于用户还是属于平台,还是属于大数据的网络公司,需要有明确的规定。 
  (二)去个人化信息处理 
  个人信息具有识别特定自然人身份的特点。去个人化又称匿名化,是通过隐藏用户的身份和敏感数据以达到保护个人信息安全的目的[4]。任何商业组织,在收集、储存、分析个人信息时,无论出于何种目的,都应当进行“去个人信息化处理”。也就是说,信息收集方在收集信息时,必须通过各种技术手段,去除个人信息的可识别因素,使其所分析数据对象只是总体数据中无关身份的随机样本。去个人化后的信息,不具备私密性,可以有效减少信息利用和处理不当的风险,能够最大程度地保护当事人的权利。 
  (三)提高公民个人信息安全的保护意识 
  我们公民的个人信息安全保护意识不强。比如我们在安装软件后,需要同意用户协议才能使用,很多人会毫不犹豫地打勾,甚至不会注意用户协议中的内容;再比如很多人喜欢在微信朋友圈分享自己的动态,上传自己及家人的照片,这些都会存在个人信息泄露的安全隐患。因此,提高公民个人信息安全意识,需要做到以下两点:(1)政府部门可以组织宣传活动,宣传有关个人信息泄露的可能性途径以及危害,引起公民的重视;(2)培养良好的信息网络使用习惯。尽量不浏览、登录一些不可信的网站,必须登录时,尽量不要提交个人信息,必须注册使用时,也尽量不要使用真实姓名、家庭住址等,避免被不良网站骗取个人信息。

四、结语


  人工智能并不具有法律主体地位,当其因产品缺陷致人致物损害时,可以依据产品质量法进行归责,并建立强制保险制度;同时还可以制定保护公民个人信息安全的专项法律,提高公民个人信息保护意识,去个人信息化处理等手段,最大限度地保护公民的个人信息安全。 
  参考文献: 
  [1] 刘佳.论人工智能致人损害的侵权责任问题[J].法制与社会,2019,12(下):44-45. 
  [2] 李晶洁.人工智能侵权责任研究[J].法制博览,2020,1(下):54-56. 
  [3] 孙宏涛,郭莹莹.人工智能机器人民事法律责任制度的反思与重构[J].陕西社会科学,2020(1):105-111. 
  [4] 黄俏娟,罗旭东.人工智能与法律结合的现状及发展趋势[J].计算机科学,2018(12):1-8.
上一篇:人工智能时代的刑事风险分析与刑法应对研讨 下一篇:婚姻家事案件对诉讼程序的特殊需求分析
相关文章推荐

  • 人工智能时代的刑事风险分析与刑法应对研讨
  • 从英国脱欧透视欧洲的社会与政治分裂
  • 论大学生社会主义核心价值观培育路径
  • 浅谈大学辅导员如何开展思政工作
  • 个人信息刑法保护研究
  • 社会团体提起行政公益诉讼制度研究
  • 论宪法和法律委员会与依宪治国的关系
  • 博物馆实践活动为孩子的成长助力
  • 论经济法的社会本位理念及实现
  • “黑社会软暴力犯罪”中的正当防卫认定
  • 社会主义核心价值观融入大学生党建工作的有效
  • 四位一体”红色资源提升大学生社会主义核心价
  • 社会环境在文本解读中的作用
  • 浅谈新农村建设中的土地问题
  • 基于微课和雨课堂的计算机类课程改革研究
  • 高职学生就业中的法律风险防范