首页 >> 党政院校 >> 热点观察
机器人的刑事责任能力
2018年09月25日 09:23 来源:学习时报 作者:代灿 字号
关键词:刑事责任;人工智能;意志;自然人;智能机器人

内容摘要:目前,人工智能产品随处可见,作为典型的人工智能实体之一,智能机器人主要通过传感器、数据等与外界进行交流前沿科技取得重大突破时,一个现实问题也摆在我们面前:当人工智能体卷入刑事犯罪案件中,谁为这些人工智能实体承担刑事责任,又有哪些法律能够适用于机器人这一特殊主体?

关键词:刑事责任;人工智能;意志;自然人;智能机器人

作者简介:

  目前,人工智能产品随处可见,作为典型的人工智能实体之一,智能机器人主要通过传感器、数据等与外界进行交流,是具备“深度学习”及自主决策能力,能够随着环境变化自我调节、适应的有形实体。智能机器人实施严重危害社会的行为也已经真实地发生于现实生活之中。例如,2015年德国某汽车工厂内发生“机器人杀人事件”,一名22岁的员工遭遇机器人意外伤害而身亡;2016年5月,我国发生了第一宗自动驾驶系统致人死亡的事件。而人工智能与大数据结合,也可能会导致新的犯罪形式产生。

  前沿科技取得重大突破时,一个现实问题也摆在我们面前:当人工智能体卷入刑事犯罪案件中,谁为这些人工智能实体承担刑事责任,又有哪些法律能够适用于机器人这一特殊主体?

  刑事责任能力是指行为人对自己行为的控制能力与辨认能力,以及能够独立承担刑事责任的能力。通常,判断自然人是否具有刑事责任能力,首先需要考察实施侵害行为的行为人是否已经达到刑事责任年龄,再考察行为人的精神状况有无刑法规定的特殊情形。自然人的刑事责任年龄是自出生时便具有的生物机能特征,能够以自然年、月的时间标尺准确衡量,而机器人若以自然人的年龄划分方式进行推断,显然违背其本质属性与发展规律。因此,智能机器人在适用我国刑法时显得难度较大。但法律的适用也不是僵化的,在我国,除了自然人,单位也可构成特定犯罪的主体,其依据在于,单位内部成员个人的辨认能力和控制能力可以“凝结”为单位自身的辨认能力和控制能力。在对待机器人的刑事责任能力问题上,应当以发展的眼光,具体问题具体分析。

  完全在人类设计和编制的程序范围内实施行为的智能机器人,其能力是依附于人类的辨认能力和控制能力而存在的,是人类改造世界的工具,不具有在自主意志和意识支配下的辨认能力和控制能力,不能成为刑事责任的主体。欧盟议会2017年2月通过的《机器人民事法规则》,以列举的方式来定位智能机器人:通过感应器或与周围环境的交互性所获得自律能力,能够对相应信息的交换和分析;从经验或互动中能够自我学习(非必要条件);具有少许的物理支撑和加功;其行为适应周围环境;不具备生物学意义上的“生命”。从这一规定来看,欧盟并未将具备意识和意志特征作为智能机器人的要件,而承担法律责任的重要基础,就是责任承担者必须具有意识能力和意志能力。由此可见,欧盟规则实际否定了智能机器人具有法律主体资格。在目前的技术条件下,智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,完全符合人类设计和编制程序的目的。如果设计者或使用者对这样的机器人进行不当利用,甚至将其作为实现犯罪意图的工具,可以将其理解为是设计者辨认能力和控制能力的延伸,应当对相关的人员进行刑事处罚,机器人不应当对其实施的行为承担刑事责任。

  但是,随着科技的发展,有可能出现不受人类设计和编制的程序控制,具有自主意志和意识,可以自主决策并自主实施行为的智能机器人。美国一家动力公司曾设计出一款可以“随机应变”的机器人:给它设定一个“搬箱子”的任务,无论实验人员怎么妨碍它(把箱子移到别处,或者直接把机器人推倒),它还是会“顽强地”爬起来完成任务。对此,许多人担忧,如果这个机器人突然产生意识、学会自我学习,它发现每次害自己完不成任务的人是这个实验人员,那它会不会为了完成任务直接攻击实验人员?当智能机器人被设定为一种由程序编码而成并由此产生深度学习能力的实体时,它极有可能超越人类对它的预设,独立实施某些犯罪行为。在这种情况下,对机器人身份的认定将不仅仅是犯罪工具,而可能成为刑事责任的主体。如果在这种情况下还让设计者或操作者来承担责任,显然违背了罪责自负的基本原则。也就是说,机器人若要成为法律关系上的主体,就不能完全受控于人,其意志要独立,且其智力要发展到能足够自己作出判断,能意识到自己行为的后果。

  有人认为,机器人既然没有生命,也无法拥有财产,让其成为刑事责任主体,无论给其判处怎样的刑罚,似乎都没有意义。这种说法与刑法理论逻辑不符。并不是因为一个主体可以接受刑罚,才承认其具有刑事责任能力,可以成为刑事责任主体;而是因为一个主体具有刑事责任能力,可能在自主意识和意志支配之下实施严重危害社会的行为,可以成为刑事责任主体,进而在其需要承担刑事责任之时,才讨论其受刑能力的问题。

  法律规范要保持一定的前瞻性,就要建立在对问题的科学假设基础之上。尽管目前对于人工智能的发展前景仍存在很大争议,但我们不应局限于当下对人工智能技术的传统认知。无论是在立法上还是学术研究上,都不应简单否定创新产物适用某项法律的可能性,而应该用发展的眼光和谨慎的态度,来看待人工智能体未来的法治路向与规制方法。

作者简介

姓名:代灿 工作单位:

转载请注明来源:中国社会科学网 (责编:钟义见)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们