美章网 资料文库 人工智能犯罪的刑法应对范文

人工智能犯罪的刑法应对范文

本站小编为你精心准备了人工智能犯罪的刑法应对参考范文,愿这些范文能点燃您思维的火花,激发您的写作灵感。欢迎深入阅读并收藏。

人工智能犯罪的刑法应对

当前,人工智能正以其强劲的技术力量,推动社会形态和社会结构发生重大变革。2017年7月,国务院制定了《新一代人工智能发展规划》,对我国人工智能的发展进行全方位谋篇布局。2017年10月,党的明确提出把建设智慧社会作为加快建设创新型国家的重要内容。新型社会形态需要与其相匹配的法律制度,智慧社会已初具雏形,但与其相对应的法律制度却尚未建立,由此导致社会治理的罅漏和迟滞。特别是,对于对人类社会安全存在潜在威胁的人工智能的“失控”行为,更需要制定现实性和前瞻性兼具的刑事治理对策。事实上,人工智能的出现和发展,正是社会学家乌尔里希•贝克所描绘的风险社会的一个缩影。因此,本文拟从风险社会理论的视角出发,剖析对人工智能犯罪追究刑事责任的困境,探究刑法应对人工智能挑战人类生存安全问题的应然路径。

一、人工智能风险刑法应对的合理性

人工智能,是通过计算机语言编写的方式对特定对象的需求信息、数据结构、运行指令等进行处理,进而实现目标对象模仿人类做出类人反应的一种技术方法。人工智能的本质特征,在于能够在深度学习的前提下自主地进行分析、判断和决策。与前人工智能时代的产品相比,人工智能虽然亦以为人类的生产生活提供便捷帮助为出发点,但却因其深度学习和以之为基础的自主决策的存在,导致其设计和制造者以及使用者对其最终将作出何种行为难以做到充分的认知和绝对的控制。就此而言,人工智能与前人工智能时代的产品有着本质区别。根据乌尔里希•贝克、安东尼•吉登斯等社会学家提出的风险社会理论,不难发现,人工智能所隐含的风险其实是风险社会中新型风险的一个重要表现形式,因而可以适用刑法对风险社会风险的应对策略。一方面,人工智能作为一种新技术,其研究和开发均建立在人类决策基础之上,符合风险社会之“风险”的人为性特征。关于风险与决策之间的关系问题,贝克曾指出:“风险总是依赖决策———就是说,它们以决策为前提。它们产生于从不确定性和危险向决策的转变之中(并推动着决策的制定,这反过来又制造了风险)。”①对于人工智能特别是强人工智能(这种人工智能具有在深度学习后独立而不受原始算法编写者控制地作出判断和决策的能力)而言,尽管直接作用于客观世界的行为并非人类直接作出,也非直接按照人类特定的指令作出,但这却不能否定人类决策对人工智能的行为具有根本性和决定性的影响。人工智能据以深度学习的原始算法由人类输入,作为其深度学习内容的数据库由人类提供,因此,尽管人工智能后续中可能习得新的算法,数据库也会动态地发生变化,但是人类却可以在源头上控制其风险的发生。传统刑法以人的行为为规制对象,这同样适用于对人工智能行为的控制。因为人工智能的风险是否发生,可以通过人的行为进行控制。换言之,由人工智能潜在风险导致的实害结果能否发生,人的行为具有压倒性、绝对性的影响。所以从调整对象的角度来看,刑法对人工智能的犯罪风险进行防控具有合理性。另一方面,人工智能经过深度学习后的潜在风险具有不确定性,是否具有导致实害结果的高度可能性、实害结果有何种程度的严重性等均难以为人类所准确认知。人工智能所潜隐的风险一旦引发实害结果,人类将面临不可估量的灾难。虽然人工智能开展深度学习最初的算法和数据库由其设计和制造者决定,但是随着其深度学习的进行,人工智能完全有可能学习和掌握新的算法,并且可以自主决定学习其他数据库的内容,因此,人工智能最终影响和改变客观世界的状态,并不为人类所完全规划和掌控。这种不确定性,正是现代风险社会的又一典型特征。吉登斯将这种现代性譬喻为一头猛兽,并以生动的笔触作了如下描述:“一个马力巨大又失控的引擎,作为人类集体我们能够在某种程度上驾驭它,虽然它咆哮着试图摆脱我们的控制,而且能够把自己也撕得粉碎。这头猛兽压碎那些敢于抵抗它的人,而且,虽然它有时似乎也有固定的路径,但当它突然掉转头来时,我们就不能预测它飘忽不定的方向。驾驭它决不是完全令人扫兴和毫无益处的,这个过程经常令人兴奋异常,而且还充满了希望。但是,只要现代性的制度持续下去,我们就永远不可能完全控制驾驭的路径或速度。”②毫无疑问,人工智能强大的深度学习能力、独立的自主判断和决策能力,必将成为风险社会的又一头猛兽。这头猛兽,如果脱逸人类的控制,将对人类社会造成怎样的危害,是难以预测的。“预防犯罪比惩罚犯罪更高明,这乃是一切优秀立法的主要目的。”③安全是人工智能时代的核心价值,人类如果等到人工智能风险引发实害结果后才考虑建立风险防范的法律制度,很可能导致风险失控的灾难性后果。刑法作为人类社会安全的最后保障法,在防控人工智能犯罪风险的法律体系中,绝不能缺位。

二、人工智能犯罪主体的定位

(一)人工智能犯罪主体的定位之争在未来的刑事立法中,人工智能能否被拟制为一种独立于自然人和单位的新型犯罪主体的问题,是讨论人工智能刑事治理的逻辑起点。只有明确谁应当对人工智能“失控”行为所造成的危害结果承担刑事责任,才能够以此为基准建立起对于人工智能犯罪治理的法律体系。然而,对这一基础性问题,理论界却存在着针锋相对的两种立场。一种立场可以归纳为“强人工智能犯罪主体肯定说”,即认为以人工智能产品是否具有辨认能力和控制能力以及是否能在人类设计和编制的程序范围外独立作出判断和决策为依据,可以将人工智能产品分为强人工智能产品和弱人工智能产品,其中具有脱离程序的独立意志的强人工智能产品,具有独立的犯罪主体地位和刑事责任能力。①另一种立场则可以归纳为“人工智能犯罪主体否定说”,即全面否定人工智能被拟制为犯罪主体的理论自恰性,认为应当由人工智能产品的设计和制造者以及使用者承担刑事责任,而不应将人工智能产品作为独立的犯罪主体追究刑事责任。②上述第一种观点在一定程度上可以防止技术发展的萎缩,同时填补了无法追究自然人或单位主体刑事责任情形下的法律漏洞,有其合理之处,但却不当地降低了人工智能产品设计和制造者和使用者的注意义务。第二种观点立足于人工智能的意志产生与设计和制造者、使用者为其提供算法和数据库背后的意志之间的因果关系,抓住了人工智能与人类在善恶观和伦理观上所具有的本质差异,并敏锐地指出强人工智能犯罪主体肯定说为人工智能设计的新型刑罚的不可行性,但在论证方面尚需要进一步阐释。

(二)应然定位:人工智能不应被拟制为犯罪主体尽管具有自主决定能力的人工智能,在某种程度上具有与人类相似的辨认和控制自身引发的客观状态的能力,但是这并不是刑法将人工智能拟制为犯罪主体的充分条件。笔者认为,即使具有严重社会危害性的状态是人工智能在自主决定的情况下引发的,刑事责任的承担主体也应是相关自然人或者单位,而不应将人工智能拟制为新的犯罪主体。首先,人类设计人工智能的目的,在于利用其在生产、生活、国防等领域代替人类从事一定的活动。人工智能并没有独立于人类的权利和价值,而只有利益附属性。对此,即便极力主张法律应当赋予人工智能以权利主体的地位的学者,也不得不承认机器人的工具性价值决定其具有天然利他特性,在人为编程和算法的影响下,其本身亦难以产生利己主义的指令和行为。③法律对于权利主体的基本定位是理性人,利己性是对法律主体最基本的人性假设。尽管见义勇为等利他性行为为主流道德所提倡,但这些不需要对待给付的利他性行为通常不会被法律设定为义务。法人作为一种法律拟制的主体,其本身亦有独立于其发起设立者、股东和高级管理人员等自然人的特殊利益,因此,将法人拟制为法律主体符合法律主体利己性的前提假设。从这一角度出发,人工智能并不具有可类比性。如果智能机器人不存在被赋予法律权利的前提却需要承担相应的法律义务,进而具有成为犯罪主体的可能性,这便导致法律权利与法律义务相对应的理论陷入自相矛盾。④基于权利与义务的对等性原则,如果将人工智能拟制为可以被追究刑事责任的独立主体,则势必要赋予其一定的独立权利,而这显然与人类研发人工智能的初衷背道而驰。其次,人工智能尽管在一定程度上具备辨认和控制能力,但是并不具备与人类完全相同的善恶观、伦理观,对其施以刑罚处罚也难以发挥刑罚预防犯罪的功能。认知以心智作为定义依据,人类的认知从低级到高级可以根据人类心智进化历程,分为神经层级的认知、心理层级的认知、语言层级的认知、思维层级的认知和文化层级的认知等五个层级,而在这五个层级的认知活动中,当前人工智能的认知水平均与人类存在着不同程度的差异。①对幸福、痛苦和各种情绪的感受属于最低阶的神经层级认知,人工智能的认知水平与一些低级动物相比尚存在差距,与人类更不具有可比性。功利主义哲学创始人边沁曾经提出“刑罚之苦必须超过犯罪之利”的罪刑相称规则,认为只有抑制犯罪动机的力量超过诱惑动机,才能预防一个犯罪,也即刑罚作为一个恐惧物,必须超过作为诱惑物的罪行。②如果人工智能无法产生对触犯刑法后将要接受刑罚处罚的恐惧感,那么刑法就无法实现特殊预防和一般预防的功能,只能以报应刑的方式一定程度上抚慰被害人,这显然与现代刑法观格格不入。有学者基于人工智能与自然人和单位的差异,提出对人工智能适用的刑罚种类之构想。③然而,无论是删除数据,还是修改程序,抑或最严厉的永久销毁,如果受罚主体缺乏对其意义的伦理感知,则与将其作为供犯罪使用的财物进行处置并无本质区别。最后,如果将人工智能视为独立的犯罪主体并对其进行刑罚处罚,将会加剧风险社会下“有组织的不负责任”的状态。风险社会下,工业社会中建构的明确责任和分摊费用的制度已经失灵,人们可以向一个又一个主管机构求助并要求其对此负责,但是这些机构却能够找到充分的理由为自己开脱,以表明自己与此毫无关系,或者自己只是个次要参与者。④如果将人工智能作为独立于其设计和制造者以及使用者的犯罪主体追究刑事责任,而不对上述相关自然人或单位的注意义务进行严格要求,从而不对其追究刑事责任,必将陷入没有适格的法律主体对事实上由自己创设的风险负责的怪圈,“有组织的不负责任”现象将进一步加剧,人类社会的安全将面临无人负责的严峻挑战。正如美国学者KowertWeston所言:“如果制造商不承担责任,那么他们就失去了改进产品的动机。”⑤如果轻易豁免以人工智能设计和制造者为代表的主体的法律责任,那么在逐利性市场的引导下,人工智能所隐藏的风险将永远不可能减少和消除,这显然不利于对人类生存安全的保护。例如,当人工智能应用于军事战争时,“军事斗争就变成了一群冰冷的却又高度机械的废铁在人的支配下进行残酷的杀掠”,⑥如果仅对军事智能武器施加所谓的“刑罚”(事实上相当于处置犯罪工具),而不对其设计者、操纵者、控制者或命令下达者等自然人或单位追究刑事责任,那么军事智能武器便成为战争发动者规避法律责任的盾牌,这显然是保障功能的失灵。

三、风险社会下人工智能犯罪刑事责任的分配

(一)人工智能犯罪刑事责任的分配之争基于对人工智能犯罪主体定位的差异,以及对保障创新和保障安全价值平衡结果的差异,对于人工智能犯罪的刑事责任分配问题,亦存在诸多争议。对于完全按照人类设计的程序运行而缺乏独立的分析和决策能力的弱人工智能而言,将其视为犯罪工具而对其设计和制造者、使用者追究刑事责任,这一点基本没有异议。但是,对于在人类设计的算法基础上进行深度学习而具有独立于其设计和制造者、使用者的意志和分析决策能力的强人工智能,其能否承担刑事责任、相关自然人或单位是否需要承担刑事责任、相关自然人或单位能否与人工智能构成共同犯罪等问题,则学界分歧严重,难以达成共识。仅就人工智能的设计和制造者、使用者而言,其应当负有何种程度的注意义务,或曰在何种范围内成立过失犯罪,以及是由设计和制造者、使用者等多个主体分担责任还是由某个单一主体单独承担责任,则因论者的价值取向不同而存在观点对立。然而,人工智能犯罪刑事责任分配问题,直接决定着人工智能“失控”行为所造成的危害后果的责任承担主体,这将对风险社会下人工智能技术的发展方向起着至关重要的指引作用。

(二)应然定位:以风险防控为出发点分配责任风险社会中,面对伴随新技术或新制度而产生的可能导致难以估量和控制其实害结果的风险,强化刑法的安全保障机能具有合理性和必要性。人工智能作为风险社会中重要的风险源,在对人工智能犯罪的刑事责任分配时,应当以防控风险为出发点,同时兼顾对科技创新的保障,准确厘定人工智能产品设计和制造者的刑事责任以及人工智能产品使用者的刑事责任。

1.人工智能产品设计和制造者的刑事责任在对人工智能产品的设计和制造者进行刑事责任分配时,应当坚持法益原则,并区分故意犯罪和过失犯罪。人工智能产品的设计和制造者的行为,并非实害结果发生最直接的原因,而是更加前端的原因,这是导致实害结果的风险的最初来源。对风险源的制造者即人工智能产品的设计和制造者追究刑事责任,是一种风险防控早期化的表现,体现了对风险防控的强化。以输入的算法和用以深度学习的数据库为分类依据,可以将人工智能产品分为用以实施犯罪活动的人工智能产品和非用以实施犯罪活动的人工智能产品。对于这两种人工智能产品的设计和制造者的刑事责任承担方式,应当有所区分。如果一个人工智能产品被设计和制造的用途就是实施恐怖主义犯罪,其设计和制造者为其输入用以模仿实施恐怖活动的程序,并提供集合有组织地实施杀人、伤害、投毒、绑架等恐怖活动实例的数据库供其学习,那么该人工智能产品的设计和制造者是明知自己的行为将导致社会公共安全受到侵害并引起民众恐慌的结果,却仍然实施设计和制造人工智能产品,显然具有犯罪的故意,应当构成故意犯罪,且可以预备行为正犯化等立法模式达到法益保护前置化的目的,以更好地防控犯罪风险。但对于非用以实施犯罪活动的人工智能产品的设计和制造者而言,人工智能产品造成了严重危害社会的结果的发生,并非其在主观上积极追求的,而是与其意志相违背的,只是由于人工智能产品被其他自然人或单位用于实施犯罪活动,或者人工智能产品存在设计缺陷,抑或人工智能产品经过深度学习掌握了新的算法进而在其设计和制造者设想之外引发实害结果,因而不能归入故意犯罪的范畴。至于能否构成过失犯罪,则需要进一步探讨。任何无瑕疵的技术本身原则上不应产生刑事责任,但是如果其主要用途是用以实施犯罪行为,那么技术中立原则不再适用,替代责任成为较为适宜的选择。①如果非用以实施犯罪活动的人工智能产品被其他自然人或单位用于实施犯罪活动,追究相关主体刑事责任时应遵循替代责任的原则,其设计和制造者不应对没有技术缺陷的人工智能产品承担刑事责任。有论者在探讨军事智能武器相关主体的刑事责任时,提出应当对侵害人的生命健康权或者公共安全的军事智能武器的设计者、操纵者、控制者、命令下达者等相关人员,以严格的无过错主义原则追究刑事责任。②这一归责模式,将对人工智能的设计和制造者科以过重的义务,极大地压制技术创新活动,殊不可取。军事智能武器可以用于发动侵略战争,也可以在对侵略者进行正当防卫和对潜在的侵略者进行震慑等方面发挥正面作用。如果因为军事智能武器被其使用者实际用于侵略战争,就对其设计和制造者追究刑事责任,那么军事智能武器在保障国防安全方面的价值就会被抹杀,军工单位及其技术人员的创新积极性将会严重受挫。对于本身存在技术缺陷的弱人工智能产品以及经过深度学习后实施了偏离最初算法预设的行为的强人工智能产品而言,如果其导致了严重危害社会的实害结果发生,那么其设计和制造者则存在构成过失犯罪的可能性。对人工智能产品的设计和制造者设置刑法上的注意义务,是解决设计和制造者成立过失犯罪的范围的关键。但对注意义务的来源问题,刑法学界却存在着极大争议。有学者以自动驾驶车辆犯罪为例,归纳出注意义务的来源:一是一般交通运输管理法规,二是有关自动驾驶车辆的特别交通运输管理法规,三是责任主体对产品的承诺与规范。①另有学者将注意义务范围定位为符合依据人类现有科学技术水平所能够企及的国家标准或行业标准,如果人工智能产品符合该标准,那么其导致的危险便不能归入“不合理的危险”。②还有学者认为,包括ISO标准、DIN标准等在内的行业标准,属于非国家组织制定的民间标准,既不一定与刑法上的注意义务相一致,也缺乏民主主义的正当性,不应作为注意义务的判断标准。③对于人工智能产品的设计和制造者注意义务的确定标准,第一种观点采取了“一般法+特别法+责任主体承诺”的模式,一方面强调了外在规范的民主性基础,即应该上升到法律法规层面而非不具有官方性质的组织制定的标准,另一方面也强调了设计和制造者自己作出的高于国家标准的承诺所体现的对风险的实际预见能力所具有的法律意义,并且对伦理道德和职业道德予以考量。该观点所确定的注意义务来源最为广泛,考虑的因素也最为全面。但是,对于外在标准的范围仅限于法律法规,而未提及由专家系统主导的更具有专业性、科学性的行业标准,也存在范围过窄之嫌。第二种观点将注意义务来源限定于国家标准或行业标准,而未将人工智能产品的设计和制造者自己实际能够认识到的风险考虑在内,过分降低了注意义务的标准,忽略了已经预见而轻信能够避免而构成过失犯罪的情形,不具有周延性。第三种观点对以当前通行的行业标准作为刑法中注意义务来源的思路进行了批判,强调了两者之间的差异性和后者应具有的民主性基础。但这一观点存在明显的缺陷:行为人的预见义务应当包括法律、法令、职业与业务方面的规章制度所确定的义务以及日常生活准则所提出的义务,④而不仅限于由代议制机构制定的充分体现民主性的法律,以行业标准不具有民主性基础否定其成为预见义务的来源的理由,不具有说服力。人工智能作为风险社会中一种重要的风险来源,刑事立法应当在防控风险时强调安全保障机能的发挥。人工智能产品的设计和制造者是风险的最初源头,其以输入算法和提供数据库的方式作出的决策,对于人工智能后续深度学习和以为使用者提供服务的方式对客观世界产生的影响所起的作用是决定性的,在对非用以实施犯罪活动的人工智能产品的设计和制造者设置注意义务方面,应当适度拓宽范围,而不应过度限缩。只有当法律法规、国家标准和行业标准、责任人自我承诺、一般社会伦理、职业伦理等设定的注意义务均未违反,而是由人类认知水平确实无法达到的原因导致产品存在缺陷,进而导致严重危害社会的实害结果发生时,才可以阻却设计和制造者的责任。另外,刑法不应仅立足于防控人工智能的风险,也应当以更好地推动人类社会进步为出发点适度地保障科技创新。为了避免刑法过度遏制人工智能技术创新,在对于存在过失的设计和制造者追究刑事责任时,应当以发生实害结果为前提,而不应该对一切在人类认知空白领域,或者虽不符合相关标准但是也未被证明其产品确会导致严重损害结果的设计和制造行为绝对禁止。

2.人工智能产品使用者的刑事责任当人工智能产品在运行过程中导致了具有严重社会危害性的结果发生时,依据人工智能产品的使用者所扮演的角色,在对其分配刑事责任时应当有不同的方式。当使用者是人工智能犯罪的被害人时,由于其使用行为并未对自身法益之外的其他法益造成破坏,不需承担刑事责任。另外,对于使用者作为被害人存在过错而减轻设计和制造者刑事责任情形的认定,不应过于宽泛,而应该将被害人未采取预防措施的情形予以排除。如果将未采取有效的防范措施作为被害人过错,则意味着设计和制造者所研发的人工智能产品缺陷越大,被害人未采取与之匹配的有效防范措施的可能性越大,那么被害人存在过错的可能性则越大,设计和制造者刑事责任降低的可能性越大,这显然是一种悖论。当使用者将用于实施犯罪活动的人工智能产品按照其设定的用途来使用,或者将非用于实施犯罪活动的人工智能产品事实上用于实施犯罪活动时,使用者明知其使用人工智能产品的行为具有法益侵害性仍然希望或者放任这一结果的发生,明显违背了国家鼓励人工智能发展的初衷,应当对其故意犯罪追究刑事责任。当人工智能产品因存在当前人类认知水平下难以发现的技术缺陷而导致实害结果发生时,其使用者是否因存在过失而被追究刑事责任,应当依据使用者与人工智能之间的互动关系进行判断。当使用者基于对人工智能技术的信赖,按照人工智能产品的使用规则,让人工智能产品独立完成某一任务而非与之一同完成时,不应认为使用者存在过失进而追究其刑事责任。风险社会下,“以怀疑或保留的态度为基础,对技术知识的尊重通常与对抽象体系所持有的实用态度并存”,①但是不得不承认,非专业人士对专家系统这一抽象体系建立起普遍信赖是风险社会的基本特征之一。因此,如果对作为非专业人士的人工智能产品使用者设立过高的注意义务,无疑是与风险社会下专业化发展趋势不符合的,违背了“法律不强人所难”的基本原则。但是,如果按照人工智能产品的使用规则,使用者与人工智能产品共同完成某项任务时引发了具有严重社会危害性的实害结果,那么使用者便应当在自身注意义务的范围内承担刑事责任。例如,自动驾驶汽车有不同的实现阶段,当加速、控制方向盘、刹车等操作中有一个、数个或全部由系统掌控,但驾驶员仍应当承担不同程度的驾驶任务时,此时的自动驾车系统分别可称为“安全驾驶支援系统”和“准自动驾驶系统”。②在上述尚未实现驾驶任务完全不需要驾驶员承担的情况下,将注意义务完全分配给自动驾驶汽车的设计和制造者并不合理。驾驶员如果有违反法律法规、职业伦理以及合同承诺等为其提出的注意义务,单独或者与自动驾驶汽车的故障、缺陷等共同作用导致交通事故的发生,那么驾驶员作为人工智能产品的使用者也应在其注意义务范围内承担相应的刑事责任。

四、结语

智慧社会的建设以人工智能的发展为核心,而人工智能的发展如果缺少法律的规制,将可能误入严重威胁人类生存安全的歧途。刑法作为人类安全的最后保障法,在对人工智能的发展进行法律规制时绝不能缺位。事实上,人工智能的出现和发展正是人类进入风险社会的一个重要表现,面对人工智能所隐藏的犯罪风险,刑法应当以应对风险社会新型风险的思路,以安全保障为首要价值选择,同时兼顾创新保障,积极进行合理而有效的应对。包括刑法学界在内的整个法学界,对于人工智能的法律规制问题研究尚处于起步阶段,在现在已有的研究成果中,将人工智能拟制为法律主体甚至犯罪主体的观点不在少数。但是,这一立场的支持者并未认清人工智能并不存在独立于人类的权利和价值,亦未准确把握人工智能在善恶观、伦理观层面的认知水平与人类存在的本质差异,轻率地将人工智能拟制为犯罪主体将进一步加剧风险社会中“有组织的不负责任”现象,不利于从源头上控制不合理的风险。以防控风险为出发点,同时避免过度遏制人工智能技术创新,在排除了人工智能本身本拟制为犯罪主体的前提下,在对相关主体进行刑事责任分配时,应当注意区分不同的情形,以契合风险社会下社会发展的现状和需求。在对人工智能产品的设计和制造者分配刑事责任时,应当以其研发的人工智能产品是否以用于实施犯罪活动为基本功能作为区分标准,判断设计和制造者的罪过形式以及在何种情形下负有注意义务。在对人工智能产品的使用者分配刑事责任时,则应从其在人工智能产品引发具有社会危害性结果过程中所扮演的角色,对其罪过形式、何种情形下负有注意义务以及其行为对设计和制造者刑事责任的影响等进行判断。

作者:叶良芳;马路瑶