联系我们
- 地 址:大连市甘井子区姚北路26-18号
- 电 话:0411-39528856
-
联系人:132145745368
- Q Q:2605548552
- 网 址:www.klnwj.com
- 传 真:0411-39528856
- E-mail: info@klnwj.com
于润芝:人工智能自主决策介入结果发生的因果流程的刑事归责 苏州大学学报(法学版)202404
更新时间:2025-03-27 作者:米乐客户端
【来源】北宝法学期刊库《苏州大学学报(法学版)》2024年第4期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。
内容提要:当人工智能自主决策介入侵害结果发生的因果流程时,确立将结果归属于人的行为的判断机制、明确处罚范围,才是涉人工智能的刑法适用研究的应然问题域。愈发自主化的智能决策介入结果发生的因果流程,将会在事实认定和规范评价上引发故意犯和过失犯共通的归责难题。现有理论的应对或否定追溯至行为人的处罚,或前置化对行为人的处罚,其实是避开了对于算法侵害的事后规制。人工智能自主决策并非规范的介入事项,也不可能会成为刑事归责的绝对障碍。结果归属判断无需对算法模型进行全局解释,而是要事后查明行为与自主决策侵害间的“基本事实关联”,与政策层面的风险管控形成互动衔接。在具体判断中,应当事后确认相关主体的行为对于智能决策侵害的现实作用关联;当存在多方主体时,通过对行为之间关联性的判断以及原因竞合时各自作用力的评价来决定结果归属。
目次 一、问题的提出 二、人工智能自主决策导致的刑事归责困境及对策分析 三、人工智能自主决策介入刑事归责判断的障碍纾解及路径定位 四、人工智能自主决策介入刑事归责的判断机制:基于行为的作用力 五、结语
为了提升生活生产的效率与便利,应用人工智能的无人驾驶汽车、护理机器人、医疗智能诊断机器人、产业机器人等产品已经渗透到社会生活中,将判断委任于人工智能的场合逐渐增加。即使是弱人工智能,也能够最终靠学习建构出人类没办法理解的思考过程,更遑论能够从一个情境中获取的知识应用于其他情境的通用型人工智能。通用型人工智能通过自主学习适应多场景任务,其迭代发展形态趋势与深度融入现实的技术核心正是适应不一样境况进行自主决策的能力。然而,人工智能的自主决策能力在改变生活方式的同时也重塑了犯罪事实形态,不仅会因智能产品自身问题导致自主决策侵害行为,更为严峻的是犯罪分子会利用人工智能的深度学习和自主决策而提升犯罪能力。
近年来,刑法理论中关于人工智能的刑事法研究正在如火如荼地展开。但实际上,并非涉人工智能的所有风险都值得作为刑法解释学的研究对象,部分事实形态只是传统问题在AI应用新场景中的再现。AI产品作为机械设备的物理故障导致损害时,并未突破生产、销售不符合安全标准的产品罪构成要件的涵摄范围和保护法益的具体类型。部分刑法理论出现适用困境,也并非源于理论本身的构造,而是依赖于该新兴领域本身的发展水平。在无人驾驶领域判断驾驶者的归责时信赖原则的适用,就取决于自动驾驶技术发展到什么阶段,是不是已经研发出允许否定潜在驾驶者过失的驾驶系统。有学者指出:“像人工智能这样的研究热潮往往容易是暂时性的,不用等到所谓‘技术奇点’的到来,很可能数年间就会冷却下来,可以设想会在尚未形成共有的学术性讨论成果的状态下就结束了。”为了尽最大可能避免这样的结局,相关研究不应仅热衷于凭借新兴技术的话题展开理论性革新,如何在这场“热潮”中形成和保留具有延展性的成果才更重要。因此,应当明确并聚焦于AI产品的现实应用给刑法规制带来的线日,欧盟《人工智能法案》正式生效,其中关于人工智能的定义强调的就是自主性和推断性。其自主性带来非常大便利的同时,“也存在着人工智能的自律性判断将会产生人类无法预测的动作的危险性,由此导致损害发生的消极侧面。”例如2024年4月,一辆正运行完全无人驾驶(FSD)模式的特斯拉汽车在西雅图附近撞死一名摩托车手。直接引发损害的是无人驾驶系统运行的错误指令,对此,即使动用数据、计算机犯罪也无法全面评价传统法益的损害。因此,涉人工智能侵害的刑事规制真正面临的问题是,在面向人身、财产等传统法益侵害的因果流程中,“人工智能经过深度学习在正常运作的过程中基于自主意识的支配实施了侵害行为”,该如何评价结果归属?在发生传统法益的现实侵害结果时,如果不确立一般意义上的归责机制,很容易发生过大处罚或过小处罚的问题:若着眼于投放AI产品的流通行为,会产生过大处罚的危险;若着眼于算法决策的“黑箱性”导致危险源难以特定,会产生过小处罚的问题。涉人工智能侵害的刑事归责机制的确立是促进人工智能技术发展的重要动力,因为如果在什么场合处罚是不明确的,公权力的规制介入也是不明确的,就会导致人工智能开发行为的萎缩。
本文首先明确人工智能自主决策的介入对于刑法归责造成了什么样的难题,并对现有应对方式的根本考虑展开分析;其次,从解释学中结果归属原理出发对于人工智能自主决策的介入引发的归责障碍进行实质评价,并确立涉人工智能侵害的结果归属应当遵循的基本路径;最后,结合涉人工智能技术的事实领域的固有特点,围绕相关责任主体的行为与智能决策导致侵害之间的关联性展开结果归属的具体判断。
人工智能的自主决策能力取决于技术发展的程度,现有理论在涉及这一问题时习惯于区分弱AI和强人工智能。由于强AI已经具备了独立意识,“对强智能机器人超出设计和编制程序范围实施的严重危害社会行为的定性,实际上与对强智能机器人刑事责任主体地位的讨论殊途同归。”如此一来,强人工智能的归责问题实际上被刑事责任主体地位的讨论所替代。与之相对,“在弱人工智能的时代景象下,人工智能主体虽然借助模拟算法能够在诸多方面获得与人类相似的控制能力,但其仍然是在人类先期技术框架设定内进行的模拟运算。”据此,涉弱人工智能侵害的归责被认为不存在特殊问题。
人工智能的社会价值在于脱离人的操控自主地完成各项社会任务和适应任何社会情境,人工智能的“脱工具化”以及人与侵害行为“分离化”的现象将会愈发显著。“智能化工具实施危害行为的原始发动力的确是人类提供的,但是整个算法循环运作过程却无人类直接参与。”例如,即使为无人驾驶汽车的生产和销售设计了严密的安全标准,只要开放了自主学习的功能,也不能完全防控其在应对特殊路况时产生的安全风险。再如,生成式人工智能依托于巨大规模参数的大规模预训练模型的智能化程度飞跃提升,研发者和使用者的自由意志不能决定生成的内容。于是,就有学者指出:“认为人工智能仅能作为工具和客体,通过穿透算法让开发者承担法律责任的制度设计可能在不久的将来遭遇问责挑战。”
随着大规模算法在深度学习中的广泛应用,试图以“工具性”来弱化人工智能的行为对于侵害流程的参与只能是掩耳盗铃,正面展开对涉人工智能侵害的结果归属机制的具体分析才是应然之举。在过失犯罪的认定中,即使可以认定设计者和制造者存在某种义务违反的行为,但若无法对自主决策的形成要因进行特定化,就不能认定该义务违反是能够为过失犯处罚奠定基础的注意义务违反。现有理论对此的讨论大多聚焦于过失犯的归责,同时认为AI产品致害问题并未给故意犯罪的归责理论带来冲击。但是,在行为人有意利用人工智能的故意犯罪中,若行为人的利用行为和侵害结果之间,介入了行为人没办法掌控的人工智能基于自主学习的自主决策,是否能归责就存在讨论的空间。尤其是当人工智能的自主决策突破了行为人意图侵害某一特定对象的指令时,在讨论错误论的问题之前,对于介入了人工智能自主决策而导致侵害结果发生的客观因果流程,能否肯定结果归属就存在疑问。因此,人工智能自主决策介入侵害流程引发的结果归属的困境,是故意犯和过失犯所共通的难题。
一般认为,人工智能自主决策介入侵害流程后,主要导致难以查清因果经过。“对于人工智能造成的损害而言,重点是确认具体的损害结果究竟需要归因于研发、供应、管理、使用的哪一个或哪几个环节。”然而,“AI深层学习技术使得在开发阶段的各个数据学习和编程行为对于实际场景中的AID(Artificial Intelligence Device,AI产品)的个别具体的信息处理和举动究竟施加什么影响,是没办法理解的(黑箱性)。”智能程度提升的反面是算法可解释性的减弱,在事后裁判中证明设计者、制造者、贩卖者、使用者中哪一个具体的输入行为与侵害结果之间有关联,并不是特别容易。于是出现所谓“归责间隙”,即客观上不存在可以归属结果的主体。
实际上,即使能查明人工智能自主决策在事实上的发生机制,能否肯定规范意义上的归责仍然需要讨论。即使多数学者还是倾向于现阶段否认人工智能具有刑事责任能力,也不得不承认,智能机器人的确能够最终靠深度学习形成自主意识和意志。还有学者指出,虽然人工智能体不符合犯罪主体的要件,但其却能实现侵害行为的有体性要件,可认定此侵害行为系人工智能机器人的犯罪行为。问题就在于,按照溯及禁止论,因果流程中存在第三人基于自律性决定的行为介入时,要否定对第一行为人的正犯性结果归属。溯及禁止论的基础原理是,只要因果流程中介入其他介入者的自律行为,就不能认为结果的发生是行为人的自律性主导的结果,或者说不能认为结果是在行为人的领域内发生,不应由行为人负第一次责任。当人工智能的自主决策导致侵害结果发生时,不论所介入的人工智能要不要承担刑事责任,都毋庸置疑行为人的行为与结果发生之间介入了一个基于自主性的举动。按照溯及禁止论,由此导致行为人实际上不再能实质掌控侵害结果发生的因果流程,因此就不能将结果发生归责于行为人。当行为人的先前行为是过失行为时,上述难题自不待言;即使行为人有意利用人工智能的自主决策造成损害,能否要求行为人对侵害结果承担既遂责任,也不无商酌的余地。
现有理论已经注意到人工智能自主决策的介入对于刑事归责体系的冲击,虽然大部分的讨论都限定在过失归责的语境下,但仍然从立法论或解释论的层面提出了应对方案。基本上可以概括为以下四种:
第一种,承认人工智能的刑事责任主体地位,主张从立法和制度上建构针对人工智能体本身的刑事处罚体系。人工智能刑事责任主体肯定论正是基于AI的自主决策能力。“在立法论层面构建适用于人工智能主体的罪状体系与刑罚措施,那么目前为学界所困扰的人工智能事故的过失归责难题就会迎刃而解。”刑法通过将调整对象由人的行为转向智能体的行为,直接回避了人的行为的因果流程中介入了智能体自主决策行为所导致的归责难题。难怪有学者指出:“人工智能主体化观点,实质上反映了理论在人工智能面前的无奈和妥协,跳过人工智能背后的数据问题、算法问题的刑法评价,意图通过直接赋予人工智能主体资格解决犯罪的评价问题。”
第二种,通过“允许危险”的法理否定在人工智能自主决策造成侵害的场合对人的归责。智能系统具有高度复杂的智能性和适应性,在特定场景中可能会作出难以预测的侵害性行为,在此意义上来说将AI系统置于现实社会应用的投放行为就是一种危险行为。但是,“生产社会伦理上可接受并且有益于社会的产品,即使其创设了可识别的风险,而且这种风险只有通过停止生产才能避免,那么制造商在生产过程中以及之后能够采取所有措施尽可能地减少这种风险,他们就不违反注意义务”。因此,只要行为人在设计、制造和使用人工智能的过程中没有违反相应的义务,人工智能自主决策的侵害可能性就是允许的危险,不能再追究相关责任主体的刑事责任,自动驾驶技术即如此。
第三种,在立法层面提倡对涉人工智能侵害采用危险犯甚至抽象危险犯的立法方式,从而回避对于实害结果的归属难题。相较于直接肯定人工智能体的刑事责任是直接阻断了对人的刑事归责,这种对策则是旨在积极肯定对人工智能背后的人的刑事处罚。比如希尔根多夫教授就指出,可以考虑对可自主造成损害的自动系统引入抽象或者具体危险犯,将损害结果的出现作为可罚性的客观前提。我国也有学者提出设置危险犯的必要性。之所以会主张将损害结果排除在犯罪成立要件之外,是考虑到非法利用人工智能行为的危险性高、损害后果分散等特点,也是由于人工智能的自主学习导致其运行机制难以被证明。
第四种,将人工智能犯罪的法益定位为“算法安全”,通过对法益内容的抽象化来消解实害因果流程的复杂化导致的归责难题。主张“算法安全”法益观的学者指出,人工智能犯罪的共同特征是“算法安全犯罪”,是危害公共安全的犯罪。算法安全的法益定位是将人工智能技术视为对公共安全造成威胁的社会风险。“如果行为人侵害了对法益的(无忧虑地)自由支配所必要的安全条件,那么,这便是抽象危险。”当法益内容是现实发生的人身、财产损害的实害结果时,由于自主性算法的介入,很难事后证立发展至结果的具体因果流程;但如果将构成要件结果定位为抽象化、秩序化的安全性法益损害,自然免于因果流程的事实性证明问题,这无异于将人工智能犯罪导向了抽象危险犯。
上述现有对策并非局限于刑法解释学的层面,而是从立法倾向、政策安排的角度对人工智能自主决策的风险规制进行建构,但在价值倾向上已经出现了对立。
第一种承认人工智能刑事责任主体地位的路径和第二种运用“允许危险”法理否定归责的路径,都是考虑到人工智能自主决策的侵害脱离人的支配领域,在否定追溯至自然人归责的方向上运作。“机器人作为‘自我答责’的第三人介入则适用于为机器背后的人类行为人开脱责任。”可是,这种路径无异于放弃了对于因果性地惹起结果发生的自然人进行特定化和归责的努力。退一步而言,即使认可人工智能的刑事责任主体的地位,仍然不能回避对于背后自然人的归责问题。同样,“允许危险”的法理虽然仍聚焦于对背后行为人的归责,但在危害结果现实发生后,一律以危险被允许的判断阻断归责可能性,也存在疑问。“允许危险”的法理将算法自主化导致的归责间隙予以事前的合理化,极大限制了对人的归责。
第三种主张危险犯立法的路径和第四种主张算法安全法益观的路径,是着眼于人工智能自主决策导致侵害发生的不可控制性和危害严重性,通过消解事后对事实因果流程的证明义务,前置化对于相关行为主体的处罚。危险犯的立法方式直接将具有危险性的人工智能投入行为认定为处罚的对象;算法安全法益观的路径将法益的内容进行抽象化,由此导致法益侵害与义务违反并无二致。可以说,算法安全的法益观与危险犯的立法模式都是将处罚根据和评价重点从侵害结果的发生转向了义务违反。
两种类型的对策虽然在处罚倾向上呈现出相反的价值取向,但实际上,适用“允许危险”法理的路径与主张危险犯立法模式的路径实质上都是将对人工智能侵害的处罚根据诉诸相关责任主体的义务违反,将考察重心转向了相关行为主体的行为是否符合事前设立的行为规范标准,从而避开了对于具体事实因果流程的事后证立。从立法与政策的层面来说,对于人工智能自主决策风险的事前规制是必要的。但是,从刑法适用的层面而言,当已经现实发生了人工智能自主决策导致的侵害结果时,如果仍然将归责的依据诉诸相关主体的行为对于事前标准的行为规范的偏离,基本上是适用了以“不允许的危险创设”与“不允许的危险实现”为判断架构的客观归责论。客观归责论讨论的不单是将结果归属于行为人的问题,而是对构成要件的归责,而行为无价值二元论认为构成要件的核心即在于事前标准的行为规范违反性。客观归责论自称是规范性的归责理论,其所宣称的“在因果主义的框架中无法理解的规范性思考”,实质上就是对于行为规范违反性的确认。但是,与其说这样的思考方式解决了人工智能自主决策介入侵害流程的归责困境,不如说是直接避开了对算法侵害的事后规制。即使人工智能运行中基于自主决策导致了侵害结果,也无需再对自主决策的算法机制与人的行为之间的互动关系进行事后考察,从而展开了与传统责任框架所不同的事前预防导向的判断。
在前行为的因果流程中出现了独立的介入事项直接导致结果发生时,便不能再将结果归属于前行为。一般而言,自律性行为的介入与前行为之间的关联性很难认定,这也是人工智能基于自主学习程序作出决策导致侵害发生时,将侵害结果归属于相关责任主体的行为存在障碍的重要原因。但是,人工智能的自主决策并非独立的介入事项,原则上也不会成为阻碍归责的绝对障碍。
人工智能自主决策的介入不能在规范意义上与人的行为的介入等同,至少在客观层面,仍然要将其定位为人的行为危险性的内在要素。有学者指出,当人利用人工智能机器人犯罪时,即便该机器人是自控型的,也可以用间接正犯的理论对具体人进行归责。但是,间接正犯的解释构造是将人工智能的行为视为规范意义上独立的被利用事项,这并不妥当。“因果关系论的机能是,在存在导致结果的复数条件的场合,判断现实发生的结果应该归属于哪里,是否能归属于实行行为。”因此,在存在介入事项的场合,实际上是在判断将结果归属于行为人的行为还是介入事项。但是,只有人的原因才是刑法的问题,而关于物的原因,即使明确其与结果之间具有因果性,也不可能唤起他行为的可能性,论证刑法上的因果关系是没有意义的。虽然人工智能的自主决策行为通常会独立于人的实际掌控,但是,其根本上仍然是按照程序设计者事先编制的、具有学习能力的程序而运行的。人工智能不具有自我意志和自我决定,无法对自己的行为作出应答。正如有学者所指出,人工智能体基于深度学习做出表现于外部世界的反应或举动难以认定为刑法中的“行为”。因此,不能将人工智能产品的举动在不和人类的自由意志相关联的形式下作为规范评价的对象。
退一步而言,即使将人工智能自主决策的介入等同于人的自律性行为的介入,也并非按照溯及禁止论的设想一概阻却对先前行为主体的归责。溯及禁止论也不得不承认存在例外的情形:“如果故意且有责的介入行为与实行行为密切相关,且实行行为阶段能预想到该介入的,对于这种例外情形,就不适用溯及禁止的设想。”自律性行为的介入不能成为否定对先前行为主体归责的决定性根据,因为“我们现在检讨的是行为人本身的责任问题,而不是检讨第三人责任的问题;而认可第三人的责任,并不当然就要阻却行为人的责任”。即使在遥远的未来,人工智能发展为具有类似于人的意识,在不同责任主体的主观意识之间也可以具备心理因果联系,互相影响着彼此的客观行为,仍然不能否认相关行为人对于人工智能的自主行为直接导致的结果承担责任的可能性。更何况,在当前人工智能的发展背景下,刑法规范所对应的现实领域尚且没有发生“质”的改变,规范调整直接作用的对象并非人工智能的自主决策程序本身,而是程序运作背后实际发挥影响力的人。因此,判断的重点并非在于人工智能的自主决策如何地自主化和智能化,而是应当追根溯源至相关责任主体的行为危险性,从而解明事实关联上的“人机关系”。
当运用客观归责论解决涉人工智能自主决策侵害的刑事归责问题时,相关责任主体的义务违反行为会成为考察重点。而确立行为的义务违反性,就是在事前判断行为是否创设了不被允许的危险。但是,“行为创造结果风险的属性与现实已经发生结果的具体因果流程没有任何关系。行为创造结果风险是对行为属性的判断,这种判断仅仅是一种类型上的抽象判断。”在一般预防目标下,只要相关主体的行为存在义务违反即可归责,未必能够建立起事前标准的行为规范违反与侵害后果之间的关联性。当然,事前的监管模式对于预防人工智能危害而言同样不可或缺。欧盟的《人工智能法案》根据人工智能的任务和适用领域划分不同的风险等级,建立起全覆盖式监管机制。但是,随着人工智能自主性和适应性的提高,人工智能对于现实世界的危害发生可能性以及发生方式更多是取决于终端用户的使用场景。预先在法律中假设人工智能的特定功能,并据此衡量风险和建立相应的应对机制,是难以实现的。因此,政策性层面的风险管控也要重视从事后视角锚定影响危害结果发生的具体因素,并据此展开针对性的规制措施。当人工智能的自主决策导致了现实的侵害结果时,就要根据刑法归责来实现一般预防。如此一来,只有在刑法的适用中强调事后解明算法机制的重要意义,才能与技术监管层面中算法透明的规制进路形成互动衔接。
值得注意的是,在事后判断人工智能自主决策导致侵害的因果流程时,一般预见可能性的标准就会失去效用。一般预见可能性和经验通常性是相当因果关系说中考察具体因果流程的绝对性标准。但是,“从该危险合乎规律地发展出来的各种具体因果流程,不论其能否为行为人事先所预见,都必然处于其可控制的范围之内,而绝不属于被责任原则严格排除于归责范围之外的偶然事件”。一般预见可能性标准考察因果流程时的缺陷,在人工智能自主决策侵害的归责领域更加被放大显现出来。既然连程序设计者、生产制造者对于人工智能自主决策的预见都变得越发困难,更难要求一般人(哪怕是技术领域的一般人)对于具体流程存在预见可能。正如有学者指出:“在以算法为纽带评价人工智能犯罪的归因问题时,算法中科技逻辑所形成的壁垒直接切断了以‘一般人经验’作为判断基准的可能性。”更何况,“个人的知识水平、理解能力以及在技术发展的不同阶段,所谓的‘相当性’的判断都会变得恣意。”一般预见可能性标准的失效并不代表归责的不可能,归责的评价原本就不需要满足这一事前标准,而是要事后个别地考察作为归责对象的行为与侵害结果发生之间的具体关联。因此,“对于人类与机器人和AI系统之间的合作,要在个案中详细地审查:机器如何参与决定的作出,人类的行为空间如何发挥作用。”
“基于深度学习而不断进化的AI的判断和举动机制逐渐黑箱化……判明个别的哪个开发行为成为侵害事故发生的原因是很困难的。”通用人工智能的发展离不开大数据、传感网、脑科学等技术,智能决策的作出并非仅依靠既有知识的逻辑推理,还基于庞大数据获取的经验,这也是“算法黑箱”产生的根本原因。基于此,有学者指出,通用人工智能的规制核心不在于“算法可释”,而是聚焦于使得特定主体在特定场景下对模型产生足够的信任。但是,即使说智能决策中包含了基于大数据的经验性内容,也并不代表决策的作出完全脱离了人的控制。“联结主义的人工神经网络在本质上还是基于数据方法的运算程序和统计工具,其核心原理是在大量数据的基础上,根据一定的特征、权重和概率来决定输出。”虽然人工智能系统具有合理程度的自我理解和自主的自我控制属性,但并非基于意识的高级智能。因此,当前人工智能的决策作出并不是基于类似于人的意愿的自主意识,仍然受到开发者、设计者、生产者、使用者等责任主体的行为影响,即使说算法机制的解明是困难的,也并非不可行。
实际上,因难以查明内部科学机制而导致的归责难题并非人工智能领域所特有。囿于科学技术发展和人类认知能力,人们往往难以完全解明特殊和新兴领域内侵害发生的微观机制。例如德国的“皮革喷雾剂案”,公司生产的皮革喷雾剂导致特定的消费者罹患肺水肿,但是无法查明喷雾剂中哪种特定的物质或者物质的组合能够导致肺水肿的病症。刑事审判庭仍然认为,“损害事件发生的原因只可能是,个别成分或该成分与其他物质的组合具有毒理学的作用机理,导致了病症的出现。这一事实认定足以用来肯定因果关联的存在。”在此,只要确认损害的发生确实是行为人的行为所导致的,即使无法具体解明其中科学法则意义上的发生机制,也能认定行为人的行为与损害发生之间的基本事实关联。有学者就指出:“即使没有解明具体的因果经过,只要能够明确该当行为导致了结果的发生,也可以肯定过失犯的成立。”
算法透明在技术上无法实现的论点站不住脚,有些模型本身就具有很好的内在透明性,有些模型虽然不具有内在透明性,但可以通过各种各样的事后透明方法得以弥补。算法的可解释性可以分为两种,一种是对模型的全局性解释,旨在实现算法本身及其整体运算逻辑的透明化;另一种是对输出结果的局部解释,旨在实现对输出结果具有针对性的个别化、具体化的解释。实际上,算法黑箱问题只是对于前者全局性解释的难以实现而言,而对于后者输出结果的局部解释而言,即使是黑箱算法模型,在技术领域内也存在事后解释的可能性。在进行刑法上的归属判断时,根本无须解明整个算法模型的运作机理,只需要事后查明特定侵害结果的发生与相关责任主体的行为之间的作用关系即可。人类有能力通过准备高质量数据、开放持续学习、建立伦理指南和监督机制引导人工智能作出合理、道德且可靠的决策。生成式人工智能经过自主学习会产生违法犯罪的内容,最大的原因还是在数据来源方面存在数据获取侵权、数据内容违法、吸收虚假信息三种风险。表面上人的行为并未直接控制人工智能作出自主决策,但实际上,在将增强学习算法(Reinforcement Learning)嵌入到应用程序源代码的过程中,相关责任主体的行为将会持续发挥作用。
现有理论中,允许危险的法理和客观归责论的路径都是以前置法领域的义务规范违反作为对人工智能侵害进行刑事归责的必要条件。不可否认的是,如果将来的刑事立法采用行政犯的方式来专门规定涉人工智能的过失犯或结果犯,对于侵害结果的归责对象就必须是以违反前置法规范为要素的行为。但当前阶段,人工智能产品作为新兴科技的社会应用,在生产使用和司法实务的认定中都尚未形成规范的注意义务标准。并且,人工智能侵害会涉及不同前置法领域的行为规范,既可能是生产、销售不符合安全标准的产品罪中产品的国家标准、行业标准,也可能是重大责任事故罪中生产、作业的安全管理规范,还会涉及医疗事故罪中的诊疗技术规范、交通肇事罪中的交通安全法规等等。还有学者指出,在无人驾驶领域的归责中,要“跳出交通肇事罪的构成要件,转向过失致人重伤、死亡罪”。“自然犯中利用人工智能手段杀人、放火、抢劫、盗窃、诈骗等行为类型,就不属于行政不法前置性立法规则所需要考虑的行为范围。”如果以特定前置法行为规范的违反作为归责的必要条件,当不存在此前置法规范违反时,还可能存在彼前置法规范违反;即使不存在任何明确的前置法规范违反,还有过失致人重伤、死亡等自然犯罪的适用余地。
以前置法行为规范为标准的“允许危险”法理,以允许这种危险发生的方式,在事后裁判中完成了本应前置性讨论的重要利益衡量。允许的危险是指,“如果仅由于某个行动是危险的就予以禁止,会严重损害社会有用性以及国民的行动自由,因此在一定范围内,只要社会有用性或者行动自由的利益凌驾于危险的害恶,就予以允许的考虑方法”。而严密且具体地衡量不同性质的事物是很困难的,最终还是会根据一般的社会价值基准进行评价。但是,这种考虑“包含了对‘生命价值’的计算,裁判所实质上在进行着对社会影响极大的政策性判断,根据裁判所本应具有的制度性能力和基础,这并不是妥当的解决”。有学者提出疑问:当人工智能机器人还只是例外存在时,其所产生的损害就只会是异常的风险。若将之作为允许的危险,对于没有利用人工智能机器的人类,只不过是强制地施加损害。还有学者对允许危险的适用结论表示怀疑,明确指出包括性地否定制造者的过失责任并不妥当。不论如何强调行为的社会有用性,允许危险的发生不代表可以允许法益侵害结果的发生。例如在自动驾驶领域,不能说交通领域便利和高效的利益相较于防止具有生命危险的事故更优越。“德国实证研究表明,在传统人类驾驶的车辆中,90%-95%的事故是由人类的错误行为引发;在自动驾驶时代,这一数据可能会发生反转,即事故是由机器、电脑、算法的错误引发。”但是“即使说比人驾驶的场合危险更低,但自动驾驶引发死伤事故本身是不可避免的。”“人驾驶导致事故引起的死伤,可以归属于人的责任,等于是说如果人合理驾驶的话就可以避免事故发生。与之相对,自动驾驶的应用导致的更少的死伤人数,却是‘伴随人工智能产品的实用化作为命运而必须接受的’。”因此,如果事前允许并且事后一律否认归责,无异于将这一部分必然会发生的生命牺牲当作了人工智能技术发展的手段而利用。
人工智能自主决策侵害的独有问题域在于算法、程序上的开发错误,这一危险性很多场合下直到运营中才能识别出来。当人工智能被投入运营后,相关主体就难以对算法决策的作出施加直接的支配和控制,但并不意味着不能认识到系统运行的风险。人工智能可信赖的关键要素之一,就是人的能动性和监督。“对于智能产品或智能机器人的潜在风险,设计者、操作者与所有者负有一定的监管义务,在法定条件下,需要承担刑事责任。”尤其对于开放型的人工智能系统(Open AI)而言,这类系统在训练阶段结束后还会在使用过程中继续学习,产品的设计者和生产者应当对于后续学习阶段的决策作出承担一定程度的监管义务。还有学者提出,为了确保投入市场后能切实履行监管义务,人工智能产品的生产者要在投入市场之前的阶段履行建立安全确保体制的事前整备义务。欧盟《人工智能法案》也规定,在设计开发阶段就应该开始建立和维护风险管理系统。开放持续学习的人工智能系统会在投入市场后根据外在环境的变化以及使用者的操作习惯而进行自主学习,无论事前的防范措施如何完善,都无法根除其自主决策导致侵害的可能性。因此,为了应对智能产品因自主学习导致侵害的危险流动性,事前有必要整备相应的制度性安排,从而在投入应用后可以迅速且合理地施展安全确保措施。
当人工智能产品投入社会应用之后,开发生产者要对AI产品的安全运行进行持续监管。首先,最重要的环节就是要适时地进行升级改造和信息收集。以往在传统的医药品或工业制品领域,对于赋予生产者在产品流通后的监督义务持较为慎重的态度。而对于搭载人工智能的产品而言,通过网络通信等信息技术的应用可以确实且容易地进行信息收集。基于人工智能自主学习导致侵害发生的危险不确定性,以及投入应用后持续监管义务履行的容易性,应当要求开发生产者持续监视人工智能产品整个生命周期内的运行,适时地进行升级改造,并且收集和分析关于可能发生侵害的安全性信息。其次,生产方还要履行警告义务和回收义务。虽然在人工智能产品的设计和生产阶段无法辨明潜在的决策危险,但一旦在投入使用后基于持续的监视义务的履行而发现了侵害可能性,或者已经现实发生了侵害事件,应当赋予负责开发、生产以及销售的行为主体警告义务和回收义务。最后,人工智能产品的提供者应当确保使用者明确产品的性能、功能、使用规则,从而防止因使用者操作不当而引发侵害的危险。另一方面,使用者对于人工智能自主决策的侵害也要承担监管和防止的义务。例如,ChatGPT用户是人工智能系统输出内容的控制者之一,理应对输出内容负有监督义务,并对其可能实施的严重危害社会的行为负有预见义务,尽其所能避免此类行为的产生。
算法决策在理性参与程度的评价上存在两个极端,一个极端是人类发出命令,算法线性地执行命令;另一个极端是人类放弃决策权,仅设定一个抽象功能,算法完全自治地实现这一功能。现实中的情形往往处于这两种极端的中间地带,重要的衡量标准就是人的行为对于智能决策的控制和支配程度。一般而言,开发者的程序设计错误、生产者的缺陷产品制造等,会使得人工智能从一开始就具备损害能力,直接导致运行中偏离目标设置发生侵害性事件。例如,在算法侵害中,算法开发者的数据结构选择、算法逻辑制定会成为直接影响力的来源;再如,程序设计者在设计程序架构时并未将机器人工学三原则事先写入,从而直接导致人工智能自主决策的侵害性;又如,由于“预见可能性的内容和程度与被科予的注意义务的内容是存在相关关系的”,如果相关行为主体从一开始就意识到人工智能因错误行为而具备了侵害性,产品的投放行为本身也可以被评价为侵害结果发生的直接危险来源。
然而,人工智能产品从设计、生产、流通再到实际应用会经历较为漫长的过程,最终的智能决策导致侵害发生时,相关行为主体的行为与结果发生之间的因果链条也会呈现出时间间隔久、作用机制复杂的特点。因此,在基于一定的事实前提赋予行为人安全确保义务的场合,结果的发生也必须在该事实前提的影响力范围之内。例如,日本著名的三菱汽车轮胎脱落事件中,日本最高裁判所认为,被告人所懈怠的召回义务是基于轮毂强度不足才产生的,如果事故的发生是由于使用者导致的轮胎磨损,则否定因果关系,只有当轮胎脱落是起因于轮毂强度不足时,才能肯定因果关系。据此,虽然要求对人工智能产品的召回义务,但当人工智能的自主决策导致侵害的原因并不包含在赋予其召回义务的事实基础的场合,即并非由于研发、生产行为导致自主决策具有侵害性,而是由于使用者的不当操作或第三人的恶意攻击,同样不能认定召回义务的违反与自主决策侵害之间的归属关系。
即使行为人在先前阶段最大限度地履行了安全确保义务,是否能绝对地避免侵害性自主决策的作出,在证明上是困难的。于是,合义务替代的判断中,有学者主张适用危险升高理论。危险升高理论的初衷是一般性地禁止会提升结果发生危险的行为,在无须百分之百地要求结果能够避免的意义上,缓和了对义务违反行为与结果发生之间关联性的证明要求。在人工智能自主决策侵害的事实领域中,涉及算法机制的因果关系证明对于算法可解释性的技术性要求很高,缓和证明要求的观点确实能避免归责的困难。但是,通过技术鉴定解明算法机制,确认行为与自主决策侵害的发生之间存在“基本的事实关联”,是将侵害结果归属于相关行为主体的必要前提。因此,对于专业的技术问题,如果技术领域无法查清与人的行为之间具有关联性,法律需要遵守“存疑有利于被告”原则。可以设想的是,由于黑箱算法运行机制的高度复杂,在很多场合中技术性鉴定结论往往只能是“概率性”的。对此,要区分“不确定性”的鉴定结论和“无法得出结论性意见”的鉴定结论。虽然司法希望鉴定结论是确定不疑的,但“科学技术只能给出不确定的答案”。“虽然‘不确定性’司法鉴定意见没有外在的‘确定性’,但不可否认它也是趋向于高概率的正确性。”因此,对于“不确定性”鉴定结论不能一概得出否定归责的结论,而是要结合鉴定的原理来判断其结论的可靠性。
人工智能在社会应用中导致侵害结果发生后,在结果归属中选取归责对象时,往往会追溯到复数行为主体的行为。仅算法编写这一个阶段,复杂算法的编写通常涉及算法工程师、数据科学家等多个不同背景和专业领域的人员。即使能够证实特定复数行为主体的行为与自主决策侵害之间具有事实关联,由于各个行为人之间不存在意思联络,如何在复数行为主体间分配结果发生的责任也成为问题。一般而言,可以将涉及人工智能侵害的行为主体分为两类,一类是生产者,包括算法设计、产品制造、销售供应等前端环节;另一类是使用者,即当人工智能实际投入应用后操作和管理的人员。
在复数行为主体参与的结果归属判断中,关键在于明晰各方主体的行为参与损害发生的具体作用机制。作为前端责任主体的生产者的行为是通过对产品性能、算法机制的影响参与侵害发生,作为后端责任主体的使用者的行为则是在人机交互的过程中对人工智能自主决策的行为产生影响。当现实结果发生时,前端与后端的复数责任主体的行为对于结果发生的作用力会存在多种组合形式,尤其是复数的作用力以不同的作用机制同时发生时,结果归属的判断会出现问题。对此,既需要建构多方主体施加的作用力之间的关联性判断,在互无关联的作用力发生竞合时,还需要对各自单独的作用力展开分析。
虽然人工智能的自主决策并非规范意义上的介入事项,当使用者的不当行为对算法决策产生影响时,相较于生产者的行为而言,使用者的行为就是独立的介入事项。判断对生产者的结果归属时,就需要评价生产者的行为与使用者的行为之间的关联性。先前行为与介入事项之间的关联性存在不同的类型,有学者区分行为人的行为施加了诱发介入事项影响的场合,与行为人的行为制造了触发结果状况的场合。结合人工智能自主决策导致损害发生的具体情境,可以区分以下三种情况:
第一种,生产者没有履行或者没有充分履行安全确保义务的行为,对于使用者的不当行为产生直接影响。例如,使用者遵照说明书的使用方法进行操作,但由于说明书存在错误,而导致人工智能的行为造成侵害。此时,使用者的错误操作行为是受到生产者提供错误说明书行为的直接心理影响,应当肯定二者之间存在关联。只要可以证明是生产者导致的程序错误、产品缺陷或者未正确履行告知义务使得使用者无法采取适当操作,甚至阻碍使用者采取适当操作时,即使侵害的发生是由于使用者的错误行为直接导致,也理应追究生产者的责任。
第二种,生产者没有履行安全确保义务的行为制造了更加容易发生使用者不当行为的具体状况。在过失竞合特别是管理过失中,判断安全体制确立义务违反和结果之间的因果关系时,经常会认定行为人设定的危险状况实现于结果。由于生产者对于人工智能的算法设计原理和算法运行机制的掌控度更高,理应在具体设计中考虑到使用者可能的不当操作会导致自主决策产生侵害的情形,并配置相应的警示措施。例如,医疗人工智能由于算法设计的缺陷而作出错误决策时,就是制造了一个危险的状况,此时如果医务人员采纳该决策的行为并无“严重不负责任”的情形,就要认为生产者的行为与医务人员的行为之间存在关联,应当追究生产者的责任。
第三种,使用者的不当行为处于生产者的监督管辖的范围之内,生产者怠于履行监管防控的义务,放任结果发生或者扩大,也要同时对侵害结果负责。考虑到推广人工智能技术的社会性目标是特定领域中使用效率的提升和对使用者的便利性,在刑法归责的讨论中形成了原则上由生产者负责的价值倾向和规范性安排。“人工智能越智能,使用者所承担的责任范围越小,而研发者与生产者的责任范围则相对扩张。”不断进行自主学习的人工智能产品就是一个不稳定的“危险源”,对该危险源起支配管理地位的生产者就要对此负责。正如张明楷教授指出:“虽然介入了被害人不适当或者异常的行为,但是,如果该异常行为属于被告人的管辖范围之内的行为,仍然能够将结果归属于被告人的行为。”例如在自动驾驶领域,生产者不仅要保证汽车交付时的算法安全,还要确保汽车交付后经过自主学习的算法安全。
人工智能的自主决策通常受到来自多方主体行为的直接影响,不论是准备了可能产生危害性的数据,还是未能建立起完善的模型,都会成为人工智能自主决策侵害的原因。传统刑法理论中“竞合性作用关系”最适宜描述人工智能自主决策侵害的因果流程:“第一个行为产生后,本身不足以造成危害结果,或者虽有这种实在可能性,但还不具有当时就出现这种结果的条件。相对独立因素介入后,在一个行为所造成的现实状态基础上,又加上积极的力量,从而与第一个行为的力量共同作用,协力促成危害结果的产生。”只要某一行为主体的义务违反行为对结果发生施加了现实影响力,即使同时还存在来源于其他行为主体的影响,也不会影响结果归属。在此意义上,即使各方行为主体均是过失犯罪,也无需确立生产者与使用者的“共同注意义务”,只需要各自作为过失的同时犯单独评价即可。
在“原因竞合”的场合,并非各方行为主体对错误算法决策的作出施加了任何影响都足以肯定结果归属。“如果不是共同犯罪,而是两个以上互无联系的行为人的危害行为共同造成一个危害结果,更应实事求是地分清原因的主次,恰如其分地区别对待。”在人工智能侵害的场景中,为何会出现原则上由生产者负责的价值倾向,也是因为一般而言生产者对于算法运行机制的支配力更强,因而对于侵害性自主决策的作用力也更为主要。“在智能驾驶与人的驾驶地位相互剥离过程中,技术的研发者与产品的设计者、甚至产品的运营者,对智能驾驶更负有实际的控制力和管理力。”还有学者认为,“算法控制不是刑法意义上的行为,研究对象只能是算法制造和使用行为。”使用者很难洞悉算法的运行机制,也无法掌控在各种应用情境中算法的决策倾向,其操作也更多是为了实现社会目的而不是影响算法。但这种价值倾向的评价并不是绝对的,以ChatGPT为代表的生成式人工智能的发展就存在扭转这种支配性局面的可能。生成式人工智能的服务提供者确实能在一定程度上控制和避免侵害性内容的生成,但生成内容的产生是用户与人工智能协同作用的结果。不仅如此,相较于上游端的研发者和服务提供者而言,终端用户“在与模型互动的过程中提供的数据和信息会‘反哺’模型,推动模型的进化甚至‘黑化’”。在此意义上,对于生成式人工智能所产生的侵害而言,在很多场合中用户的作用力显然更为主要。
当人工智能的自主决策介入传统法益侵害发生的因果流程时,会引发刑事归责的困境。对此,既不能通过一概赋予人工智能刑事责任主体地位来回避问题,也不能继续以人工智能的“工具性”来消解问题。在当前以及未来可现实性预估的发展阶段,人工智能自主决策介入侵害流程的事实领域并未发生质的变异,其虽然引发了理论性的难题,但不能颠覆已有的基本理论架构。对此,应当在纾解理论层面的难题的基础上,以相关责任主体的行为与人工智能的自主决策之间的现实作用关联为事实根据,结合AI产品的发展阶段、应用场景来合理评价结果归属。未来,通用人工智能将会代替人类进行高精度的认知、判断和操作,终将承继迄今为止人类社会的大部分任务。但是,智能化本身不会直接带来规范层面的变动,其直接作用的只能是社会生活事实。应对智能化时代的法律性调整和制度性变革也不能径行从人工智能的技术构造中推导出来,而是要通过人工智能的行为方式以及现实因果流程的样态来把握。因此,从应对方式上来说,与其任由技术发展改变法律内容,在既有的法律框架中回应新形态的生活事实,以新形态的事实领域反哺刑法解释学原理的完善,才是讨论的应然方向。
《苏州大学学报(法学版)》是经国家新闻出版广电总局批准,由江苏省教育厅主管;苏州大学主办,面向国内外公开出版发行的法学类学术期刊。本刊以秉承东吴法学优良传统为目标;以刊载高质量法学学术论文为宗旨,尊重知识,尊重学问,力争以鲜明的特色;优秀的作品为学界搭建法学研究新的高端平台。本刊目前为季刊,设置“本期聚焦”;“学术专论”;“域外译文”;“经典判例”;“东吴法学先贤文录”等栏目,立足当代中国,顾及全球法域,诚邀海内外法学名家及学界新秀不吝赐稿。
自建知识库是智能写作4.0的一大创新亮点,它赋予了用户构建个性化知识体系的能力。这一功能不仅支持单篇对话的存储,使得用户可以轻松回顾和整理过往的交流内容,而且通过向量检索技术,用户能够实现对知识库内容的高效检索。这意味着,无论您的知识库多么庞大,您都能够最终靠关键词或短语快速定位到所需信息,极大地提升了信息检索的准确性和便捷性。
划词检索法宝全库数据功能是智能写作4.0的另一项革命性创新。用户在阅读或编辑文档时,只需轻轻一划,选中的文本即可触发智能检索,系统会立即从法宝全库中检索出相关数据和信息。这一功能不仅极大地简化了信息查找的过程,而且通过实时更新的数据库,确保了检索结果的时效性和准确性,使得用户能够快速获取到最相关的资料和数据。
智能写作4.0的智能翻译功能,支持多达19种语言的互译,覆盖了全球大部分主要语言。这一功能不仅能够实现文本的即时翻译,而且通过先进的算法优化,确保了翻译的流畅性和准确性。无论您是需要将中文文档翻译成英文,还是需要将西班牙文翻译成法文,智能写作4.0都能为您提供准确、自然的翻译结果,让您的跨语言沟通和创作更加轻松。
智能写作4.0提供了6000+的文书模板,覆盖了法律、商务、教育等多个领域,满足不同用户的需求。这些模板由专业人士设计,确保了其专业性和实用性。此外,智能写作4.0还支持自建文书模板,用户都能够根据自己的需求和喜好,创建个性化的模板,这不仅提高了文书创作的效率,而且使得文书更具个性化和专业性。
智能写作4.0赋能司法案例检索报告功能,是法律专业人士的得力助手。它不仅仅可以检索到最新的司法案例,而且通过智能分析,为用户提供案例的详细报告,包括案件的基本情况、判决结果、争议焦点、法律依据等关键信息。这一功能不仅极大地提高了法律研究的效率,而且通过深入的案例分析,帮助用户更好地理解法律条文和司法实践,为法律实务工作提供了强有力的支持。
本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。