去年3月18日在美國亞利桑那州坦佩市發(fā)生了一起比較嚴(yán)重的車禍?zhǔn)鹿剩谶@起事故中,Uber的一輛自動(dòng)駕駛汽車撞上了一名行人,并致其死亡。發(fā)生事故的車輛屬Uber公司新研發(fā)的正處于測試階段的無人駕駛汽車,一時(shí)間,無人駕駛汽車的公共安全與法律責(zé)任問題備受關(guān)注。
近日,針對這起撞車事故,美國檢方宣布涉事汽車所屬的Uber公司對該事故不承擔(dān)刑事責(zé)任。該事故作為全球首例自動(dòng)駕駛汽車致人死亡的案件,不得不讓人們對人工智能時(shí)代的到來增添了新的疑慮。
這個(gè)案件中,生產(chǎn)自動(dòng)駕駛汽車的Uber公司之所以無責(zé),是因?yàn)橛善涔狙邪l(fā)、設(shè)計(jì)的自動(dòng)駕駛系統(tǒng)在撞人前已發(fā)現(xiàn)受害者,但因系統(tǒng)設(shè)置的原因,在該計(jì)算機(jī)控制模式下車輛無法自動(dòng)開啟緊急剎車,剎車的控制權(quán)由隨行的安全駕駛員享有。所以,監(jiān)控這輛車的司機(jī)可能要為此次事故買單,因?yàn)樵谑鹿拾l(fā)生前,司機(jī)一直在用手機(jī)觀看電視節(jié)目,如果駕駛員克盡審慎義務(wù),該事故“完全可以避免”。但問題是,讓司機(jī)擔(dān)責(zé),司機(jī)會(huì)不會(huì)感到冤枉呢?因?yàn)檫@是“無人駕駛”的汽車,他的責(zé)任至少不同于日常的普通汽車吧,否則還叫什么“無人駕駛”。所以,對“無人駕駛”汽車的司機(jī)追究交通肇事犯罪的刑事責(zé)任就必然受到了阻力。
隨著人工智能化的進(jìn)一步發(fā)展,自動(dòng)駕駛技術(shù)的終極目標(biāo)是徹底取消駕駛員的位置,以期做到完全性的無人駕駛。到那時(shí),如果產(chǎn)生類似今天的交通事故,法律又將如何追責(zé)?
無人駕駛技術(shù)必然會(huì)要求人工智能在適當(dāng)時(shí)刻超出設(shè)計(jì)和編制的程序規(guī)范并做出決策,以處理瞬息多變的交通狀況,這就使其具備了與人相似的辨認(rèn)和控制能力,也就可能造成一定的法益侵害結(jié)果,因而依然存在刑事追責(zé)的可能性。
然而,人工智能所做出的行為,主要屬于技術(shù)而非法律、道德范疇。單純從刑事責(zé)任產(chǎn)生的依據(jù)和目的來看,人工智能難以成為刑事責(zé)任主體。譬如,道義責(zé)任論認(rèn)為法律人格的必備要件是意志自由,如果犯罪主體不具有意志自由,不具備人腦的認(rèn)識(shí)和意志功能,對交通法規(guī)等規(guī)范并不能完全理解,那么無法在道義層面上對其予以譴責(zé),刑罰手段對其就毫無意義,更沒有教育感化的可能。
另外,刑罰的種類主要包括人身刑與財(cái)產(chǎn)刑。對于智能機(jī)器人來說,因?yàn)椴淮嬖趯?shí)體和生命,人身刑對其并沒有什么影響;而且智能機(jī)器人不同于自然人或單位,不需要也不享有財(cái)產(chǎn)權(quán),財(cái)產(chǎn)刑也無法適用。
不過,隨著人工智能不斷升級(jí)發(fā)達(dá),人工智能終究會(huì)具備類似于人類的辨認(rèn)、控制能力,而辨認(rèn)、控制能力與犯罪故意、過失的產(chǎn)生息息相關(guān)。故意由認(rèn)識(shí)因素和意志因素組成,在認(rèn)識(shí)上要明知自己的行為必然或者可能會(huì)產(chǎn)生危害社會(huì)的結(jié)果,“可能會(huì)”在自動(dòng)駕駛技術(shù)中是常常會(huì)遇到的情境。在意志因素方面,人工智能攝像、捕捉系統(tǒng)能夠識(shí)別駕駛過程所面臨的危險(xiǎn),而且能夠通過方案推演模型做出相應(yīng)的決策,如果人工智能已經(jīng)認(rèn)識(shí)到自己的行為會(huì)產(chǎn)生危害結(jié)果,仍然選擇做出操作,就構(gòu)成了刑法上要求的“希望”或者“放任”的心態(tài),也就產(chǎn)生了相應(yīng)的“故意”和“過失”。
比如,人工智能自動(dòng)駕駛車輛到分岔路口,發(fā)現(xiàn)近路上有一群人,如果為了準(zhǔn)時(shí)將乘客送達(dá)目的地而選擇撞上人群,就屬于直接故意;如果認(rèn)識(shí)到可能撞上人群,依然選擇走近路,就構(gòu)成間接故意。又如,人工智能自動(dòng)駕駛車輛到路口,因?yàn)樘幚碜R(shí)別紅綠燈等其他數(shù)據(jù)而忽略到闖紅燈的行人,則屬于疏忽大意的過失;如果智能機(jī)器人已經(jīng)預(yù)測到可能會(huì)撞到行人,但通過一般性計(jì)算,相信自己不會(huì)撞到,而實(shí)際上發(fā)生了撞傷行人的后果,就屬于過于自信的過失。
但即使人工智能具備了類似刑法規(guī)定的責(zé)任條件,如何處罰“自動(dòng)駕駛”的犯罪主體,恐怕還是離不開人類自身這一主體。
針對可能出現(xiàn)的自動(dòng)駕駛肇事帶來的法律責(zé)任問題,追究設(shè)計(jì)者、監(jiān)管者或者使用者的責(zé)任更為現(xiàn)實(shí)。不可否認(rèn),人工智能可以替代越來越多人類實(shí)行的操作行為,在一定程度上就可擁有獨(dú)立的法律人格,如果因最初設(shè)計(jì)缺陷引發(fā)交通事故,造成了嚴(yán)重危害社會(huì)的結(jié)果,就應(yīng)當(dāng)追究設(shè)計(jì)者的責(zé)任;如果是管理或者使用者監(jiān)管失職或者操作使用不當(dāng),則要追究監(jiān)管者或者使用者的責(zé)任。不過,相關(guān)的罪名和責(zé)任形式可能需要進(jìn)行新的補(bǔ)充修改和完善。
我們不妨再做一點(diǎn)想象,如果機(jī)器人時(shí)代發(fā)展到了機(jī)器人與人類共同在大街馬路上行走,到那時(shí),法律和規(guī)則恐怕就要人類與機(jī)器人共同制定修改了。刑法也必將邁入“科幻”時(shí)代,交通與犯罪問題也勢必會(huì)發(fā)生巨大的改變。(作者系同濟(jì)大學(xué)法學(xué)教授)