吳景欽/自駕車撞死人,全都是AI的錯?

▲若自駕車發生車禍致人傷亡,刑事究責要針對駕駛座的自然人或程式設計者?(圖/視覺中國)

2018年3月18日晚上,美國亞利桑那州一輛Uber所屬的自動駕駛實驗車,撞到一位牽着腳踏車穿越馬路行人,成爲世界首起自駕車致人於死的案件。美國交通安全部經過一年半的調查後認爲,是因自駕車將行人判定爲未知物體,才造成如此的結果。如此的結論,除了顯示自駕車必須要有更精準技術,才能正式上路,以及人工智能倫理問題外(參考筆者着:吳景欽/怪製造商或程式設計者?無人肇事誰該負責),於法律政策上,也是該思考人工智慧的究責問題。

以這個事件來說,若要進行刑事究責,在法人無法成爲犯罪主體下,檢察官也無法對車輛擁有者,即Uber公司起訴,致使歸責對象轉向自駕車裡的安全人員。只是在自駕車的場合,位於駕駛座的自然人能介入操縱的可能性,因技術等級的差別而有所不同。尤其是目前處於實驗階段自動車,如一般所稱的「等級四」,基本上全由電腦操控,人力介入被限縮至極小的空間。甚至到了所謂「等級五」,所謂駕駛座已無方向盤,人力介入的可能就降爲零。也因此,若全針對位於駕駛座的自然人究責,也有違行爲責任原則。若果如此,究責對象就必然指向程式設計者。

只是就程式設計者來說,面對千變萬化與不可預測路況,能否將所有交通規則全數納入程式裡,這本身就是個很大的問題。尤其對於道德、倫理規範能否數位化成簡單的程式,恐讓人心生疑問。如以上述Uber肇事事件來說,自動駕駛車雖已偵測到前方有物體在移動,甚至已判定疑似爲行人,但不管是行人或者物品,此等穿越皆違反交通規則,若突然轉向,也會造成他人的傷害,致陷入極大的矛盾。

事實上,在自然人駕駛的場合,對於如此情況的選擇,並不可能有這麼仔細的思考,往往是直覺反應。但奇特的是,當人工智慧逐漸取代人類大腦時,由於是最純粹的理性思考,就得把這些複雜且可能相互矛盾的倫理規則灌輸到電腦裡。除非在可見的未來,人類能製造出擁有感性、直覺與價值判斷的人工智慧,否則,要將倫理規範數位化,將一直是個棘手的問題。

好文推薦

吳景欽/爲免心證污染 該禁止陪審員上Google嗎

吳景欽/【獄政案】受刑人基本權是人權特權

吳景欽/【司法調查之人民不滿職業法官】親近司法哪親近了

●吳景欽,真理大學法律系副教授刑事法研究中心主任、法稅改革聯盟發起人及超徵還財於民公投提案領銜人。以上言論代表本報立場