據說,自動駕駛汽車能使我們更加安全,因為人類是最危險的駕駛者。……當不可避免的事故即將發生,自動駕駛汽車應該做出怎樣的選擇?為了讓傷亡最小化,它應該犧牲車裡的乘客,還是盡全力保護他們?
人類駕駛的「道德困境」
假設你是車主,有另外一位「人類司機」幫你開車;在碰到同樣的狀況時,這位司機會面臨怎麼樣的「道德」問題、該如何做出符合「道德」的決定?
或者說,如果你搭的是真人駕駛的公車,在碰到相同的問題時,該如何瞬間做出決定?
無論做出什麼樣的決定,最後負責的人是誰?
如果是人類駕駛,會有「是否可以殺死自己的主人」的道德困境嗎?
這個命題與其說是「道德困境」,不如說是強迫讀者認為這是個道德困境的文字遊戲。如果把題目改寫成「在緊急狀況下,(人類)司機是否有權做出可能讓雇主(或路人)受傷的決定?」,可能意思就更清楚了。
如果是後者,您一定會問:「什麼是緊急?什麼是傷害?司機有多少授權?司機需要負責嗎?」等等問題。是的,狀況太複雜,並不是我們可以隔空抓藥、或者只有是與否兩個答案的問題。
機器與人的差異:機器不能負責、但必須有人負責
技術上來說,兩者之間唯一的差異,在於設計自動駕駛車輛的科學家,通常不會在事故現場;除非事故鑑定之後發現是設計上的明顯瑕疵,否則通常也不必對事故結果。
以「殺死10個人,或是犧牲車主自己」這個極度簡化、車主不是自己開車、而且沒有第三個選擇的假設而言,如果是由人類司機開車,只要司機自己沒死,無論做哪個決定,都必須面對道德和法律的責難。
但顯然自動駕駛汽車這部機器,是不必、也無法負責的。
至於科學家,只要不是明顯的設計瑕疵(以下都使用這個假設),因為路況瞬息萬變、難以預測,有太多的正當理由可以不必對結果負責。
而且放心好了,每一家做自動駕駛汽車的公司一定都會準備好滴水不漏的免責條款、以及「在緊急時必須由車主自行人力操控(override)並做出決定」的聲明和行車機制。
(你的電腦因為Excel當掉而損失數十億,電腦公司、硬碟或記憶體製造商、還有微軟也不會賠償你的損失吧。XD)
車主仍然有責任
事實上,除非在理論上完美的情況下(例如車子在禁止行人進入的軌道上行駛、配備自動煞車和偵測功能、並且有行車控制中心監管──基本上就是捷運了),汽車公司也有必要制定這樣的自我保護條款、以及緊急時由車主強制接手並負責的機制。
這樣的機制並不全是為了保護汽車公司、也不全是為了保護車主,而是為了保護在自動駕駛功能「威脅」之下的用路人。
如果不是這樣,這整個產業可能遲早會因為幾次嚴重意外事故而遭到重新檢討、甚至一蹶不振。
也就是說,用「讓10個路人還是車主傷亡」這個單一假設狀況來討論,並不能看見自動駕駛問題的全貌、而且也絕對不是道德問題;而是在不完美的路況下,同樣也不可能完美的自動駕駛運算機制該如何做決定。
而既然兩者都不完美,那麼人類是否值得把自己的生命交付給它?
創造適合自動駕駛的環境
與其用虛幻的、而且可能沒有結果的「道德困境」去詰責自動駕駛汽車,還不如思考如何創造一個適合自動駕駛的道路架構。
如果現今的路況不完美、自動駕駛機制也難以完美,至少得先從其中之一開始吧?
或者把鏡頭拉近一點來看,在這個極度簡化的假設下,最後的結果無論是什麼,究竟誰能、誰會負責?
恐怕是車主本身,無論死活。
補註
這篇文章在Facebook上有一些後續討論,歡迎參閱。