
這個評判表明,生產自動駕駛汽車的Uber公司無責,但是其監控這輛車的司機瓦斯奎茲可能要負責,因為在事故發生前,瓦斯奎茲一直在用手機觀看電視節目。警方稱該事故“完全可以避免”。
自動駕駛汽車和公司沒有責任,這首先表明,自動駕駛的技術還不成熟,還需要人類司機來監控,也意味著以人工智能的自動駕駛來代替人類在技術上還很不成熟,同時也給人們造成困惑,首先是在技術和責任上的混淆。
盡管Uber公司的這輛車只是L4,但是,這個級別指的是真正意義上的完全自動駕駛,駕駛者可以有,也可以沒有,但需要在特定的場景下實現自動駕駛。不過,這并不意味著這個級別的自動駕駛車不會出事,一旦出事,車上有駕駛員的話,也意味著駕駛員要負責。
即便是到了L5級,實現完全自動駕駛,而且在任何環境下都可以運營,也并不保證自動駕駛汽車不會出事故,只是出事故的比率會大大降低,因而會更安全。因為,智能駕駛的反應會比人類駕駛員更快,也因此會減少更多的交通事故。即便如此,自動駕駛汽車也還是會出事故。如果出了事故,到底由誰來負責?
對此,需要立法先行,而在立法上面,自動駕駛汽車同樣受到人類倫理的太多限制。現在調查的結果是,2018年3月發生事故時,Uber的涉事車輛的自動駕駛系統在撞人前發現了受害者,但因為計算機系統設置的問題,計算機控制模式下車輛無法自動啟用緊急剎車,剎車的責任交給了安全駕駛員負責。從這個角度看,監控的司機瓦斯奎茲當然應該為這起事故負責。
但是,如果是L5的全自動駕駛,而且自動駕駛軟件發現了行人,系統也啟動了剎車,但由于剎車發生故障,無法讓車輛停住,這時這輛車的兩邊也都有大量人群,那么,自動駕駛系統是選擇繼續前行撞到前方行人呢,還是拐彎撞向旁邊的人群,這實際上就是電車倫理的翻版。
在負法律責任之前,牽涉的是自動駕駛汽車設計的倫理難題。這個問題在不同的國家和地區,有著不同的倫理觀或者倫理偏好,因此,如果非要設計這樣的自動駕駛軟件的話,可能在不同的國家有不同的軟件。
研究人員發現,全球不同國家的倫理偏好既有共性,也有差異。共性是:保護人類的生命,而非其他動物的生命;拯救多人的生命,而非少數人;保護年輕人的生命,而非老年人。差異是,在東亞一些國家,人們偏向保護老人而非保護年輕人。此外,在保護對象的倫理偏好上,全球的順序是:嬰兒、女孩、男孩、懷孕婦女、男性醫生、女性醫生、女性運動員、女性高管、男性運動員、男性高管、胖女人、胖男人、無家可歸者、老男人、老女人、狗、罪犯、貓。
這也意味著,如果按這樣的倫理偏好設計自動駕駛軟件,以應對電車難題的選擇,也不可能不引起爭議。而且,這樣的倫理偏好和技術設計能否結合起來,發生事故也許是一瞬間的事,人來不及反應,同樣機器和智能軟件也來不及反應,也就無法選擇汽車撞向哪一邊。
更重要的是,當發生事故后,法律責任是否就要按這樣的倫理偏好來依次判決或減輕。當然,前提是,誰來負法律責任,是廠商還是智能軟件的設計者?
盡管特斯拉CEO埃隆·馬斯克(Elon Musk)預計,到2019年年底其公司將可擁有運營無人駕駛汽車所需要的全部技術,但是,倫理和法律問題如果不能解決,自動駕駛汽車還是不能上路。