從拆除福島核電站到檢查北海的水下能源基礎設施,機器人車輛已在危險環境中工作了數十年。目前,從船舶到雜貨配送,自動駕駛車輛已從研究中心平穩地過度至現實社會中,且幾乎無紕漏。
然而,無人駕駛汽車的發展并仍停留在測試階段。2018年Uber自動駕駛測試汽車就導致了一位行人喪生。盡管這類事件在非自動駕駛中經常發生,但公眾對于無人駕駛汽車的安全標準要求較高,即使僅發生一次事故,也會認為無人駕駛汽車不夠安全,不應該投放于公共道路。
因此,設計一輛始終能做出最安全決策的完美無人駕駛汽車是一項非常艱巨的技術任務。與在嚴格控制的環境中推出的其他自動駕駛車輛不同,無人駕駛汽車需在超長且不可預測的道路網絡中運行,從而快速處理大量復雜變量,以確保安全。
受交通法規的啟發,研究人員正在制定一套規則,以幫助無人駕駛汽車在各種可能的情況下做出最安全的決策。為了使可信賴的無人駕駛汽車安全上路,研究人員對以上規則進行了驗證,而這也是必須克服的最終障礙。
阿西莫夫第一定律
科幻小說家Isaac Asimov于1942年提出了“機器人三定律”。第一個也是最重要的定律是:“機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。”若無人駕駛汽車傷害人類,則顯然違反了第一定律。
英國國家機器人中心(National Robotarium)正開展一項研究以確保無人駕駛汽車始終遵守上述定律。這一保證將為各種嚴重安全問題提供解決方案,而這些問題正是阻礙無人駕駛汽車在全球普及的主要原因。
人工智能軟件實際上非常擅長學習新場景。通過使用從人腦布局獲得靈感的“神經網絡”,此類軟件可以識別數據中的模式,如車輛和行人的運動軌跡,隨后在新場景中提取這些模式。
但我們仍需證明,無人駕駛汽車所學的所有安全規定可以應用于新場景中。為此,我們可以采用形式驗證,即計算機科學家用來證明規則在所有情況下均有效的方法。
例如在數學中,無需測試x和y的每個可能值,可以證明x + y等于y + x。形式驗證下,不必詳盡測試在公共道路上可能發生的所有情況,即可證明AI軟件是如何應對不同場景的。
近期在該領域取得的成就之一是AI系統的驗證,即使用神經網絡避免自動駕駛飛機間的碰撞。研究人員已成功使用形式驗證方法證明該系統將始終響應正確,且不會考慮所涉飛機的水平和垂直操作。
交通法規
為確保所有道路使用者的安全,人類駕駛員會學習并遵循交通法規,并在實際情況中正確使用。我們也可以使無人駕駛汽車學習這些法規,因此我們需要拆解法規中的具體要求,幫助車輛的神經網絡理解并遵循每一條法規,隨后驗證他們在所有情況下是否能安全遵守這些法規。
但是,在檢查交通法規中的“絕不能”一詞的后果時,驗證無人駕駛汽車是否安全遵守這些規則變得非常復雜。為使無人駕駛汽車在所有場景中都能像人類一樣反應靈敏,必須對這些法規進行編程,并考慮到細微差別、加權風險以及偶發事件。在上述情況下,不同法規會發生直接沖突,要求車輛忽略一條或多條法規。
該任務不僅僅需要程序員,還需要律師、安全專家、系統工程師和政策制定者共同完成。在新成立的AISEC項目中,研究小組正設計一種工具以促進跨學科合作,從而推動無人駕駛汽車的道德和法律標準的建立。
完善無人駕駛汽車是一個動態過程,取決于法律、文化和技術專家在不同時期對完美的定義。AISEC工具正是基于此想法構建,可提供“任務控制面板”(mission control panel),監測、補充并改變無人駕駛汽車最成功的法規,隨后提供給汽車行業。
研究人員希望在2024年前交付AISEC工具的第一個實驗原型,但仍需創建自適應驗證方法來解決當前安全問題,這可能需要數年時間才能構建并嵌入到自動駕駛汽車中。
自動駕駛汽車事故新聞總會成為頭條。在實驗室里,如果無人駕駛汽車可以識別行人,并能夠在99%的情況下及時停車,這類成就非常值得慶祝,但在真實生活中,它可能是一臺殺人機器。而通過為無人駕駛汽車制定可靠且可驗證的安全規則,可消除那1%的事故率。