
一、無人駕駛車輛如何理解道路交通?
美國斯坦福大學計算機科學系終身教授、Google Cloud首席科學家李飛飛在TED上有一期演講,名為《如何教計算機理解圖片》(How we are teaching computers to understand picutres),其中介紹了計算機理解圖片的方式,其實這也是無人駕駛車輛“看懂”道路和交通的一種方式。
1、算法是關鍵
人工智能深度學習技術的大致做法是這樣的:計算機通過對標注過的照片的大量學習來大致了解每種物體的含義及其彼此之間的關系。那么,為什么要有1千萬公里里程數和1萬輛投放數這樣的指標呢?因為這與訓練機器理解需要的場景數量有關,達不到這樣的指標,就無法訓練出基本及格的機器。
然而,道路上的場景、關系要比照片豐富得多,車輛除了要理解,還要做決策,譬如,在行人眾多、缺乏控制的斑馬線前,駕駛人會在等待一段時間后慢慢往前推進,形成與行人的相互博弈,但無人駕駛車輛對這樣的博弈缺乏足夠的算法。在無序的環島也是如此,如果無人駕駛車輛缺乏足夠的博弈能力,會在原地長期等待,反而使得環島更為混亂。
算法是理解的關鍵,這是目前所有企業都面臨的瓶頸,企業間的差距也主要在算法上。
2、無人駕駛如何獲取信息?
算法和信息輸入有關,也就是算法獲取信息的方式。在信息獲取方式方面,輔助駕駛和自動駕駛有很大區別。輔助駕駛采用的是“視覺設備+深度學習”為主體的信息獲取方式,以較低投入獲取最大效益,但存在不精確和受環境約束大的缺點;自動駕駛采用“Lidar+自動駕駛地圖”為主,視覺輔助+深度學習輔助的方式來獲取高精度和全天候的信息,不過缺點是昂貴且難以維護。從搭載設備看,輔助駕駛車輛的信息獲得數量和能力要明顯弱于自動駕駛車輛。因此信息獲取設備是輔助駕駛車輛跨越L3到L4級之間鴻溝的制約因素,這個跨越過程將會異常艱難。
當然,許多公司推出的無人駕駛車輛雖然搭載了自動駕駛信息獲取設備,但只能做輔助駕駛的工作,這應該是算法不過關造成的。
二、無人駕駛車輛和網聯車等技術是什么關系?
和無人駕駛車輛一樣,網聯車(Connected Cars)、協同智能運輸系統(Cooperative Intelligent Transport Systems, C-ITS)和出行即服務(Mobility as a Service, MaaS)也在迅猛發展。媒體經常會混淆這些概念,以為是無人駕駛車輛的組成部分,其實這些技術并不相同,不僅建設主體不同,應用目的也不同。
不過,未來這些技術會密切結合在一起,從而改變整個運輸系統,甚至改變城市的運營方式。在此簡單介紹下它們之間的關系。
無論在哪級,無人駕駛車輛都存在盲區,這和人開車一樣。Lidar用鐳射光立體掃描周邊環境來形成實時地圖和360度全景立體的地圖,把障礙物一個不漏地放進自動駕駛地圖,這是比人類開車有優勢的地方,但是,和人眼一樣,鐳射光會被物體遮擋而看不見,從而形成盲區,比如,鐳射光看不見建筑物后的車輛和車輛背后的行人。
網聯車(Connected Cars)技術可以解決盲區問題。網聯車技術通過在路上設置的各種檢測設備,將“看到”的信息告訴途經道路車輛。如果安裝位置合適,可以“看到”路上所有的情況,一個不漏。無論人工駕駛還是自動駕駛的車輛,都可以用這些信息補足自己的盲區,判斷是否會碰到建筑物后的車輛或車輛背后的行人,做出合理決策。
協同智能運輸系統技術是將各種先進交通系統得到的交通數據整合的技術。協同就是跨平臺整理信息、分析數據,得出更全面的結論,譬如將信號燈數據、幾公里以外交通情況、道路施工情況、事故情況、周邊服務設施和服務能力等諸如此類的“超視距”、“超能力”(超能力指能預知前方是否會擁堵,靠交通控制系統來預測并告知自動駕駛車輛的能力)信息整合起來告知道路上的車輛。
這些工具在與無人駕駛車輛無縫銜接后,將使其看得更多、更遠,能力倍增。
三、無人駕駛車輛發展前景預計
雖然業內比較看好無人駕駛車輛的未來,但即便樂觀的觀察者也只能提出輔助駕駛的明確時間表,很難確定自動駕駛的時間表。真實道路上的場景過于豐富,使用者之間的意圖和關系很難用算法描述,且不同地區之間的文化背景和交通規則差異也很大,都成為了制約無人駕駛車輛發展的不利因素。
不過,即便未來并不那么確定,技術投入仍然是值得的,在自動駕駛技術發展過程中產生的各項成果足以讓事故一點點降下來,讓社會效率一點點升上去。這個過程本身就是一個偉大的過程。
我國目前正在大力推動由企業主導的無人駕駛車輛研發。只要經過實事求是的努力,這些國產無人駕駛車輛會很快從試驗場地走向現實道路,達到行駛1千萬公里里程數和同時運營1萬輛車的及格線。