微軟(Microsoft)和麻省理工學院(MIT)合作開發(fā)了一個項目,旨在修復導致無人駕駛汽車出錯的所謂虛擬“盲點”。道路,尤其是與人類司機共享的道路,是不可預測的地方。訓練自動駕駛汽車適應(yīng)各種可能的情況是一項艱巨的任務(wù)。
微軟(Microsoft)和麻省理工學院(MIT)開發(fā)的人工智能,將人類在給定場景下的行為與無人駕駛汽車自身的人工智能進行了比較。當人類的決策更優(yōu)時,車輛的行為會根據(jù)未來類似的情況進行更新。
報告作者Ramya Ramakrishnan表示:

這個模型幫助自主系統(tǒng)更好地了解他們不知道的東西。
很多時候,當這些系統(tǒng)被部署時,他們經(jīng)過訓練的模擬與現(xiàn)實環(huán)境不匹配,他們可能會犯錯誤,比如發(fā)生事故。 我們的想法是用人類以一種安全的方式,在模擬和現(xiàn)實世界之間架起一座橋梁,這樣我們就可以減少一些錯誤。 例如,如果一輛緊急車輛正在接近,那么人類駕駛員應(yīng)該知道,如果安全的話,應(yīng)該讓他們通過。這些情況會因環(huán)境而變得復雜。
在鄉(xiāng)村公路上,讓車輛通過可能意味著要擠到草地上。你,或者說緊急服務(wù)部門,最不希望看到的就是無人駕駛汽車在所有的鄉(xiāng)村道路上都行駛相同的路線,然后突然轉(zhuǎn)向懸崖邊緣。
人類既可以在現(xiàn)實世界中“展示”正確的方法,也可以在汽車的行為不正確的情況下,坐在駕駛座上進行“糾正”。一份情況清單連同其行為是否被認為是可接受或不可接受的標簽一起匯編。
研究人員已經(jīng)確保無人駕駛汽車AI不會認為自己的行為是百分之百安全的,即使到目前為止的結(jié)果是這樣。使用Dawid-Skene機器學習算法,人工智能使用概率計算來發(fā)現(xiàn)模式,并確定某樣東西是否真的安全,或者仍然存在出錯的可能性。
我們還沒有達到可以部署這項技術(shù)的階段。到目前為止,科學家們只在視頻游戲中對其進行了測試。然而,它提供了很多承諾,幫助確保無人駕駛汽車的人工智能有一天能夠安全應(yīng)對所有情況。