IJCA2019協(xié)調(diào)ADAS新方法:隨機(jī)對抗性模仿學(xué)習(xí)
2019年5月13日,國際人工智能聯(lián)合會議(IJCAI)2019發(fā)布了一篇題為Randomized Adversarial Imitation Learning的論文。該文介紹了一種基于自動駕駛的隨機(jī)對抗性模仿學(xué)習(xí)(Randomized Adversarial Imitation Learning,RAIL)。該方法模擬了配備先進(jìn)傳感器的自動駕駛汽車的協(xié)調(diào)過程,通過自由派生優(yōu)化決策系統(tǒng)進(jìn)而協(xié)調(diào)諸如智能巡航控制(SCC)和車道保持(LKS)等ADAS功能。值得一提的是,該方法在復(fù)雜的多車道高速公路和多智能體環(huán)境下,可以處理激光雷達(dá)數(shù)據(jù)并進(jìn)行決策。
在多車道高速公路環(huán)境中,安全事故往往會導(dǎo)致道路擁堵或發(fā)生更嚴(yán)重的交通事故,F(xiàn)代自動駕駛中呈現(xiàn)的各種ADAS功能具有高度的相互依賴性,需要將其看成一個單一的綜合體,需要在保證安全的同時,形成長期有效的輔助策略顯得尤為重要。本文介紹了一種基于自動駕駛的隨機(jī)對抗性模仿學(xué)習(xí)(Randomized Adversarial Imitation Learning,RAIL)。該方法模擬了配備先進(jìn)傳感器的自動駕駛汽車的協(xié)調(diào)過程,通過自由派生優(yōu)化決策系統(tǒng)進(jìn)而協(xié)調(diào)諸如智能巡航控制(SCC)和車道保持(LKS)等ADAS功能。值得一提的是,該方法在復(fù)雜的多車道高速公路和多智能體環(huán)境下,可以處理激光雷達(dá)數(shù)據(jù)并進(jìn)行決策。
基于自動駕駛的隨機(jī)對抗性模仿學(xué)習(xí)(RAIL)法表明,在政策參數(shù)空間內(nèi)的隨機(jī)搜索可以適用于自動駕駛政策的模仿學(xué)習(xí)。具體貢獻(xiàn)如下:
(1) 自駕駛機(jī)制是在模仿學(xué)習(xí)的啟發(fā)下提出的,RAIL方法可以成功地模擬專業(yè)駕駛表現(xiàn);相應(yīng)的靜態(tài)和線性策略可以以相近的速度完成多次換道和超車。
(2) 傳統(tǒng)的模擬學(xué)習(xí)方法對自動駕駛的控制結(jié)構(gòu)復(fù)雜。相比而言,RAIL方法是基于無派生的隨機(jī)搜索,該方法更加簡單。
(3) RAIL方法開創(chuàng)了應(yīng)用于自主駕駛魯棒駕駛策略的學(xué)習(xí)先河。
圖1 車輛控制系統(tǒng)的簡化學(xué)習(xí)層次
先來看一下傳統(tǒng)的自動駕駛汽車的系統(tǒng)層次結(jié)構(gòu)(如圖1),底層的ADAS控制器直接連接到無人駕駛汽車的激光雷達(dá)傳感器。控制器確定控制車輛所需的信息,并將已經(jīng)決策好的操作傳遞給機(jī)械部件。作為一個單一的集成系統(tǒng),最好有多個ADAS功能同時協(xié)作來控制車輛的系統(tǒng)運(yùn)行。
研究動機(jī):在多車道高速公路等有限條件下,主系統(tǒng)通過協(xié)調(diào)ADAS功能,實現(xiàn)汽車的自動駕駛。由于車輛本身與周圍其他車輛、車道或者環(huán)境相互作用、互相交互,通過攝像頭或雷達(dá)等監(jiān)視器,主系統(tǒng)并不能獲取車輛周圍完整的環(huán)境狀態(tài),只能使用部分局部可見信息。因此,RAIL方法首先將監(jiān)測代理器建模為一個(O,A,T,R, γ)數(shù)組,該數(shù)組表示一個部分可見的馬爾可夫決策過程,其中包含對自動駕駛的連續(xù)觀察和動作,還有激光雷達(dá)數(shù)據(jù)的部分觀測狀態(tài),用O表示。
狀態(tài)空間:RAIL使用激光雷達(dá)傳感器發(fā)射的N條光束均勻地分布在視場上[wmin,wmax]獲取的數(shù)據(jù)完成矢量觀測。每個傳感器數(shù)據(jù)有最大范圍rmax,傳感器返回它遇到的第一個障礙物與車輛之間的距離,如果沒有檢測到障礙物,則返回rmax。然后,數(shù)值表示為O=(O1,…, ON)。進(jìn)而,根據(jù)距離數(shù)據(jù),可以計算出障礙物與車輛之間的相對速度Vr = (V1,…VN)。
操作空間:該策略是一個高層次的決策者,通過對高速公路的觀察來確定最優(yōu)的行動。假設(shè)自動駕駛汽車?yán)昧薃DAS功能,因此,驅(qū)動策略的操作激活了每個ADAS功能。驅(qū)動策略定義在離散的動作空間。高層次決策可以分解為以下5個步驟:(1)保持當(dāng)前狀態(tài);(2)加速速度為velcur+velacc;(3)減速速度為velcur-veldec;(4)左轉(zhuǎn);(5)右轉(zhuǎn)。以上操作通過自動緊急制動(AEB)和自適應(yīng)巡航控制(ACC)完成。
圖2 RAIL結(jié)構(gòu)
RAIL主要是是增強(qiáng)傳統(tǒng)的ARS和GAIL算法。RAIL旨在培訓(xùn)駕駛決策,模仿專業(yè)司機(jī)的規(guī)范操作。汽車被認(rèn)為是一個代理策略πθ,在多車道高速公路上,車輛收集數(shù)據(jù)后生成小值隨機(jī)噪聲矩陣。該代理根據(jù)生成的噪聲策略與環(huán)境進(jìn)行多次交互,并將結(jié)果收集為樣本軌跡。
最小二乘損失函數(shù)(3)對決策邊界兩側(cè)遠(yuǎn)離標(biāo)準(zhǔn)軌跡的采樣軌跡進(jìn)行懲罰。
該方法可以用公式(4)表示。
公式(5)表示對抗模仿學(xué)習(xí)與隨機(jī)對抗模仿學(xué)習(xí)RAIL的隨機(jī)參數(shù)空間搜索之間的關(guān)系。
圖3中實驗的目的是為了展示樣品的效率。為了評估效率,實驗考慮了平均車速、換道次數(shù)、超車次數(shù)、縱向獎勵和橫向獎勵,如圖3和圖4所示。
由表1可以看出,兩層政策的平均車速和平均超車統(tǒng)計量最高,分別為70.38km/h和45.04。這是因為基于蓋爾的框架和基于與環(huán)境交互的策略優(yōu)化,經(jīng)過訓(xùn)練的策略有時可以獲得比專業(yè)人類駕駛員更高的性能。另一方面,單層策略的性能提高了90%。這是因為單層不足以正確處理高維觀測。上述,BC試圖將專業(yè)演示過程中的1步偏差誤差最小化。因此,由于訓(xùn)練和測試之間的分布不匹配,單層策略表現(xiàn)出不理想的性能。
在圖4中,使用縱向補(bǔ)償來分析環(huán)境補(bǔ)償。縱向補(bǔ)償與速度成正比;因此,歸一化結(jié)果與圖3a所示的平均速度相同。為了評估行動決策的敏感性,使用了橫向補(bǔ)償。在變道完成之前,車輛可以根據(jù)觀察改變決策。由于換道過程中橫向獎勵是連續(xù)發(fā)生的,因此在換道過程中頻繁的換道會導(dǎo)致?lián)Q道過程中獎勵的減少。在圖4b中,兩層策略在最后一種情況下獲得了較大的橫向獎勵。然而,兩層策略比專家策略顯示了更多的車道變化。這是因為兩層策略不太可能在操作期間更改決策。另一方面,單層策略比專家策略更能顯示頻繁的換道。因為單層策略經(jīng)常更改其決策,單層策略獲得最小的橫向補(bǔ)償。BC表示換道次數(shù)最少。然而,經(jīng)過培訓(xùn)的策略比RAIL培訓(xùn)的單層策略獲得了更大的回報。變道數(shù)量明顯小于單層策略;從而使訓(xùn)練后的策略比單層策略獲得更大的橫向回報。
通過圖3c的實驗,模擬專家論證,測量合適的決策。為了獲得與專家相似的超車次數(shù),仿真過程中的換道點(diǎn)和決策應(yīng)與專家相似。在圖3c中,兩層策略相比之下,顯示了預(yù)期的性能。此外,決策點(diǎn)和操作與專家相似。然而,單層策略比專家策略顯示的接管數(shù)量要少。這是因為平均速度較低,并且根據(jù)觀察做出了不合適的換道決定。
綜上所述,驗證了RAIL方法提高了平均速度,減少了不必要的變道次數(shù)。這就意味著RAIL方法政策方向是正確的。實驗結(jié)果表明,兩層策略取得了與駕駛專家相似的性能。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
圖片新聞
技術(shù)文庫
最新活動更多
推薦專題
- 1 小鵬首款增程車曝光,大空間SUV要搶理想地盤?
- 2 想買SUV的再等等,下半年即將亮相4款全新SUV,個個都看點(diǎn)十足!
- 3 更傳統(tǒng)的新勢力SUV來了!小鵬G7上市定檔,價格會有驚喜?
- 4 "尚界"登場:華為與上汽的這張新牌怎么打?
- 5 北京跑出未來獨(dú)角獸:做智能駕駛,份額全國第一
- 6 下半年高端電車又有五款新選擇,其中一款等到年底都不一定能提車
- 7 美洲車市 |巴西2025上半年:比亞迪銷售5萬臺,坐穩(wěn)前十
- 8 19.58萬起售的小鵬G7,能否給火爆的小米YU7“降降溫”?
- 9 新勢力6月戰(zhàn)報:誰在領(lǐng)跑?
- 10 寶馬即將開啟的新電氣化智能化產(chǎn)品戰(zhàn)略