讓自動駕駛車注意路況、看懂交通號誌、偵測物件並為其分類、感知速度/軌跡以及其他車輛並不容易——更重要的是,它必須能自行在地圖上定位,才能確切地知道行車的目的地。
高度自動化的車輛在追蹤周遭環境時,必須依靠很多感測器,包括攝影機、雷達、超音波、GPS天線,以及利用光脈衝測距的光達(Lidar)元件。每一種感測器都有其優缺點。
安裝在車輛上的一系列感測器技術(來源:Yole Développement)
我們首先應弄清楚如何最有效地填補感測器固有的缺陷。第二步可能更為重要,即開發最佳策略,將不同的資料串流結合起來,使關鍵資訊不至於遺失。每一種感測器都以自身的畫面更新速率傳送資料已經是個問題,感測器融合就更複雜了——因為有些感測器提供原始資料,而其他感測器則提供自己的物件資料答案。
2017年,我們看到了感知技術方面的一連串進展。VSI Labs創辦人兼負責人Phil Magney表示:「感知是自動駕駛車(AV)軟體堆疊的一個主要領域,而且在這方面還有很多創新。」。
科技公司、一級供應商和OEM一直汲汲於取得自家公司缺乏或無法自主開發的感測器技術。同時,過去兩年來已經出現了多家感知感測器新創業公司,其中有許多都關注尚處於萌芽階段的自動駕駛車市場。
英特爾收購Mobileye
2017年汽車業界最大的收購交易是英特爾(Intel)以153億美元買下Mobileye。
由於Mobileye已經在自動駕駛輔助系統(ADAS)和自動駕駛車的汽車視覺領域佔據明顯的領先地位,收購Mobileye之舉使得英特爾在自動駕駛車競賽中穩居有利地位。
尤其是考慮到視覺是自動駕駛車中唯一不可或缺的感測器技術,這項收購案顯得更重要。英特爾表示打算將Mobileye的「電腦視覺、感測、融合、地圖建構和駕駛策略」與英特爾的「開放運算平台」相結合。
Magney將攝影機形容為「必備的感測器」,他解釋說,具有以高解析度擷取影像的能力,才能讓攝影機更有效地分類物件。現在的攝影機還支援彩色顯示。那麼弱點呢?Magney補充說:「攝影機的深度不如光達。」
光達:「最熱門的領域」
在所有的感測器技術中,光達是2017年交易量最大的市場。IHS Markit的汽車電子和半導體資深分析師Akhilesh Kona例舉去年的收購案,如福特(Ford)收購了Princeton Lightwave、通用汽車(General Motors;GM)收購光達公司Strobe,以及Continental買下Advanced Scientific Concepts (ASC)的光達業務。
Magney則稱光達「仍然是最熱門的領域」,部份原因是光達在自動駕駛中有相當多用途。他解釋,「高度自動化的車輛需要一個具有定位資產的基本地圖,對此沒有任何東西能夠取代光達。這是高階產品得以競爭之處。」
光達市場之所以如此熱門也由於新的雷射技術出現。據Kona表示,一種波長高於1,400nm的新雷射發射技術正興起中。這種新的波長可望為光達帶來更高解析度和更遠射程。他補充說,Princeton Lightwave、Continental 和Luminar Technologies三家公司都在開發這種新的雷射技術。
不同類型的光達技術比較(來源:IHS Markit)
同時,供應商也透過開發各種光束控制技術,不斷改善光達的耐用性、尺寸和成本。這些技術既有機械式也有MEMS和固態光達。
據Magney介紹,機械式光達(如Velodyne 128通道的產品)由於能產生360度點雲,非常適合建構地圖。但是,對於部署量產車輛,基於固態元件——MEMS或光相位矩陣(OPA)的光達非常較適合,它們也可以在其視野內產生點雲。
成本更低的快閃(flash)元件也開始崛起。Magney指出,有些被設計成近接偵測器,且成本低於100美元,但缺點是解析度有限,無法對物件進行分類。
毫米波雷達
當光達大步前進時,雷達也並未停下腳步。繼恩智浦半導體(NXP Semiconductors)在2016年首次推出採用CMOS製程技術的77GHz微型雷達晶片後,德州儀器(Texas Instruments;TI)也在去年進軍毫米波(mmWave)雷達市場。該公司宣稱如今擁有最小尺寸的CMOS感測器產品組合。
TI汽車毫米波雷達感測器整合RF與類比功能以及數位控制於單一晶片中(來源:TI)
在雷達市場,競爭的重點在於尺寸和精確度。TI如今宣稱可支援「小於4cm測距解析度的高精度獨立感測技術」。
Magney表示:「我們對雷達的進展感到滿意。毫米波雷達正熱。」他評論道:「雷達的解析度越來越高,現在已能用於分類物體,這是以前做不到的。」
然而,更好的解析度需要更多通道,這意味著有更多資料需要處理。所以,Magney說:「毫米波雷達需要有專門的處理器來處理這些資料,以及產生物件或點雲。」此外,毫米波雷達還需要開發工具以打造應用。否則,龐大的資料難以被理解。
雷達除了能全天候運作外,其他的評價一向不優。傳統的車用雷達無法看到攝影機或光達所能看到的物體。更具體地說,雷達看不到遠方的物體,也無法區別所看到的東西。它們的處理速度不足以達到行駛於高速公路的要求。
類比波束成形
2017年1月成立的新創公司Metawave期望透過其開發的類比波束成形技術來改變現況。
Metawave採用PARC將超材料、雷達和天線商業化的獨家授權,在今年的CES展上推出該公司「完整雷達套件」的原型。該公司的超材料是佈署在PCB上的小型軟體控制工程結構。這些結構據稱能以特殊的方式控制電磁波束,這在以前通常只有在更大尺寸、更強大和成本更高的軍用系統中才能實現。
Metawave的類比雷達技術基於電子可控天線,使用一根雙埠的天線:其中一個埠連接到Tx或Rx鏈路,另一個埠連接到MCU。MCU透過查找表(LUT)定義和控制天線的波束寬度和方向,從而使Metawave的類比雷達實現微秒級速度的掃描(來源:Metawave)
Metawave的雷達套件型相容於各種雷達晶片。該公司宣稱其基於超材料的類比波束成形技術能精確地控制雷達波束,在不犧牲解析度的情況下提升工作速度和SNR。
機器用成像資料
儘管Mobileye目前仍是汽車視覺領域的領導廠商,Magney認為其他公司也正迎頭趕上。他說:「任何人都可以獲得相同的成像器,打造適合於影像辨識的攝影機。但問題是你需要適用的處理器以及緊密整合的演算法。」
然而,「如今你可以從幾家晶片公司中選擇一款高性能視覺處理器,並套用自家的演算法。或者,你可以用卷積神經網路(CNN)來完成這項任務。」Magney總結道:「目前,自動駕駛車製造商已經在攝影機方面作了選擇。許多公司會將人工智慧(AI)應用於影像中以取得結果。」
然後是總部位於巴黎的新創公司Chronocam。該公司的感測器技術並非針對人類應用,而是為機器感知和檢測而打造的。Chronocam這款以事件為導向的感測器技術還很新,尚未用於任何商用車,但已經受到業界關注了;該公司並期望該技術能徹底改變當今CMOS影像感測器市場。例如,雷諾集團(Groupe Renault)於2016年底與Chronocam達成了策略發展協議。
正如Chronocam執行長所指,英特爾、輝達(Nvidia)等GPU/CPU巨擘仍在試著找出更準確、更快速處理大量資料的最佳方式。然而,Chronocam專注的是為機器應用簡化和量身打造的成像資料擷取。事件導向的感測器目標在於顯著減少資料負載,使車輛幾乎可以做出即時決策。
定位
讓汽車具有「自我意識」的第一步是建構地圖,並即時匹配至車輛在預先製作的地圖上看到的內容。然後,車輛可以對其位置進行三角測量和定位。Magney強調:「車子必須確切知道要去哪裡,才能發展出『情境感知』。」
換句話說,如果希望高度自動化的車輛能準確定位,就需要使用光達。Magney指出,它們需要一個具有定位功能的基本地圖。
不過,還有其他方法可以做到這一點。例如Nvidia DriveWorks SDK可實現基於影像的定位。DriveWorks工具庫包括地圖定位、HD地圖介面以及自我運動(egomotion)等。
即時動態定位(RTK)是另一種選擇,Magney補充說。RTK可增強來自全球導航衛星系統(如GPS、GLONASS、Galileo和北斗)的位置資料精確度。Magney說:「在一般情況下可能運氣不錯,但在城市地區,由於RTK需要高度依賴衛星,可能無法有效發揮作用。」
同時,英特爾/Mobileye正推廣其用於定位的道路體驗管理(REM)技術。Mobileye希望利用基於攝影機的ADAS系統普遍性,發揮群體力量即時建立並維護一個精確的環境地圖。
新創企業在定位方面也有發揮的空間。據悉,DeepMap正致力於L4/L5級自動駕駛車解決HD地圖建構和定位以及大數據管理方面的挑戰。Magney指出,DeepMap使用攝影機影像和光達資料,有效地改善了目前的數位地圖。他補充說,該公司計畫推出的是一項服務,而不只是一款產品。
感測器融合
隨著自動駕駛車收集到所有的感測資料,最重要的就是感測器融合的品質。感測器融合的結果決定了自動駕駛車的決策和行為,也即安全問題。
自動駕駛車無法僅靠一個感測器實現安全駕駛,因此必須進行感測器融合。但Magney補充說:「因為你必須同步所有的感測器訊號,所以融合是很困難的。」
至於是融合「物件」資料還是「原始」資料,業界對此的爭論才剛剛開始,目前還沒有明確的答案。
相較於物件資料,由於原始資料不會在轉換過程中發生遺失,大多數的AI擁護者較支持這種資料融合途徑,Magney表示。但他補充說,與原始資料融合有關的問題包括:「你將需要大量的處理;你還需要有GB級的網路,才能將這些訊號傳送到整個車輛中。」
新創公司DeepScale開發了一種感知技術,能採集原始資料,而非物件資料,而且可以在嵌入式處理器上加速感測器融合。DeepScale現正利用其深度神經網路(DNN)從頭開始做起——所使用的原始資料不僅來自影像感測器,還包括雷達和光達。
DeepScale開發可用於早期感測器融合的深度神經網路(來源:DeepSacle)
(參考原文:The Outlook for Robocar Sensors in 2018,by Junko Yoshida)
留言列表