4.1 發展趨勢
(1)智能網聯化
燈光控制模塊將作為整車網絡的一個節點,不再是孤立的燈具電子模塊,通過與整車總線互聯互通,大燈就有了自己的“思維”——只照亮該照亮的地方,燈具電子網聯化控制會成為一個發展趨勢。
a. ADB(Adaptive Driving Beam)
實時自適應照明,是智能燈光發展的一個階段,也是車用網聯化的一個成功應用。從照明來講,100像素以下的ADB足以實現車燈照明,每個像素均由單獨LED芯片精確控制0%-100%的光強,對不同交通情況、天氣狀況、道路路況、自身車況所需要的配光分布做出調整。當有其他車輛進入車燈的光分布區域時,模塊會有選擇性地動態掩蔽對方車輛所在區域以防止眩目。
b. DLP(Digital Light Procession)
數字高分辨光處理技術,能提供萬級以上,甚至百萬級像素,能清晰投影復雜的、帶有曲線的圖形,確保光順的截止線拐點,實現沒有鋸齒的截止線。DLP把光用到極致,在進行來車會車遮蔽的時候,確定需要遮蔽的區域以及滿足要求的最小遮蔽窗口,減少照明范圍的損失,適應未來有人/無人駕駛共同存在的環境。
在實現照明功能的同時,通過與攝像頭、導航以及雷達技術的融合,以投影的方式實現信息的傳遞,增強車與人之間的互動、汽車與其他道路使用者的溝通。為后續智能駕駛提供更加安全和便捷的夜間行駛“光服務”,增強多種場景的安全駕駛體驗。
(2)信息交互化
交互設計致力于為特定的汽車應用場景設計最優的解決方案。根據各個駕駛階段的有用信息,做出合理決策和操作,通過影像、圖形、聲音等手段,在友好的交互界面上體現信息將會是信息交互化發展的必然趨勢。以DLP為例,除了照亮該照亮的地方(高精度ADB遮蔽),甚至通過燈光給司機打信號,比如,交互信號有: 導航信息路面投射,限速提示,行人互動信息提示,行人位置跟蹤提示,行駛意圖信號投影,預測行駛區域提示等。信息交互化作為智能駕駛技術,將有效提高汽車駕乘的安全性,通過制造不同場景的交互方案,將用戶的產品體驗做到極致。
(3)用戶界面個性化
用戶界面是信息交互的表現途徑,是讓產品好用且使人愉悅的技術。用戶界面設計時,既要了解用戶在同產品交互時彼此的行為,又要了解用戶和他們的期望,用戶界面必須具有易用性和良好的用戶體驗性。在不影響安全、不違背法規的前提下,將來會有越來越多車型,開放用戶界面的部分設置功能,將個性化配置權限釋放給用戶,用戶通過本地或OTA方式更新個性化的配置。比如,交互信息的觸發使能、觸發條件、信息內容,個性化出行、音樂、智能停車、 電臺推薦等。
4.2 技術需求
作為汽車照明的技術領先者,華域視覺擁有清晰的戰略方向,建立了智能化模塊的開發能力和體系,儲備了前沿技術,可為客戶提供創新、先進的產品及解決方案。
(1)ADAS(Advanced Driver Assistant system)
a. 嵌入式系統研發能力
電子模塊開發離不開軟件,嵌入式系統開發的能力建設,是車用零件向電氣化、智能化、網聯化進化的必要條件。
因智能模塊的系統復雜性,需功能復雜的軟硬件系統來支撐。目前市面上,典型的硬件系統通常基于3類方案,Mobileye EyeQ3或EyeQ4系統,FPGA(Field - Programmable Gate Array) 系統以及GPU(Graphics Processing Unit) 系統。Mobileye系統是最早的感知識別系統,但方案封閉,OEM和Tier1客戶都無法實現個性化開發配置。因此,有較強開發實力和創新能力的Tier1和各初創公司都在積極探索FPGA方案或GPU方案,比較典型的,有MiniEye, 魔視智能,百度,華域視覺等。
圖 4.2 基于FPGA方案的硬件架構圖 , 軟件架構圖
軟件架構需具備跨平臺性,實時性,圖形化,視覺識別,可擴展性,安全性等。其對嵌入式系統的軟硬件架構提出了標準化需求,通過拆分硬件和軟件,創造出一種全新的模塊化軟件體系,為客戶提供一個具有高度動態性和靈活性的平臺,使研發人員專注于算法、模型等應用軟件的開發,利于需求確認、仿真分析、快速原型、HIL驗證,利于迭代改進,利于最終方案的快速凍結。
b. 機器視覺算法研發能力
用深度學習為機器視覺賦能,解決人類視覺的一個痛點:在黑暗或惡劣的天氣條件下,人類具有有限的視力和反應能力。
深度學習的優勢主要是自學習特征。深度學習如果有足夠多的樣本用于訓練,就能夠使系統的感知能力足夠高; 傳統的計算機視覺算法需要手工提取特征,很多時候還需專家知識、算法的魯棒性設計,非常困難,很難保證魯棒性,另外還需大量的調試、非常耗時。
深度學習一般包括四種類型的神經網絡層:輸入層、卷積層、池化層、輸出層。隨著網絡層和節點數的增加,可以表達更細、更多的識別目標特征,網絡結構層數越多,檢測精度越精確。
卷積層和池化層是深度學習的核心處理層。卷積層主要是用于負責物體特征的提取;池化層主要是負責采樣。
深度學習主要包括兩方面內容:一個是訓練,一個是檢測。訓練一般主要是離線進行,就是將采集到的樣本輸入到訓練的網絡中。訓練網絡進行前向輸出,再利用標定信息進行反饋,最后輸出模型,這個模型再導入到檢測的網絡中,檢測網絡就可以對輸入的視頻和圖像進行檢測和識別。
c. 通訊網絡——Ethernet, 5G等網絡技術應用開發能力
車內常見的總線包括LIN、CAN。隨著汽車電子爆發,ECU數量和運算能力需求都呈現爆發式增長,在ADAS時代和即將到來的無人駕駛時代將更加明顯。車載以太網可減少分布式ECU數量和運算資源的浪費,控制汽車電子系統成本增加。另一方面,車載以太網可滿足車載EMC要求,可減少車內連接成本和車內布線重量。再者,對帶寬的需求也是一個因素,各種傳感器,特別是激光雷達和高分辨率攝像頭,必須用車載以太網傳輸數據,保障信息可靠交付、減小數據包開銷、降低傳輸延時、實現時鐘校準。
5G是新一代的移動通訊技術,其更高的速率、更大的峰值帶寬、更短的時延、更高的可靠性,會成為萬物互聯的基礎架構,5G所帶來的影響將徹底重塑和改變世界。對于汽車行業,5G才能實現真正的車聯網。車上能用網絡隨身聽首歌或者刷個微博,只能勉強稱之為“車聯網”。真正的車聯網意味著車輛擁有V2X的通信能力,即實現車與人,車與車,車與路測設施,車與網絡的通信。意味著車不僅是一個個獨立的點,更是物聯網的一個節點。當人們開車上路時,因單車的局限性,雷達、攝像頭看不見、看不清、看不準,V2X通信能提供遠超出當前傳感器感知范圍的信息,本質上可以把V2X視為一個拉長拉遠的“傳感器”,通過和周邊車輛、道路、基礎設施的通訊,獲取比單車能得到的更多的信息,大大增強對周圍環境的感知。
d. 照明與顯示集成的模塊開發能力
面對未來趨勢,車燈的使命不再只是照明,而更像是一種顯示裝置,車燈將進化為照明和高分辨率顯示的結合體,需一種新型的光學模塊來實現。整套模塊的工作過程是,由光源照射在反射鏡,由其匯聚形成光斑,并成像于芯片表面工作區域內。芯片根據實際車載智能大燈的需求,打開或者關閉其上的各種可控像素,打開的像素可使得該像素上反射的光線進入后續投影透鏡組,而被芯片關閉的像素,將使得該像素上光線偏折,無法進入后續投影透鏡組。最終進入投影透鏡組的光線,形成照明像素,無法進入投影透鏡組的光線,形成暗像素,由此構成了智能大燈所需的明暗照明圖形。
因高分辨率的苛刻要求,模塊開發有很大難度,其難點如下:
1. 光驅設計,包含了照明光路設計和成像光路設計;
2. 光損控制,因光路長,需降低每個環節的光損失;
3. 裝配結構設計,光源、芯片、透鏡組、反射鏡以及透鏡組支架等零件所構成的光路總成,其裝配精度要求非常高,如“失之毫厘”,則將“差之千里”;
4. 散熱設計,考慮標準化、可復用性,需以最小的散熱體積,實現最佳的解熱性能,從而確保總成尺寸緊湊小巧,并滿足輕量化目標。
e. 智能駕駛的目標感知與信號融合技術
感知目標的類型,大致如下: 周邊物體:車輛、行人、道路上可能影響行駛的各種移動或靜止物體的識別,交通標志牌的識別。駕駛環境:路面狀況、道路交通擁堵情況、天氣情況的識別。行駛路徑:結構化道路的識別,包括道路信息(車道線、路肩、隔離帶等)、惡劣路況的識別;對于非結構化道路,包括車輛行駛前方的道路環境狀況的識別、可行駛區域的識別確認。
現有感知方法、原理和優缺點,大致如下:
融合感知所實現的功能要遠超這些獨立系統能夠實現的功能總和,能更加準確地感知周圍的環境。相對于獨立系統,這樣可以做出更好、更安全的決策。
使用不同的傳感器種類可以在某一種傳感器出現故障的環境條件下,額外提供一定冗余度。這種錯誤或故障可能是由自然原因(諸如一團濃霧)或是人為現象(例如對攝像頭或雷達的電子干擾或人為干擾)導致。即使在一個傳感器失效的情況下,這樣的傳感器融合系統也可以保持某些基本或緊急的功能。完全借助報警功能,或者讓駕駛員做好準備去接管對車輛的控制,系統故障也許就不那么嚴重了。
為了應對這種日益增長的復雜性,融合系統需要考慮如下方面:
多個傳感器的融合,比如多個雷達和攝像頭傳感器;可交換傳感器模型以適應不同傳感器供應商的選擇;能夠配置傳感器的數量和位置;可以實現不同的應用場景的駕駛環境模型。
與汽車內每個系統單獨執行各自的報警或控制功能不同,在一個融合系統中,最終采取哪種操作是由單個器件集中決定的。現在的關鍵問題就是在哪里完成數據處理,以及如何將傳感器的數據發送到中央電子控制單元(Electronic control unit, ECU)。當對不是集中在一起而是遍布車身的多個傳感器進行融合時,我們就需要專門考慮傳感器和中央融合ECU之間的連接和電纜。對于數據處理的位置也是如此,因為它也會影響整個系統的實現。
(2) 信息交互化
車燈信息交互系統需要明確場景定義以及相應的技術需求。
a. 場景定義及開發需求
導航信息路面投射功能
圖 4.4 投射功能
結合車載導航信息,在路面上直接投影出導航信息,直觀的引導駕駛員向目的地行駛,與HUD系統對比,在路面上投影顯得更加清晰和直觀,觀測范圍遠大于HUD,擺脫了EYE BOX觀察窗口的范圍限制,且路面上的投影是一個實像,圖形范圍大,直觀程度和駕駛員理解反應時間都優于HUD投影的虛像。
圖 4.5 限速示功能
集合車載攝像頭或車載數字地圖,識別當前行駛道路的限速,或其他交通提示信息,通過高亮或短暫閃爍的方式,將信息投射的路面上,起到警示駕駛員的目的。例如,駕駛員已經超速,可以通過路面上高亮、快速閃爍的限速標示牌,起到警示駕駛員立刻減速的目的。
圖 4.6 行人互動信息示
與行人互動的信息投影功能,可以提示行人車輛目前的意圖,例如在無交通信號指示的內部道路,車輛與希望過馬路的行人相遇,車輛可根據情況在路面上投影橫道線,或者更加直接的字母、符號等信息,提示行人可以過馬路。
在某些特定、但又比較常見的場合,行駛意圖信號投影功能是非常有意義的。例如車輛從兩邊有遮擋的道路進入十字路口時,傳統的轉向信號可能被遮擋,無法被其他車輛識別,因此通過燈光在路面上直接投影出高亮并且動態的特殊標示就可以解決這一問題。
圖 4.8 預測行駛區域示
將當前駕駛狀態下的預測行駛軌跡投影在路面上,直觀提醒駕駛員,即將碰觸的路面軌跡,同時也提醒其他道路參與者,如周圍行人,不要進入車輛將要經過的行駛區域。
b. 基于云<—>端的信息交互技術
隨著網聯技術的不斷深入,越來越多的汽車搭載無線通信模塊,汽車由端出發,通過網聯云,與其他車輛端、基礎設施端、手機端,進行人、車、基礎設施、互聯網的多方交互,幫助解決車輛掌握交通態勢等問題。
在未來,基于L5全工況駕駛的形式,將會以人工智能的直接控制,自主決策。通過云-端的信息交互,使用AI的手段,自行建立從駕駛環境到駕駛動作的映射,機動性與實時性俱佳。
(3)界面個性化
個性化界面需與目標用戶群體在預期使用情境下已有的經驗或思維模型相符,也能隨著客戶應用體驗迭代更新,可從以下幾點著手:
1. 了解目標用戶群體已有的經驗,并試圖讓界面與這些經驗相吻合,做到界面易理解;
2. 不僅通過語音或者觸控形式,也可與駕駛車輛交互系統做到多通道配合,讓界面個性而又自然。如體感、手勢、視覺等等;
3. 根據用戶偏好組合多種類界面元素;
4. 個性化界面需變得“透明”,用戶的注意力完全集中在所要從事的活動上,降低用戶在操作界面上的視覺停留,可使用戶更加專注路況;
5. 可通過本地或OTA技術(Over-The-Air technology)的方式進行個性化設置。