什麼是感測器融合?讓我們從“盲人摸象”講起!

今天,我們的生活高度依賴感測器。感測器作為人類“五感”的延伸,去感知這個世界,甚至可以觀察到我們人體感知不到的細節,這種能力也是未來智慧化社會所必須的。
不過,單個感測器的性能再卓越,在很多場景中還是無法滿足人們要求。比如汽車中雷達可以根據生成的點雲,判斷出前方有障礙物,但想準確得知這個障礙物是什麼,還需要車用攝影鏡頭幫忙“看”一眼;如果想感測這個物體的運動狀態,可能還需要毫米波雷達來助陣。
這個過程就好比我們熟悉的“盲人摸象”,每個感測器基於自己的特性和專長,只能看到被測物件的某一個方面的特徵,而只有將所有特徵資訊都綜合起來,才能夠形成更為完整而準確的洞察。這種將多個感測器整合在一起來使用的方法,就是所謂的“感測器融合”。
合而為一
對於感測器融合,一個比較嚴謹的定義是:利用電腦技術將來自多感測器或多源的資訊和資料,在一定的準則下加以自動分析和綜合,以完成所需要的決策和估計而進行的資訊處理過程。這些作為資料來源的感測器可以是相同的(同構),也可以是不同的(異構),但它們並不是簡單地堆砌在一起,而是要從資料層面進行深度地融合。
實際上,感測器融合的例子在我們生活中已經屢見不鮮。歸納起來,使用感測器融合技術的目的主要有三類:
- 獲得全域性的認知。單獨一個感測器功能單一或性能不足,加在一起才能完成一個更高階的工作。比如我們熟悉的9軸MEMS運動感測器單元,實際上就是3軸加速感測器、3軸陀螺儀和3軸電子羅盤(地磁感測器)三者的合體,通過這樣的感測器融合,才能獲得準確的運動感測資料,進而在高端VR或其他應用中為用戶提供逼真的沉浸式體驗。
- 細化探測顆粒度。比如在地理位置的感知上,GPS等衛星定位技術,探測精度在十米左右且在室內無法使用,如果我們能夠將Wi-Fi、藍牙、UWB等局域定位技術結合進來,或者增加MEMS慣性單元,那麼對於室內物體的定位和運動監測精度就能實現數量級的提升。
- 實現安全。這方面,自動駕駛是最典型的例子,各個車載感測器獲取的資訊之間必須互為備份、相互印證,才能做到真正的安全無虞。比如當自動駕駛級別提升到L3以上時,就會在車載攝像頭的基礎上引入毫米波雷達,而到了L4和L5,雷射雷達基本上就是標配了,甚至還會考慮將通過V2X車聯網收集的資料融合進來。
圖1:自動駕駛中使用的多種車載感測器示例(圖片來源:網路)
總之,感測器融合技術恰似一個“教練”,能夠將性能各異的感測器捏合成一個團隊,合而為一又相互取長補短,共同去贏得一場比賽。
融合之道
選定了需要融合的感測器,怎麼融合則是下一步要考慮的問題。感測器融合的體系結構,按照融合的方式分為三種:
- 集中式:集中式感測器融合就是將各個感測器獲得的原始資料,直接送至中央處理器進行融合處理,這樣做的好處是精度高、演算法靈活,但是由於需要處理的資料量大,對中央處理器的算力要求更高,還需要考慮到資料傳輸的延遲,實現難度大。
- 分散式:所謂分散式,就是在更靠近感測器端的地方,先對各個感測器獲得的原始資料進行初步處理,然後再將結果送入中央處理器進行資訊融合計算,得到最終的結果。這種方式對通信頻寬的需求低、計算速度快、可靠性好,但由於會對原始資料進行過濾和處理,會造成部分資訊的丟失,因此原理上最終的精度沒有集中式高。
- 混合式:顧名思義,就是將以上兩種方法相結合,部分感測器採用集中式融合方式,其他的感測器採用分散式融合方式。由於兼顧了集中式融合和分散式的優點,混合式融合框架適應能力較強,穩定性高,但是整體的系統結構會更複雜,在資料通信和計算處理上會產生額外的成本。
對於感測器融合方案,還有一種按照資料資訊處理階段進行分類的思路。一般來說,資料的處理要經過獲取資料、特徵提取、識別決策三個層級,在不同的層級進行資訊融合,策略不同,應用場景不同,產生的結果也不同。
按照這種思路,可以將感測器融合分為資料級融合、特徵級融合和決策級融合。
- 資料級融合:就是在多個感測器採集資料完成後,就對這些資料進行融合。但是資料級融合處理的資料必須是由同一類感測器採集的,不能處理不同感測器採集的異構資料。
- 特徵級融合:從感測器所採集的資料中提取出能夠體現監測物件屬性的特徵向量,在這個層級上對於監測物件特徵做資訊融合,就是特徵級融合。這種方式之所以可行,是由於部分關鍵的特徵資訊,可以來代替全部資料資訊。
- 決策級融合:在特徵提取的基礎上,進行一定的判別、分類,以及簡單的邏輯運算,做出識別判斷,在此基礎上根據應用需求完成資訊融合,進行較高級的決策,就是所謂的決策級融合。決策級融合一般都是應用導向的。
如何選擇感測器融合的策略和架構,沒有一定之規,需要根據具體的實際應用而定,當然也需要綜合算力、通信、安全、成本等方面的要素,做出正確的決策。
未來趨勢
不論是採用哪種感測器融合架構,你可能都會發現,感測器融合很大程度上是一個軟體工作,主要的重點和難點都在演算法上。因此,根據實際應用開發出高效的演算法,也就成了感測器融合開發工作的重中之重。
在優化演算法上,人工智慧的引入是感測器融合的一個明顯發展趨勢。通過人工神經網路,可以模仿人腦的判斷決策過程,並具有持續學習進化的可擴展能力,這無疑為感測器融合的發展提供了加速度。
雖然軟體很關鍵,但是在感測器融合過程中,也並非沒有硬體施展拳腳的機會。比如,如果將所有的感測器融合演算法處理都放在主處理器上做,處理器的負荷會非常大,因此近年來一種比較流行的做法是引入感測器中樞(Sensor Hub),它可以在主處理器之外獨立地處理感測器的資料,而無需主處理器參與。這樣做,一方面可以減輕主處理器的負荷,另一方面也可以通過減少主處理器工作的時間降低系統功耗,這在可穿戴和物聯網等功耗敏感型應用中,十分必要。
圖2,感測器中樞示例:在這個健康可穿戴感測器系統中,MAX32664作為感測器中樞可以對光學和運動感測器的資料資訊進行融合處理(圖片來源:Maxim Integrated)
有市場研究資料顯示,對感測器融合系統的需求將從2017年的26.2億美元增長到2023年的75.8億美元,複合年增長率約為19.4%。 可以預判,未來感測器融合技術和應用的發展將呈現出兩個明顯的趨勢:
自動駕駛的驅動下,汽車市場將是感測器融合技術最重要的賽道,並將由此催生出更多的新技術和新方案。
此外,應用多元化的趨勢也將加速,除了以往那些對於性能、安全要求較高的應用,在消費電子領域感測器融合技術將迎來巨大的發展空間。
總之,感測器融合為我們洞察這個世界提供了更有效的方法,讓我們遠離“盲人摸象”般的尷尬,進而在這個洞察力的基礎上,塑造更智慧的未來。

