您的瀏覽器不支援JavaScript語法,但是並不影響您獲取本網站的內容。

邊緣 AI 運算之行動影像煉金術

109-03-17

台灣大學副教授(Omnieyes CEO) 周俊廷

人工智慧技術的日漸成熟與普及,解放了人們對未來世界與生活的想像,一些原本只能出現在科幻小說或是電影場景的橋段,似乎都不再遙不可及。正因為這樣的想像,無論是傳統產業還是高科技公司,都集體陷入對AI的狂熱,一時之間所有產品與服務若不能跟AI沾上邊,似乎看起來都會很「掉漆」。但正如同過去的物聯網或穿戴裝置熱潮,如果一個新的技術需要被定位成如此的無所不能甚或無所不在,一個可能要思考的根本問題是 ---新技術本身真正帶來價值的落地應用是否已經存在。

也因為這樣的省思,產業界逐漸把對AI這種不切實際的浪漫幻想聚焦回真正能產生價值的應用與服務上。一般咸信,有規則或脈絡可循、可透過填鴨式學習而能完成的高重複性服務與應用,將會是現下人工智慧最可以發揮之場景。因此,各種傳統語音辨識或是影像辨識技術,在人工智慧的加持下,有了前所未有的快速發展與市場穿透,各種語音助理、機器人客服、人臉識別或駕駛輔助應用,逐漸成為市場上的主流。

AI物聯網的契機

在這波AI熱潮中,大家並沒有遺忘過去的物聯網寵兒,畢竟萬物上網所帶來的巨量資料,若無法將真正有用的資訊萃取出來,則巨量資料也只是巨量垃圾,而人工智慧正可以彌補這塊空白,因此,人工智慧物聯網 (AIoT) 的興起,自然成為意料中的必然結合。人工智慧物聯網能否成功需要多個要素的搭配,包含資料的採集 (sensors) 、資料的收集 (如4G/5G) 與資訊的處理 (如人工智慧),動見科技在這種三元素中找出一個完美的結合,透過以聯網的AI影像識別為核心,發展新的技術與商業契機。

試想以下幾個常見的場景:您搭上一部橫衝直撞的共享計程車,司機急切地希望能趕快到達目的地,接載下一個乘客,憤恨不平的你下車後給他一個負評,而他也不客氣地回贈負評。你駕著車正開往一個不熟悉的地點,手機上的 Google 導航引導你的最快捷徑其實根本不能迴轉,同時導航路線顯示著紅色擁塞路段根本沒有塞車,因為塞車的其實是平面車道或是下閘道車道,而在你被告知要 「前方100公尺,請右轉」的當下,因為摸不清頭緒到底 100 公尺是多遠而錯過路口。而路上明明不能停車的路段或是公車格,除了少數裝有科技執法的路段或車站,永遠都停滿了違規的車輛,警察來了他們走, 警察走了他們來。


這些看似毫無關係的場景 ─ 駕駛行為的爭執、導航圖資的正確性以及智慧城市的管理 - 其實存在一個微弱的共通性: 他們都發生在城市的大街小巷中,而憑藉著這個共通性,一個結合行動影像、邊緣AI運算與資料共享的技術得以孕育而生,這樣的技術將可以清楚識別及記錄駕駛本身的違規行為,讓共享平台、食物快送與物流產業可以精確的掌握駕駛行為,並且在事後有明確的驗證方式;而同樣的影像在偵測違反交通規則的同時,也需一併蒐集道路上的交通號誌、標線、時態與即時車流,因此可以做為更新圖資與精確導航的依據;最後,行車影像也可讓公車在短暫進站時,即時偵測是否有一般車輛占用公車停車格,在不依賴固定監視器的情況下,順手就降低了上下車的危險,也簡化了智慧城市萬物上網的維護與保養成本。

技術與挑戰

要達到上述一石多鳥的目的, 技術上有多個不同面向要考慮並加以克服:
1.影像上傳網路頻寬限制: 一般商用車輛每天行駛時間約8到10小時,如果將影像全數回傳至雲端,將會造成行動網路的負載增加,也產生不必要的通訊費用。
2.雲端GPU價格高昂: 如果在雲端建立足以應付成千上萬的即時影像串流以及AI運算,技術上雖然可行,但是資料的處理費用將難以負擔。
3.雲端儲存資料費用: 即使透過分流與分時運算,巨量的原始資料儲存也會產生高額的儲存費用與資料管理的困難。
4.辨識即時性: 將影像傳至雲端再進行辨識會造成辨識上的延遲,對於某些需要即時通知、警示的應用來說明,將是不可承受之重。

因此,OmniEyes 藉由一個closed-loop 的AI架構,一方面透過模型縮小化與加速,讓前端的影像設備進行主要的影像辨識與分類,使絕大部分的AI運算以分散式的方式完成,因此回傳至雲端的將不再是原始影像資料而是有價值的資訊;當資料回傳至雲端後,發揮雲端集中式巨量分析的優勢,進行各種應用的資訊後製處理與分析,而非讓珍貴的雲端計算資源進行AI辨識 。

前端AI模型在進行影像辨識時,運算效率和準確率是一個兩難的問題,運算速度快則準確度較低,而準確度高則需要更多時間運算。因此,如何在前端裝置上讓AI模型達到又快又準的辨識,將是此架構的最大挑戰。為了達成此目標,OmniEyes 系統利用半自動標示、遷移學習、主動學習等方法,藉由前端裝置上之初始AI模型蒐集大量辨識結果,依此於雲端伺服器上訓練高準確度但相對複雜之AI模型,再經由模型壓縮或知識蒸餾等技術,在維持高準確度之前提下,將此模型再次推送至前端,透過如此循環不息的互助模式,發揮前端與雲端各自擅長的能力,不但大幅降低網路頻寬、雲端GPU與儲存需求,也讓前端裝置能進行各種具彈性與即時性的應用。

圖1 透過 Edge 及 Cloud AI的互助模式,不斷提升人工智慧模型準確率

圖1 透過 Edge 及 Cloud AI的互助模式,不斷提升人工智慧模型準確率

技術與商業模式的結合

在 2020 年的今天,台灣甚或全世界的大多數大型商業車隊業者皆面臨諸多車隊管理的難題,目前現有的GPS tracker 、 OBD-2 資訊甚或driver management system (DMS) 系統,都無法徹底解決這些問題。OmniEyes 團隊注意到這樣的現象,並決定著手透過上述技術解決這些問題。OmniEyes 先後與台灣大車隊、大都會客運以及宅配通等三家車隊業者進行多樣的PoC驗證,也在此過程中達到收集大量街頭資訊的目的。

以OmniEyes 車隊管理解決方案 MyFleet 為例,目前能夠主動辨識駕駛本身各式各樣的行車違規行為。以違規停車而言,MyFleet 已可辨識黃網線停車、紅線停車、斑馬線上停車、人行道上停車以及逆向停車,而在行車違規上則能夠判別駕駛是否有闖紅燈、違規左右轉、逆向行駛、怠速過久以及路口未先停車再開等行為。這些結果不但可以即時回饋給駕駛,也會經由 LTE 行動網路上傳至MyFleet 後台,提供給商業車隊管理者,使其能夠更即時地去了解駕駛們在路上的狀況,並能於事後使用影片做為佐證。

圖2 透過 OmniEyes 的 MyFleet 系統,將能即時追蹤駕駛的違規狀況

圖2 透過 OmniEyes 的 MyFleet 系統,將能即時追蹤駕駛的違規狀況

節流與開源,OmniEyes 的創新商業模式

一間企業的營運節流與開源同等重要,藉由 MyFleet 車隊管理系統,除了可有效預防駕駛違規行為而產生不必要的罰單開銷、事故衍生的車損人損賠償以及保費支出外,經由過程中所蒐集到完整的即時資料, 提供於OmniEyes 共享平台,做為圖資更新與智慧城市開發商各式應用的基礎。透過這個平台,亦能將資訊的收益分潤給合作使用MyFleet 的商業車隊夥伴,藉以達到互利共生的效用,在為客戶節流的同時更達到開源的目的。

OmniEyes 的下一步

無論是台灣、亞洲甚至是歐美,數以千萬計的個人與商用車,都裝上了行車記錄器或是智慧型手機,這些為數眾多的車輛,無時無刻捕捉了大量的街頭影像資料。然而,這些大量的影像除了被簡單的當作肇事證明外,絕大部分都被視為無用的垃圾,埋葬在不斷的覆寫過程中,完全沒有妥善利用。 OminEyes 從商業車隊出發,藉由互利共生的模式,活化這些珍貴的影像資料,隨著5G網路蓄勢待發,在不久將來, OminEyes 也將推出包含以視覺輔助之智慧導航應用,透過B2C的 APP 應用 ,結合現有的B2B 商業模式,加速擴大街頭影像的蒐集。透過高速的網路傳輸速度,完整的影像資料將更有效迅速地被搜集, OmniEyes 正在打造一個Street Video Uberization 的共享圖資平台,將影像垃圾變資訊黃金。