機(jī)器的心靈獨(dú)具匠心
作者:高靜
搭載ULSee智能駕駛集成方案的汽車分別在車身前后安裝了4個(gè)攝像頭,用于收集行駛中車輛的圖像。
無論是在高速還是低速行車期間,圖像都可以在經(jīng)過實(shí)時(shí)圖像拼接技術(shù)處理后,形成一幅無縫完整的車周全景圖,實(shí)時(shí)直觀呈現(xiàn)在車內(nèi)的顯示設(shè)備上,使駕駛員可以 360 度地了解行車環(huán)境并結(jié)合前方安全警示系統(tǒng)做出相應(yīng)決策判斷。與此同時(shí),車內(nèi)的 3 個(gè)攝像頭協(xié)同工作實(shí)現(xiàn)對駕駛員行為的監(jiān)測分析,進(jìn)而判斷駕駛員是否走神、疲勞、偏離開車焦點(diǎn)并在第一時(shí)間發(fā)出警報(bào)確保行車安全。2017 上海國際車展期間,ULSee 將其智能駕駛集成方案鋪陳在汽車廠商眼前,并首次展示了自主研發(fā)的 3D 全景行車監(jiān)控影像系統(tǒng)。這套系統(tǒng)著重于軟件及算法功能的提升,不需要特殊硬件,CPU 占用率小于 8M。據(jù)透露,該解決方案已經(jīng)與德國一線車廠達(dá)成合作意向并進(jìn)入測試階段。成立于 2014 年的 ULSee,專注于計(jì)算機(jī)視覺技術(shù)與人工智能,目前的研發(fā)涵蓋圖像處理、人臉追蹤與識(shí)別、手部及肢體的跟蹤、3D 重構(gòu)、AR/VR 內(nèi)容創(chuàng)建、自然人機(jī)交互等,并被廣泛應(yīng)用于國內(nèi)外的安防、金融、交通、娛樂等行業(yè)領(lǐng)域。
汽車年銷售量穩(wěn)步上升,因疲勞和分心導(dǎo)致的交通事故數(shù)量不容小覷。維吉尼亞理工大學(xué)交通運(yùn)輸研究院的調(diào)查顯示,車禍發(fā)生的原因有 93% 都是人為因素造成的,其中有高達(dá) 80% 都是由于事故發(fā)生前三秒注意力不集中所導(dǎo)致。自動(dòng)駕駛被認(rèn)為能夠改善此類事故的高發(fā)生率。NHTSA 數(shù)據(jù)統(tǒng)計(jì)預(yù)測,到 2040 年,自動(dòng)駕駛技術(shù)將會(huì)減少 80% 的交通事故。
盲區(qū)是駕駛員的夢魘,主要分為車頭盲區(qū)、車尾盲區(qū)、后視鏡盲區(qū)以及 AB 柱盲區(qū)。(一般轎車車身每側(cè)有三個(gè)立柱,前擋風(fēng)玻璃兩側(cè)的斜柱稱為 A 柱,前后門之間的立柱稱為 B 柱、后擋風(fēng)玻璃兩側(cè)的立柱則被稱為 C 柱。)為了避免由于盲區(qū)造成事故,全景影像系統(tǒng)應(yīng)運(yùn)而生。
市場上現(xiàn)有的 2D AVM 系統(tǒng)雖然可以實(shí)現(xiàn) 360 度環(huán)景,但 2D 可視距離較短,僅可以在停車的時(shí)候使用。傳統(tǒng) 3D AVM 系統(tǒng)也存在各種局限性,如富士通提出的 3D AVM 系統(tǒng)可視距離較遠(yuǎn),但視角有限;BMW 在去年的 CES 展上提出了無后視鏡 Mirrorless 概念,利用攝像頭取代真正的后外視鏡,利用 6 個(gè)攝像頭在高速情況下將左中右三個(gè)影像縫合在一起,但是由于立體 3D 縫合會(huì)出現(xiàn)高速影像信息失真、低速影像重疊頻繁等問題,所以在低速情況下轉(zhuǎn)換成三分割模式,駕駛員需要自己來通過所呈現(xiàn)的畫面做路況分辨。
而 ULSee 的 3D 全景行車監(jiān)控影像系統(tǒng)利用 3 個(gè)廣角魚眼鏡頭取代傳統(tǒng)后視鏡,攝取左右及后方 270 度的圖像,可以從一側(cè) A 柱覆蓋到另一側(cè) A 柱,完成 3D 立體影像的實(shí)時(shí)縫合,可視距離為 35 米,實(shí)現(xiàn)無盲區(qū)零死角,具備更加廣闊的視野。
ULSee 3D 全景行車監(jiān)控影像系統(tǒng)測試錄像
這套 Mirrorless 全景 3D 解決方案是 ULSee 公司智能駕駛事業(yè)部總經(jīng)理吳易達(dá)及其團(tuán)隊(duì)的研究成果。吳易達(dá)是來自臺(tái)灣工研院的技術(shù)專家,從 2002 年至今擁有長達(dá) 15 年在計(jì)算機(jī)視覺領(lǐng)域的研發(fā)經(jīng)驗(yàn),并于今年初加入 ULSee 進(jìn)行智能駕駛產(chǎn)品的落地研發(fā)。
ULSee公司智能駕駛事業(yè)部總經(jīng)理吳易達(dá)
吳易達(dá)在接受機(jī)器之心專訪時(shí)說:「我們是在和車廠的互動(dòng)和反饋中注意到了汽車高速行進(jìn)情況下的死角問題,事實(shí)上,那是我們也一直正在做相關(guān)的研發(fā)工作。去年剛好 BMW 提出 Mirrorless 的概念,日本也推出了未來可以用攝像頭取代后視鏡的法規(guī),我們就在這樣一個(gè)環(huán)境下推出了目前這套解決方案。雖然看起來這個(gè)系統(tǒng)好像也沒什么,我本來也以為很簡單,就做一下魚眼矯正和圖像縫合,但之后發(fā)現(xiàn)這背后其實(shí)涉及蠻多的工作,還是要很努力。魚眼鏡頭可以看到 180 度的視角,可是會(huì)導(dǎo)致車距失真。利用魚眼矯正可以實(shí)時(shí)矯正視覺失真,讓呈現(xiàn)的圖像效果比較貼近真實(shí)的距離感。在縫合的過程中,我們就好像做菜一樣在里面添加了很多作料,比如針對物體消失,我們會(huì)根據(jù)不同的畫面做不同權(quán)重的調(diào)整。在這一塊,我們有一個(gè)比較特殊、比較復(fù)雜的模型,可以根據(jù)客戶所需要呈現(xiàn)的畫面做一些客制化的工作?!?/p>
整個(gè)系統(tǒng)的研發(fā)中同樣存在很多挑戰(zhàn),吳易達(dá)笑稱,身為研發(fā)出身可能美感并不是很好,在與車廠的討論過程中,對于縫合圖像的呈現(xiàn)方式在美觀、人為接受度上是一個(gè)很大的問題。另外,不同車型車種的盲區(qū)死角并不一致,還需要一個(gè)討論、磨合、改進(jìn)的過程?!改壳拔覀冎饕槍π⌒娃I車,把 2D、3D 一起吃進(jìn)來,但是大車更需要這樣的 surround view 系統(tǒng),因?yàn)閷τ诖筌嚨鸟{駛員來說,看分割的監(jiān)控鏡頭他可能沒有辦法迅速理解鏡頭真正的方向與車子方位間的關(guān)系從而造成困擾。所以我們認(rèn)為大車這一塊是等著我們開墾的蠻荒地,之后會(huì)帶領(lǐng)我們的業(yè)務(wù)單元把這個(gè)市場先做起來?!顾a(bǔ)充道。
除了可以攝取 270 度圖像的 3 個(gè)魚眼攝像頭,前端還有一個(gè)鏡頭支持前方安全警示系統(tǒng),從而實(shí)現(xiàn)車道線偏離預(yù)警、前方碰撞預(yù)警功能,即人們所熟知的 ADAS。ADAS 市場上的競爭無疑是非常激烈的。撇開利用單只前置攝像頭就可以實(shí)現(xiàn)一系列駕駛輔助功能的 Mobileye、依托于雙攝像頭日本的 Hitachi Automobile Systems 等業(yè)內(nèi)領(lǐng)跑科技公司,一些芯片廠商也看好 ADAS 市場,在朝這個(gè)方向行進(jìn)。
「ULSee 切入 ADAS 市場的契機(jī),靠的就是我們所提出的顛覆傳統(tǒng)電腦視覺的理論架構(gòu),無需前處理過程?!箙且走_(dá)介紹道。
傳統(tǒng)機(jī)器學(xué)習(xí)最大的問題就是基于影像處理為基礎(chǔ),使得人們會(huì)拿影像處理的工具來做電腦視覺,但這個(gè)過程會(huì)存在一些問題。對于所有的訊號(hào)處理,去雜訊是非常必要的第一步。在視覺領(lǐng)域,去雜訊就是把高頻的訊號(hào)濾掉,這樣影像就會(huì)變模糊。就像如果一個(gè)帶有眼鏡的人,在把眼鏡拿掉以后看到的所有東西都將是模糊的,這種情況下這個(gè)人沒有辦法開車。一般智能圖像檢測系統(tǒng)需要經(jīng)過實(shí)時(shí)影像輸入、圖像前處理、特征提取、深度學(xué)習(xí)、識(shí)別分析等過程,如果略過圖像前處理這一步驟,那么就可以取得最完整的資訊,最豐富的特征。「這是一個(gè)環(huán)環(huán)相扣的過程,這樣我們的運(yùn)算復(fù)雜度也會(huì)大幅度下降,在一些低階的平臺(tái)上也可以執(zhí)行。相應(yīng)地在 AI 這一部分,我們也就不需要復(fù)雜的模型,利用輕量深度學(xué)習(xí)模型就可以運(yùn)作。一般來說 CNN 大概需要 10^6 神經(jīng)元,我們只需要 10^3 就夠了。這樣簡而言之,我們既要執(zhí)行效果理想,又不需要很多 CPU 效能?!箙且走_(dá)解釋道。
吳易達(dá)認(rèn)為在 ADAS 市場上,每家公司雖然做法不一樣,但是都在努力,不過有一些做法還是比較可惜的。AlphaGo 下贏韓國棋手所獲得成功讓大家看到深度學(xué)習(xí)的可行性,可如果研發(fā)部門一味看中依賴于數(shù)據(jù)的深度學(xué)習(xí),未來研發(fā)人員則將會(huì)淪為數(shù)據(jù)搜集者,無法發(fā)揮他們的創(chuàng)造力去探索新的模型。以現(xiàn)實(shí)而言,為了避免之前 Microsoft 上架的聊天機(jī)器人因?yàn)閷W(xué)會(huì)臟話而不得不下架的情況發(fā)生,ULSee 采用專家系統(tǒng)為基礎(chǔ)的深度學(xué)習(xí)方法,著手以人為的方式進(jìn)行介入。百度近期發(fā)布的「阿波羅計(jì)劃」自動(dòng)駕駛開放平臺(tái)在業(yè)內(nèi)引發(fā)一系列效應(yīng),未來 ULSee 也會(huì)在保留自己技術(shù)特色的基礎(chǔ)之上,利用這個(gè)開源平臺(tái)進(jìn)行一些探索嘗試。
上述所提到的環(huán)景系統(tǒng)以及 ADAS 系統(tǒng)都是相對車外而言,與此同時(shí),在車內(nèi)對于駕駛者的行為進(jìn)行監(jiān)控分析也是非常重要的一個(gè)環(huán)節(jié)。通過了解車內(nèi)駕駛員的狀態(tài)來對其進(jìn)行疲勞或是分心檢測,再結(jié)合車外所得到的信息構(gòu)成一個(gè)完整的系統(tǒng)。
車內(nèi)駕駛員疲勞偵測與示警系統(tǒng)利用車內(nèi)的 3 個(gè)鏡頭采用影像處理技術(shù),對駕駛員的面部、瞳孔和肢體進(jìn)行檢測、追蹤以及識(shí)別,從而可以實(shí)現(xiàn)對駕駛員的疲勞分心檢測、司機(jī)身份的識(shí)別、甚至可以實(shí)現(xiàn)屬性分析進(jìn)行一系列個(gè)性化設(shè)置等功能。ULSee 產(chǎn)品總監(jiān) Kevin 在現(xiàn)場演示了這套系統(tǒng)的實(shí)時(shí)效果:「這里不僅用了我們最擅長的臉部、眼球、頭部追蹤,其實(shí)我們也有用到 skeleton 的定位分析。比如開車講電話這樣危險(xiǎn)的動(dòng)作就通過 skeleton 的分析輕松判定出來?!故聦?shí)上,去年 ULSee 就已經(jīng)發(fā)布了這套車內(nèi)駕駛員疲勞偵測與示警系統(tǒng)解決方案,目前已經(jīng)搭載在阿根廷 450 萬輛長途物流貨車上。
1.《yasee網(wǎng)站看這里!取代后視鏡,ULSee發(fā)布3D全景行車監(jiān)控影像系統(tǒng)》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識(shí),僅代表作者本人觀點(diǎn),與本網(wǎng)站無關(guān),侵刪請聯(lián)系頁腳下方聯(lián)系方式。
2.《yasee網(wǎng)站看這里!取代后視鏡,ULSee發(fā)布3D全景行車監(jiān)控影像系統(tǒng)》僅供讀者參考,本網(wǎng)站未對該內(nèi)容進(jìn)行證實(shí),對其原創(chuàng)性、真實(shí)性、完整性、及時(shí)性不作任何保證。
3.文章轉(zhuǎn)載時(shí)請保留本站內(nèi)容來源地址,http://f99ss.com/gl/2482109.html