李巖在演講中表示,多模態(tài)技術(shù)有兩個(gè)主要應(yīng)用方向。一個(gè)是改變?nèi)藱C(jī)交互方式,另一個(gè)是使信息分發(fā)更加高效。視頻本身是一個(gè)多模態(tài)問題,快手有大量的多模態(tài)數(shù)據(jù),多模態(tài)研究對(duì)快手來說是一個(gè)非常重要的課題。(大衛(wèi)亞設(shè)、Northern Exposure(美國電視劇)、視頻名言)目前,快手正在語音識(shí)別和合成、智能視頻原聲、通過2D圖像實(shí)現(xiàn)3D建模效果、視頻精確理解等領(lǐng)域開發(fā)多模態(tài)技術(shù)。

以下為演講的主要內(nèi)容:

大家好,首先我來簡單介紹一下快手,在這個(gè)平臺(tái),用戶能夠被廣闊的世界看到,也能夠看到廣闊的世界,我們可以看一下快手的數(shù)據(jù): 70億條視頻總量、1500萬日新增視頻,日均的使用時(shí)長超過60分鐘等,所以快手平臺(tái)上有非常多的多媒體數(shù)據(jù),同時(shí)也有非常多的用戶交互數(shù)據(jù),比如我們每天有1.3億用戶觀看超過150億次視頻的播放數(shù)據(jù)。

我們知道視頻是視覺、聽覺、文本多種模態(tài)綜合的信息形式,而用戶的行為也是另外一種模態(tài)的數(shù)據(jù),所以視頻本身就是一個(gè)多模態(tài)的問題,再加上用戶行為就更是一種更加復(fù)雜的多模態(tài)問題。所以多模態(tài)的研究對(duì)于快手來說,是非常重要的課題。

多模態(tài)技術(shù)兩大應(yīng)用方向:人機(jī)交互與信息分發(fā)

我認(rèn)為多模態(tài)技術(shù)會(huì)有兩大主要的應(yīng)用。

第一,多模態(tài)技術(shù)會(huì)改變?nèi)藱C(jī)交互的方式,我們與機(jī)器交互的方式將會(huì)越來越貼近于更令人舒適、更自然的方式。

第二,多模態(tài)技術(shù)會(huì)使得信息的分發(fā)更加高效。

多模態(tài)技術(shù)研究的三個(gè)難點(diǎn):語義鴻溝、異構(gòu)鴻溝、數(shù)據(jù)缺失

其實(shí)在目前來看,多模態(tài)研究難度還是非常高的。

其中大家談得比較多的是語義鴻溝,雖然近十年來深度學(xué)習(xí)和大算力、大數(shù)據(jù)快速發(fā)展,計(jì)算機(jī)視覺包括語音識(shí)別等技術(shù)都取得了非常大的進(jìn)展,但是截至現(xiàn)在,很多問題還沒有得到特別好的解決,所以單模態(tài)的語義鴻溝仍然是存在的。

再者,由于引入了多種模態(tài)的信息,所以怎樣對(duì)不同模態(tài)之間的數(shù)據(jù)進(jìn)行綜合建模,會(huì)是一個(gè)異構(gòu)鴻溝的問題。

另外,做語音、做圖像是有很多數(shù)據(jù)集的,大家可以利用這些數(shù)據(jù)集進(jìn)行刷分、交流自己算法的研究成果。但是多模態(tài)的數(shù)據(jù)集是非常難以構(gòu)建的,所以我們?cè)谧龆嗄B(tài)研究時(shí)是存在數(shù)據(jù)缺失的問題的。

下面我會(huì)分享我們?cè)诙嗄B(tài)這個(gè)方面所做的事情,以及這些技術(shù)是怎么樣幫助快手平臺(tái)獲得更好的用戶體驗(yàn)和反饋的。

多模態(tài)技術(shù)如何實(shí)現(xiàn)更好的記錄

首先,多模態(tài)技術(shù)將實(shí)現(xiàn)更好的記錄。隨著智能手機(jī)的出現(xiàn),每個(gè)人都可以用手機(jī)上攝像頭去記錄周圍的世界,用麥克風(fēng)去存儲(chǔ)周圍的音頻信息;而在以前,生成視頻,尤其生成一些比較專業(yè)的視頻,都是導(dǎo)演干的事情。但現(xiàn)在,我們通過手機(jī)就能夠做到,這里面會(huì)有非常多的多模態(tài)技術(shù)研究來輔助人們更好地記錄。

我們希望整個(gè)記錄過程是更加便捷、個(gè)性化、有趣,同時(shí)也是普惠的,具體我將分別通過四個(gè)案例分享。

1、語音轉(zhuǎn)文字打造便捷字幕生成體驗(yàn)

一個(gè)視頻里,音頻部分對(duì)于整個(gè)視頻的信息傳遞是非常重要的。網(wǎng)上有很多帶有大量字幕的、以講述為主的視頻,這樣的視頻制作其實(shí)是一件很麻煩的事情,因?yàn)橐粋€(gè)一個(gè)去輸入文字是很痛苦的,像過去在廣電系統(tǒng)專業(yè)工作室就需要很多用于字幕編輯的工具軟件。而如果我們通過語音識(shí)別技術(shù),把語音直接轉(zhuǎn)成文字,就可以很輕松地通過手機(jī)編輯生成一個(gè)帶字幕視頻。

2、語音合成實(shí)現(xiàn)個(gè)性化配音

另外一個(gè)技術(shù)叫做個(gè)性化配音,假如在一個(gè)視頻中,你不喜歡聽男性配音,而希望聽到由一位女士配音,我們就可以通過語音合成技術(shù)滿足個(gè)性化的訴求。

語音識(shí)別及合成技術(shù)都會(huì)使我們記錄的過程變得更加便捷、有趣,但這兩個(gè)技術(shù)在做視覺或者多媒體的圈子里面關(guān)注度不是特別高,只是偶爾會(huì)在做語音的圈子里去聊這些問題。包括在語音圈子里面,語音識(shí)別和合成現(xiàn)在往往是兩波人在做。

隨著深度學(xué)習(xí)技術(shù)的出現(xiàn),語音識(shí)別和合成這兩個(gè)問題其實(shí)在某種程度上是非常對(duì)稱的,因?yàn)檎Z音識(shí)別是從語音到文字,語音合成是從文字到語音。語音識(shí)別的時(shí)候,我們提取一些聲學(xué)的特征,經(jīng)過編碼器或者Attention的機(jī)制,實(shí)現(xiàn)從語音到文字的轉(zhuǎn)化;語音合成的技術(shù)和算法,其實(shí)也涉及編碼器或者Attention的機(jī)制,二者形成了比較對(duì)稱的網(wǎng)絡(luò)。所以我們把語音識(shí)別和合成看成是一個(gè)模態(tài)轉(zhuǎn)換的特例,從神經(jīng)網(wǎng)絡(luò)建模角度來看,是一個(gè)比較一致、容易解決的問題。

具體神經(jīng)網(wǎng)絡(luò)在設(shè)計(jì)的時(shí)候,雖然二者內(nèi)容機(jī)制其實(shí)還是有一些不同,但更大的趨勢(shì)是這里面將來會(huì)有更多的趨同,因?yàn)槲覀冎离S著相關(guān)算法的發(fā)展,計(jì)算一定是朝著一個(gè)更加簡化,更加統(tǒng)一的方向發(fā)展。就像深度學(xué)習(xí)的出現(xiàn),其實(shí)就是通過計(jì)算的方式取代了手工來獲取有效的特征。多模態(tài)的轉(zhuǎn)換領(lǐng)域里面也出現(xiàn)了這樣的特點(diǎn),這是一件非常有意思的事情。

3、根據(jù)視頻內(nèi)容自動(dòng)生成音樂

音樂也是短視頻非常重要的一部分,有錄視頻經(jīng)驗(yàn)的同學(xué)可以感受到,為一個(gè)場(chǎng)景配合適的音樂是一個(gè)很難的事情。過去,有不少用戶為了與音樂節(jié)拍一致,努力配合音樂節(jié)奏拍攝,極大限制了拍攝的自由度。我們希望用戶可以隨意按照自己想要的節(jié)奏錄制,所以讓機(jī)器通過用戶拍攝的視頻內(nèi)容,自動(dòng)生成符合視頻節(jié)奏的音樂,這樣視頻畫面與音樂節(jié)奏就會(huì)更匹配、更一致。

音樂生成涉及很多具體的技術(shù),我們也做了非常多的研究,其中一個(gè)問題是懂音樂的不懂計(jì)算機(jī)科學(xué),懂計(jì)算機(jī)科學(xué)的人不懂音樂。想要把短視頻配樂這個(gè)問題研究好,需要要有做音樂和做AI的人一起集成創(chuàng)新,這方面我們也做了非常多的工作。

4、2D圖像驅(qū)動(dòng)3D建模實(shí)現(xiàn)Animoji效果

通過蘋果的發(fā)布會(huì),大家應(yīng)該都了解Animoji這項(xiàng)技術(shù),iphoneX有一個(gè)標(biāo)志性的功能,就是通過結(jié)構(gòu)光攝像頭實(shí)現(xiàn) Animoji,現(xiàn)在國內(nèi)手機(jī)廠商也越來越多地采用結(jié)構(gòu)光的方式去實(shí)現(xiàn)Animoj。而快手是國內(nèi)較早實(shí)現(xiàn)不使用結(jié)構(gòu)光,只用RGB圖像信息就實(shí)現(xiàn)Animoji效果的企業(yè)。

用戶不必去花上萬元去買iphoneX,只要用一個(gè)千元的安卓手機(jī),就可在快手的產(chǎn)品上體驗(yàn)Animoji的特效,從而能夠在不暴露臉部信息的同時(shí)展現(xiàn)細(xì)微的表情變化,例如微笑、單只眼睛睜單只眼睛閉等,讓原來一些羞于表演自己才藝的人,也可以非常自如地表達(dá)。我們覺得做技術(shù)有一個(gè)非??鞓返氖虑?,就是讓原來少數(shù)人才能用的技術(shù),變得更普惠。

其實(shí)解決這樣一個(gè)問題是非常難的,因?yàn)榧词故窍裉O果這樣的公司,也是采用了結(jié)構(gòu)光這樣配置額外硬件的方式來解決。想讓每一個(gè)用戶都能享受到最尖端的技術(shù),快手面臨著硬件的約束,只能通過2D的RGB視覺信息對(duì)問題進(jìn)行建模、求解,這里面包括了像Landmark人臉關(guān)鍵點(diǎn)檢測(cè)、實(shí)時(shí)重建人臉三維模型等技術(shù),把2D和3D兩種不同模態(tài)的信息做建模、做對(duì)齊。

我們也能看到現(xiàn)在市場(chǎng)上可能有一些小型的APP在做類似的事情,但體驗(yàn)很差,而我們的整體體驗(yàn)還是非常好非常流暢的,這也需要?dú)w功于深度神經(jīng)網(wǎng)絡(luò)模型的量化,通過壓縮和加速解決手機(jī)性能問題,可適配任意機(jī)型。

多模態(tài)技術(shù)如何實(shí)現(xiàn)精準(zhǔn)理解視頻內(nèi)容

剛才我講的是我們多模態(tài)技術(shù)怎樣去幫助用戶更好地記錄,我們同時(shí)也希望通過一個(gè)更好的分享機(jī)制,讓用戶發(fā)布的視頻能夠被更多感興趣的人看到。這也涉及視頻推薦里面多模態(tài)的一些問題。

對(duì)視頻內(nèi)容的理解其實(shí)是非常難的,這個(gè)里面我做了兩個(gè)比較有意思的事情。

第一,我們強(qiáng)調(diào)音頻和視覺的多模態(tài)綜合的建模,而不是僅僅是單獨(dú)的視覺或者音頻,視覺和聽覺兩種媒體的融合,會(huì)是未來一個(gè)非常重要的事情。

第二,在工業(yè)界做的事情和在學(xué)術(shù)界做的事情有很大不同,我們有非常多的用戶數(shù)據(jù),這些用戶數(shù)據(jù)是不在傳統(tǒng)多媒體內(nèi)容研究范疇里面的,但是工業(yè)界可以很好地利用這些數(shù)據(jù),更好地做內(nèi)容理解。

給大家舉個(gè)例子,一個(gè)男子表演口技的視頻中,如果關(guān)閉聲音,僅憑畫面信息,我們并不知道他是在做什么,可能會(huì)覺得是在唱歌或唱戲。這說明如果僅僅是通過視覺的話,你可能無法獲得真實(shí)的信息。我們對(duì)世界的理解一定是多模態(tài)的理解,而不僅僅是視覺的理解。

像這樣的視頻在快手?jǐn)?shù)據(jù)庫中有70億,想要理解這么多的視頻內(nèi)容,必須借助多模態(tài)技術(shù)。所以我們?cè)谶@方面也做了非常多的工作,從文本、視覺、聽覺角度去做了很多單模態(tài)的建模,包括多模態(tài)的綜合建模、有序與無序,以及多模態(tài)特征之間怎樣進(jìn)行異構(gòu)的建聯(lián),在很多任務(wù)內(nèi)部的分類上也做了改進(jìn)。

第二點(diǎn)需要強(qiáng)調(diào)的是,像ImageNET等很多的學(xué)術(shù)界研究內(nèi)容理解的任務(wù)有非常好的標(biāo)注數(shù)據(jù)集,但是這個(gè)數(shù)據(jù)集對(duì)于工業(yè)界來說還是太小,且多樣性不夠。我們平臺(tái)每天有1.3億多用戶以及超過150億次的視頻播放,這個(gè)數(shù)據(jù)是非常大的。如果有150億的標(biāo)注數(shù)據(jù),做算法就會(huì)有很大的幫助,但是現(xiàn)實(shí)上是不具備的。

那怎樣將研究分析技術(shù)與海量數(shù)據(jù)更好地做到兩者的融合呢?我們通過融合行為數(shù)據(jù)和內(nèi)容數(shù)據(jù),進(jìn)行綜合建模,同樣大小的人工標(biāo)注量,利用海量的用戶行為數(shù)據(jù),能夠獲得比純內(nèi)容模型更好的性能,對(duì)視頻有了一個(gè)更好的理解,進(jìn)而在多媒體內(nèi)容的理解和分析方面的算法研究有了非常大的進(jìn)展,這就使我們?cè)诠I(yè)界和傳統(tǒng)學(xué)術(shù)界做這個(gè)事情時(shí)會(huì)更有優(yōu)勢(shì)。

未來多模態(tài)研究的熱點(diǎn):特征表達(dá)與特征對(duì)齊

總結(jié)一下,多模態(tài)內(nèi)容解決的問題里面涉及一些模態(tài)的轉(zhuǎn)化,比如怎樣通過2D圖像驅(qū)動(dòng)3D,怎樣通過語音生成文本或者通過文本生成語音,怎樣通過視覺驅(qū)動(dòng)音樂。另外一個(gè)應(yīng)用是我們?cè)鯓油ㄟ^融合更多信息來驅(qū)動(dòng)內(nèi)容的理解,其實(shí)都是一個(gè)多模態(tài)的問題。在學(xué)術(shù)界有很多研究還是停留在單模態(tài),但我個(gè)人認(rèn)為未來多模態(tài)會(huì)成為更有價(jià)值的研究方向。

多模態(tài)研究會(huì)有兩個(gè)難點(diǎn)或者說熱點(diǎn):

第一是多模態(tài)的特征表達(dá),也就是在多模態(tài)研究框架下怎樣設(shè)計(jì)單模態(tài)的特征,這是一個(gè)非常重要的問題。

第二是多模態(tài)特征之間如何對(duì)齊,也就是有沒有更好的算法對(duì)視覺、聽覺和行為的部分進(jìn)行統(tǒng)一的建模,這是未來的一個(gè)熱點(diǎn)。

幾個(gè)總結(jié)

第一,多模態(tài)未來會(huì)持續(xù)帶來更新的人機(jī)交互方式,比如我們剛才講的Animoji技術(shù),其實(shí)它帶來的是一種可以通過人臉控制手機(jī)自動(dòng)生成Avatar(虛擬動(dòng)畫)的體驗(yàn)。原來實(shí)現(xiàn)這些效果,需要在好萊塢專門設(shè)一個(gè)特效室來實(shí)現(xiàn)這一點(diǎn),而現(xiàn)在普通用戶都能享受這樣的技術(shù),所以人機(jī)交互會(huì)由原來重的、貴的、笨的方式轉(zhuǎn)變?yōu)楸阋说?、每個(gè)人都能參與的而且便捷的方式。

第二,我認(rèn)為多模態(tài)技術(shù)會(huì)帶來新的內(nèi)容形態(tài),原來接入信息更多是從文本、頁面中獲得,現(xiàn)在有視頻,未來可能還會(huì)有AR或者其它的形式。我覺得多模態(tài)AR很重要的一點(diǎn)就是強(qiáng)調(diào)沉浸感,這種沉浸感其實(shí)是通過聽覺和視覺綜合作用才能產(chǎn)生的。

第三,我認(rèn)為多模態(tài)亟需新的算法和大型的數(shù)據(jù),因?yàn)檫@兩者可能會(huì)是一個(gè)某種意義上可以相互折算的問題。以目前的機(jī)器學(xué)習(xí)算法來講,需要海量的數(shù)據(jù)才能解決好這個(gè)問題,因?yàn)楝F(xiàn)在深度學(xué)習(xí)、內(nèi)容理解的成果,某種意義上是監(jiān)督學(xué)習(xí)的成果,有足夠的樣本、算力,所以現(xiàn)在的算法能力基本上還停留在對(duì)算力和數(shù)據(jù)有著非常大要求的階段。而多模態(tài)的大型數(shù)據(jù)是非常難建的,而且多模態(tài)解的空間是更大的。因?yàn)橐粋€(gè)模態(tài)解的空間是n,另外一個(gè)是m,它最后是一個(gè)乘積、一個(gè)指數(shù)級(jí)的變化,所以數(shù)據(jù)集要多大才足夠是一個(gè)很難的這個(gè)問題,可能需要新的算法來對(duì)這個(gè)問題進(jìn)行建模。

關(guān)于快手多媒體內(nèi)容理解部門

快手多媒體內(nèi)容理解部門(Multimedia Understanding)簡稱MMU ,團(tuán)隊(duì)由近百名算法工程師、應(yīng)用工程師構(gòu)成,聚焦多媒體內(nèi)容的理解與應(yīng)用。在內(nèi)容理解方面,MMU主要通過對(duì)人臉、圖像、音樂、視頻四個(gè)維度實(shí)現(xiàn)對(duì)多媒體內(nèi)容的感知,并融合感知內(nèi)容和知識(shí)圖譜,實(shí)現(xiàn)對(duì)視頻高層語義及情感的理解,從而讓機(jī)器高效看懂海量內(nèi)容。目前,多媒體內(nèi)容理解部的核心技術(shù)服務(wù)于內(nèi)容安全、原創(chuàng)保護(hù)、視頻創(chuàng)作、視頻推薦、視頻搜索及商業(yè)化等方面。

1.《快手儲(chǔ)存不足怎么辦?終于找到答案了快手科技李巖:多模態(tài)技術(shù)會(huì)改變?nèi)藱C(jī)交互方式,會(huì)使信息分發(fā)更高效》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識(shí),僅代表作者本人觀點(diǎn),與本網(wǎng)站無關(guān),侵刪請(qǐng)聯(lián)系頁腳下方聯(lián)系方式。

2.《快手儲(chǔ)存不足怎么辦?終于找到答案了快手科技李巖:多模態(tài)技術(shù)會(huì)改變?nèi)藱C(jī)交互方式,會(huì)使信息分發(fā)更高效》僅供讀者參考,本網(wǎng)站未對(duì)該內(nèi)容進(jìn)行證實(shí),對(duì)其原創(chuàng)性、真實(shí)性、完整性、及時(shí)性不作任何保證。

3.文章轉(zhuǎn)載時(shí)請(qǐng)保留本站內(nèi)容來源地址,http://f99ss.com/gl/3022030.html