深度學(xué)習(xí)技術(shù)往往比較復(fù)雜,從頭開(kāi)發(fā)的難度較大,但現(xiàn)在有一些公司提供了能幫助開(kāi)發(fā)者輕松使用深度學(xué)習(xí)的自動(dòng)化深度學(xué)習(xí)(ADL)平臺(tái),比如微軟的 Cu、谷歌的 Cloud AutoML、OneClick.AI。Data Science Central 近日發(fā)文對(duì)這三個(gè)平臺(tái)進(jìn)行了比較和盤(pán)點(diǎn),機(jī)器之心對(duì)該文做了編譯介紹。
阻礙我們使用深度學(xué)習(xí)方法的原因有很多,其中最主要的是深度學(xué)習(xí)方法很復(fù)雜和困難。
數(shù)據(jù)科學(xué)領(lǐng)域有一部分研究者和開(kāi)發(fā)者已經(jīng)選擇學(xué)習(xí)這些新技術(shù)了,但在預(yù)測(cè)性和規(guī)范性建模的問(wèn)題類(lèi)型和技術(shù)方面(我們 90% 的工作就是這些),學(xué)習(xí)深度學(xué)習(xí)技術(shù)卻與我們的大部分工作方向背道而馳。
至少在圖像、視頻、文本和語(yǔ)音識(shí)別與處理領(lǐng)域,人工智能(ai)已經(jīng)成為了每個(gè)人的口頭禪,但尋找有資格執(zhí)行你的項(xiàng)目的數(shù)據(jù)科學(xué)家仍然很困難。
實(shí)際上我列舉的圖像、視頻、文本和語(yǔ)音應(yīng)用只是深度學(xué)習(xí)應(yīng)用的一小部分。盡管這些是最為人所知且可能是最明顯的應(yīng)用,但深度神經(jīng)網(wǎng)絡(luò)(DNN)也能出色地預(yù)測(cè)時(shí)序數(shù)據(jù)以及解決復(fù)雜的傳統(tǒng)的消費(fèi)傾向問(wèn)題。
去年 12 月份我在寫(xiě)數(shù)據(jù)科學(xué) 2018 年預(yù)測(cè)時(shí),我注意到 Gartner 說(shuō)在 2018 年 DNN 會(huì)成為 80% 數(shù)據(jù)科學(xué)家的標(biāo)準(zhǔn)工具組件。我的預(yù)測(cè)是:盡管能實(shí)現(xiàn)這種簡(jiǎn)潔性的第一家提供商肯定會(huì)獲得豐厚的回報(bào),但絕不可能是在 2018 年??磥?lái)我預(yù)測(cè)錯(cuò)了。
2018 年才剛過(guò)去 4 個(gè)月,我就看到了三種旨在簡(jiǎn)化深度學(xué)習(xí)以讓任何人(至少是任何數(shù)據(jù)科學(xué)家)都能使用該技術(shù)的不同平臺(tái)。
最低要求
所有的主要公司和幾家小公司都為執(zhí)行 CNN 或 RNN/LSTM 提供了極大簡(jiǎn)化的工具,但這仍然需要實(shí)驗(yàn)性地人工調(diào)整層的類(lèi)型和數(shù)量、連接方式、節(jié)點(diǎn)和其它超參數(shù)(這些設(shè)置往往會(huì)影響最初的成功)。
我們希望有真正一鍵式的應(yīng)用,讓一般的數(shù)據(jù)科學(xué)家或甚至開(kāi)發(fā)者都能成功構(gòu)建圖像或文本分類(lèi)器。
實(shí)現(xiàn)這一目標(biāo)的最快方法是通過(guò)遷移學(xué)習(xí)。在深度學(xué)習(xí)領(lǐng)域,遷移學(xué)習(xí)是指將之前成功構(gòu)建的大型的、復(fù)雜的 CNN 或 RNN/LSTM 模型在新的更有限的數(shù)據(jù)集上進(jìn)行訓(xùn)練。
基本上而言,常用于圖像分類(lèi)的遷移學(xué)習(xí)會(huì)將更復(fù)雜的模型歸納為更少或之前訓(xùn)練過(guò)的類(lèi)別。遷移學(xué)習(xí)不能創(chuàng)造原模型中沒(méi)有的分類(lèi),但它可以學(xué)習(xí)創(chuàng)造子集或匯總類(lèi)別。
其優(yōu)勢(shì)在于常常會(huì)執(zhí)行超參數(shù)調(diào)節(jié),這樣你就知道模型將會(huì)訓(xùn)練。更重要的是,你只需不到 1 個(gè)小時(shí)時(shí)間,僅用幾百?gòu)堄袠?biāo)注圖像就能構(gòu)建一個(gè)成功的遷移模型。
但是,自動(dòng)化深度學(xué)習(xí)的真正目標(biāo)是完全自動(dòng)化的超參數(shù)調(diào)節(jié),而不是遷移學(xué)習(xí)。你在下面會(huì)讀到,有的努力還在進(jìn)行中,而有的則宣稱(chēng)已經(jīng)實(shí)現(xiàn)了這一目標(biāo)。
微軟 Cu
鏈接:
2017 年底,微軟在 Microsoft Cognitive Services(微軟認(rèn)知服務(wù))的旗幟下推出了一系列極大簡(jiǎn)化后的深度學(xué)習(xí)功能,涵蓋圖像、視頻、文本和語(yǔ)音等各個(gè)領(lǐng)域。今年 1 月,他們又推出了完全自動(dòng)化的平臺(tái) Microsoft Custom Vision Services(微軟定制視覺(jué)服務(wù))。
這個(gè)平臺(tái)只是圖像分類(lèi)器,并且還向用戶(hù)承諾只需少量圖像就能使用微軟的巨大的已有大型、復(fù)雜、多圖像分類(lèi)器庫(kù)創(chuàng)建穩(wěn)健的 CNN 遷移模型。
使用這個(gè)平臺(tái)非常簡(jiǎn)單。只需將你的圖像拖放到這個(gè)平臺(tái)上然后繼續(xù)即可。你需要一個(gè)即付即用的 Azure 帳戶(hù),基本的技術(shù)支持是每個(gè)月 29 美元。模型訓(xùn)練的時(shí)間不是明確的,但因?yàn)槭沁w移學(xué)習(xí),所以應(yīng)該會(huì)很快,因此也不會(huì)太貴(但也不是免費(fèi)的)。
在項(xiàng)目設(shè)置過(guò)程中,你會(huì)被要求確定一個(gè)你的圖像集將會(huì)遷移學(xué)習(xí)的一般域,目前可選的有:
1. 一般(General)
2. 食物(Food)
3. 地標(biāo)(Landmarks)
4. 零售(Retail)
5. 成人(Adult)
6. 一般(緊湊)
7. 地標(biāo)(緊湊)
8. 零售(緊湊)
盡管所有這些模型都可以在訓(xùn)練后通過(guò) restful API 運(yùn)行,但最后三個(gè)類(lèi)別(標(biāo)記有「緊湊」)可以導(dǎo)出到任何 iOS 或安卓邊緣設(shè)備上離線(xiàn)運(yùn)行。在 iOS 11 上導(dǎo)出的格式是 CoreML 格式;在安卓設(shè)備上是 TensorFlow 格式。這應(yīng)該能吸引可能不是數(shù)據(jù)科學(xué)家的應(yīng)用開(kāi)發(fā)者為他們的應(yīng)用添加即時(shí)圖像分類(lèi)功能。
可以預(yù)見(jiàn)微軟未來(lái)還會(huì)盡快地推出更復(fù)雜的功能。
谷歌 Cloud AutoML
鏈接:
同樣在今年 1 月,谷歌也宣布了其類(lèi)似的項(xiàng)目 Cloud AutoML。這個(gè)平臺(tái)目前處于 alpha 開(kāi)發(fā)階段,需要邀請(qǐng)才能參與。
和微軟一樣,這個(gè)服務(wù)使用了谷歌自己預(yù)構(gòu)建的復(fù)雜 CNN 分類(lèi)器的遷移學(xué)習(xí)。他們推薦至少給每個(gè)標(biāo)簽提供 100 張圖像來(lái)遷移學(xué)習(xí)。
目前還不清楚該平臺(tái)在正式發(fā)布時(shí)會(huì)有哪些圖像類(lèi)別,但用戶(hù)截屏顯示至少有一般、人臉、logo、地標(biāo),也許還有其它一些。從谷歌分享的截圖看,這些模型的訓(xùn)練時(shí)間大約為 20 分鐘到幾個(gè)小時(shí)。
根據(jù)我們可以找到的數(shù)據(jù),這個(gè)平臺(tái)的使用方式應(yīng)該是通過(guò) API。沒(méi)有什么地方提到了導(dǎo)出代碼離線(xiàn)使用的情況。早期的 alpha 用戶(hù)包括迪斯尼公司和 Urban Outfitters。
可以預(yù)見(jiàn)很多新用戶(hù)都沒(méi)有有標(biāo)注的數(shù)據(jù),谷歌提供了它自己的人工標(biāo)注服務(wù),但要額外收費(fèi)。
除了遷移學(xué)習(xí)之外,包括谷歌在內(nèi)的主要公司都在推動(dòng)自動(dòng)化 CNN 和 RNN 優(yōu)化調(diào)節(jié)的自動(dòng)化方案。人工開(kāi)發(fā)的模型是當(dāng)前的常態(tài),也是需要如此多不成功的迭代的原因。
谷歌將這種下一代技術(shù)稱(chēng)為 Learn2Learn。當(dāng)前他們?cè)趯?shí)驗(yàn)用 RNN 來(lái)優(yōu)化層、層類(lèi)型、節(jié)點(diǎn)、連接和其它超參數(shù)。因?yàn)檫@基本上是非常高速的隨機(jī)搜索,所以計(jì)算資源可能非常高。
接下來(lái)要做的是用進(jìn)化算法來(lái)做同樣的事情,這在時(shí)間和計(jì)算上都會(huì)高效得多。在最近的演示中,谷歌研究者展示了這種方法的優(yōu)良結(jié)果,但他們?nèi)匀还馐窃趦?yōu)化上就花了 3 到 10 天。
OneClick.AI
鏈接:
OneClick.AI 是 2017 年底出現(xiàn)在市場(chǎng)上的一個(gè)自動(dòng)化機(jī)器學(xué)習(xí)(AML)平臺(tái),其中既包括傳統(tǒng)的算法,也包括深度學(xué)習(xí)算法。
OneClick.AI 光是 AML 方面也值得一看了,其中包括數(shù)據(jù)融合、準(zhǔn)備、特征工程、特征選擇,后面還有并行的傳統(tǒng)多模型,以確定其中最佳的模型。
但是,OneClick 的不同之處在于其既有圖像算法,也有文本算法;使用的方法既有遷移學(xué)習(xí),也有完全自動(dòng)化的超參數(shù)調(diào)節(jié)來(lái)重新修改圖像和文本深度學(xué)習(xí)模型。
不同于谷歌和微軟,OneClick 在圖像和文本上都準(zhǔn)備好了。除此之外,他們還將 DNN 與傳統(tǒng)算法組合到了一起,并且使用了 DNN 來(lái)做預(yù)測(cè)。
預(yù)測(cè)是使用 DNN 方面一個(gè)已經(jīng)探索過(guò)的領(lǐng)域,但事實(shí)表明其表現(xiàn)能輕松超過(guò) ARIMA 和 ARIMAX 等時(shí)序數(shù)據(jù)預(yù)測(cè)器。
對(duì)于這樣一個(gè)提供了如此復(fù)雜的工具和技術(shù)的平臺(tái)而言,它保持了「一鍵出模型」的簡(jiǎn)單易用性——我認(rèn)為這是自動(dòng)化機(jī)器學(xué)習(xí)的最低要求,但也包括自動(dòng)化深度學(xué)習(xí)。
他們用于優(yōu)化深度學(xué)習(xí)模型的方法是專(zhuān)有的,但該公司的創(chuàng)始人兼 CEO Yuan Shen 描述說(shuō)他們是用 AI 訓(xùn)練 AI——可能是一種深度學(xué)習(xí)優(yōu)化方法。
哪個(gè)平臺(tái)更好?
目前還沒(méi)有什么標(biāo)準(zhǔn)可以評(píng)估哪個(gè)平臺(tái)更好,但 OneClick.AI 提供了一個(gè)案例。
在今年初的一個(gè)黑客馬拉松上,該團(tuán)隊(duì)測(cè)試比較了 OneClick 和微軟的 CustomVision(谷歌的 AutoML 當(dāng)時(shí)還不可用)。他們測(cè)試了兩個(gè)圖像分類(lèi)問(wèn)題。標(biāo)記符合以下描述的照片:
奔跑的馬或喝水的馬:
裸照:
標(biāo)記馬的任務(wù)是一個(gè)多標(biāo)簽分類(lèi)任務(wù),裸照檢測(cè)是一個(gè)二元分類(lèi)任務(wù)。對(duì)于每個(gè)任務(wù),他們都使用了 20 張訓(xùn)練圖像以及另外 20 張測(cè)試圖像。
標(biāo)記馬的準(zhǔn)確度:90%(OneClick.ai)vs. 75%(微軟 Custom Vision)
裸照檢測(cè)準(zhǔn)確度:95%(OneClick.ai)vs. 50%(微軟 Custom Vision)
因?yàn)檫@個(gè)結(jié)果僅使用了遷移學(xué)習(xí)方面非常少量的樣本,所以不具有統(tǒng)計(jì)意義。但還是能看到差別。
這是遷移學(xué)習(xí)方面的比較。我們很有興趣了解自動(dòng)化模型優(yōu)化方面的比較。OneClick 準(zhǔn)備好了。谷歌應(yīng)該很快就會(huì)跟進(jìn)。
你可能想問(wèn)亞馬遜的情況?在我們的調(diào)研中沒(méi)看到亞馬遜在自動(dòng)化深度學(xué)習(xí)方面的計(jì)劃,但也不會(huì)落后太遠(yuǎn)。
1.《如何打開(kāi)adl格式文件》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識(shí),僅代表作者本人觀(guān)點(diǎn),與本網(wǎng)站無(wú)關(guān),侵刪請(qǐng)聯(lián)系頁(yè)腳下方聯(lián)系方式。
2.《如何打開(kāi)adl格式文件》僅供讀者參考,本網(wǎng)站未對(duì)該內(nèi)容進(jìn)行證實(shí),對(duì)其原創(chuàng)性、真實(shí)性、完整性、及時(shí)性不作任何保證。
3.文章轉(zhuǎn)載時(shí)請(qǐng)保留本站內(nèi)容來(lái)源地址,http://f99ss.com/keji/3221335.html