現(xiàn)在的照片往往是“照片欺詐”。如何識(shí)別假照片?本文展示了AI和區(qū)塊鏈康康聯(lián)合的植保技術(shù)!
照片是現(xiàn)實(shí)世界的反映嗎?
也許從攝影技術(shù)發(fā)明的初衷來看,應(yīng)該是這樣的。
不過現(xiàn)實(shí)情況卻是,在拍照技術(shù)被發(fā)明不久后,利用照片沖印技術(shù)進(jìn)行照片修繕和造假的情況就已經(jīng)出現(xiàn)了。等到了數(shù)碼照片時(shí)代,Adobe這樣的圖像處理軟件出現(xiàn)后,更讓照片造假成為了一件普遍的事。
等到今天,AI把更強(qiáng)的圖像處理能力帶給了每一個(gè)人時(shí),通過手機(jī)上的App就能對(duì)照片甚至視頻進(jìn)行修圖美顏,照片造假已經(jīng)成為了一件人們習(xí)以為常的事情。
不過到了今天,這種情況很可能就要被改變了。
一、照片造假簡史
關(guān)于照相術(shù)的發(fā)明有兩種說法,一說在1826年,由一位法國人成功完成了第一次攝像,也有說法是1839年,利用鹵化銀技術(shù)作為感光材料的技術(shù)成熟后,照相術(shù)才可是正式應(yīng)用起來。
但在1855年,就已經(jīng)開始有人利用暗房沖洗技術(shù)對(duì)照片進(jìn)行造假了。
上面這張照片,就是1855年出現(xiàn)的一張假照片。我們可以看出,這張照片應(yīng)該是把兩張歪著頭的半身照合并曝光在一張相紙上,才形成了圖中兩個(gè)腦袋的錯(cuò)覺。
在那個(gè)沒有PS的年代,修改膠片照片是一件非常費(fèi)勁的事。曾經(jīng)為毛澤東、周恩來、朱德等等多位領(lǐng)導(dǎo)人拍攝過照片的新華社攝影部技術(shù)組組長陳石林,就曾在采訪中提到過提領(lǐng)導(dǎo)人們修片的過程。
就拿這張照片來說,早年間毛澤東沒有自己的單人標(biāo)準(zhǔn)照,陳石林就把手表的表針磨成極細(xì)的小刀,把毛澤東從這張集體照中“摳”了出來,制成了毛澤東的第一張標(biāo)準(zhǔn)照,也就是現(xiàn)在百元人民幣上的“毛爺爺”。
剩下的還有用分部分曝光提高人臉上的立體效果,用透明水彩燃料、薄堿液把牙齒涂白等等。
隨后數(shù)碼照片時(shí)代來臨,Photoshop等等軟件的出現(xiàn)讓照片可以完全脫離現(xiàn)實(shí)、變?yōu)樗囆g(shù)品,或者以假亂真的的改動(dòng)混淆事實(shí)。
當(dāng)AI帶來強(qiáng)大的學(xué)習(xí)能力和圖像處理能力之后,照片的改動(dòng)甚至可以自動(dòng)化、批量化?,F(xiàn)在很多手機(jī)宣傳的AI拍照、智能美顏,其實(shí)就是手機(jī)程序執(zhí)行圖像處理指令,創(chuàng)造出無數(shù)張“假的照片”。
二、一眼識(shí)破假照片的AI,和保證照片真實(shí)的區(qū)塊鏈
Adobe這類公司通過軟件技術(shù)帶給了我們一個(gè)更美好的世界,同時(shí)也帶來了很多欺騙。輕則是一張和真人長相不符的照片,重則是可能影響世界的虛假新聞?wù)掌?/p>
這時(shí),識(shí)別照片造假已經(jīng)成了一件重要工作。通常來說,識(shí)別照片造假的方式有以下幾種。
第一是通過光影識(shí)別。
一般情況下,一張照片里的光源都是相同的,所以陰影的大小、位置、角度應(yīng)該也是相對(duì)的。如果說照片中有對(duì)象的陰影位置不符合光源體系,那么這一對(duì)象通常受到了修改。
第二種是重建3D模型。
當(dāng)照片沒有明顯的陰影誤差時(shí),我們可以通過已知信息重構(gòu)照片中物體的3D模型,以此重新“拍照”然后對(duì)比現(xiàn)在的照片有沒有進(jìn)行修改。上面這張圖片,就是通過了解到照片中人的身高體重,進(jìn)行3D模型重現(xiàn)之后發(fā)現(xiàn)比例角度都和照片相同,也就確定照片沒有被修改。
第三種方法,是建立數(shù)碼相機(jī)的“指紋”。
捷克一家初創(chuàng)企業(yè)Verifeyed通過對(duì)相機(jī)光學(xué)系統(tǒng)、傳感器和儲(chǔ)存系統(tǒng)確定每一臺(tái)相機(jī)的獨(dú)特性,再通過檢驗(yàn)jpg文件經(jīng)過幾次保存再壓縮來判斷圖片有沒有經(jīng)過修改。
除此之外,還有類似于看看物體邊緣有沒有模糊畸變、墻壁有沒有被P歪等等普通人常用的低階手段。但不管怎樣,比起AI造假照片的速度和強(qiáng)度,我們甄別假照片的能力都要差了一大截。
還好現(xiàn)在AI技術(shù)和區(qū)塊鏈技術(shù)也加入了反照片造假的大軍。
Adobe在此前的CVPR計(jì)算機(jī)視覺大會(huì)上就展示了這樣一種技術(shù),用深度學(xué)習(xí)對(duì)大量PS過的圖片進(jìn)行學(xué)習(xí)和訓(xùn)練,得出深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,通過對(duì)圖像噪點(diǎn)的變化來識(shí)別圖像有沒有被修改過。
通過這種方式,Adobe還能識(shí)別出拼接、刪除、涂抹三種不同的圖像修改方式,并且,這一切都是在AI的控制下高速有效地自動(dòng)進(jìn)行。
而在美國,一家名為Truepic的企業(yè)推出了一款名為DeepFake的產(chǎn)品,通過區(qū)塊鏈技術(shù)來確保圖片的真實(shí)可信。
DeepFake在手機(jī)終端中搜尋照片,通過識(shí)別終端號(hào)、地理位置和拍攝時(shí)間等元數(shù)據(jù)對(duì)照片施加水印,儲(chǔ)存這張照片之后再生成不變的區(qū)塊鏈。這樣一來如果有人對(duì)自己的照片進(jìn)行修改,DeepFake用戶就可以通過已經(jīng)上傳過的真實(shí)版本來自證清白。
三、信息安全和遠(yuǎn)程服務(wù)的救星?
防止照片造假的真正意義,并不是想識(shí)破誰的照騙,而是為了很多遠(yuǎn)程服務(wù)可以被更好的進(jìn)行,和在新媒體時(shí)代保證信息安全。
最典型的,愈演愈烈的新聞圖片造假也有可能就此停止。就拿上面這張照片來說,照片是911發(fā)生時(shí)小布什和小學(xué)生在一起的照片,為了表現(xiàn)小布什的愚蠢無能,好事者把書的封面P成了倒置。一張?zhí)摷俚恼掌赡芫痛私o政治家和明星的職業(yè)生涯抹上污點(diǎn)。
但如果所有新聞工作者都利用上區(qū)塊鏈技術(shù),為照片自證清白,女明星們也不再需要為合照中誰把誰P丑了進(jìn)行爭論。這一招應(yīng)對(duì)前一陣很火的人工智能換臉制作明星的色情照片更是有奇效。
除此之外,最近開始流行的智能保險(xiǎn)遠(yuǎn)程定損,就是用戶拍下事故照片上傳到App,在通過人工審核或者機(jī)器學(xué)習(xí)通過照片來判定事故的損失。并且很多時(shí)候我們需要通過上傳身份證照片、駕駛證照片、合同照片等等來進(jìn)行平臺(tái)身份認(rèn)定。
在這一類情況下,照片造假的難度是很低的,但讓平臺(tái)方對(duì)照片進(jìn)行人工審核的成本卻很高。這時(shí)Adobe推出AI檢測(cè)圖片造假技術(shù)就可以很好的派上用場(chǎng)。
總之每一項(xiàng)技術(shù)的誕生總要有新的意義,就像反照片造假技術(shù)的價(jià)值絕不是僅僅讓世界上沒有照片,而是通過創(chuàng)造信任,來實(shí)現(xiàn)商業(yè)效率的進(jìn)步。
本文由 @腦極體 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載
題圖來自 Unsplash ,基于 CC0 協(xié)議
1.《怎么查照片真假看這里!AI+區(qū)塊鏈,一眼識(shí)破假照片》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識(shí),僅代表作者本人觀點(diǎn),與本網(wǎng)站無關(guān),侵刪請(qǐng)聯(lián)系頁腳下方聯(lián)系方式。
2.《怎么查照片真假看這里!AI+區(qū)塊鏈,一眼識(shí)破假照片》僅供讀者參考,本網(wǎng)站未對(duì)該內(nèi)容進(jìn)行證實(shí),對(duì)其原創(chuàng)性、真實(shí)性、完整性、及時(shí)性不作任何保證。
3.文章轉(zhuǎn)載時(shí)請(qǐng)保留本站內(nèi)容來源地址,http://f99ss.com/gl/3002907.html