參考消息網(wǎng)5月14日報道 美國石英財經(jīng)網(wǎng)站5月11日發(fā)表了賈斯廷·羅爾利希的題為的文章,現(xiàn)將原文編譯如下:
自主致命性武器——批評者稱之為“殺人機器人”——的出現(xiàn)讓許多分析人士感到驚恐。在沒有人類近距離控制的情況下,裝備了人工智能的某些此類武器能以士兵無法企及的速度和效率選定并消滅目標(biāo)。
包括美國在內(nèi)的多個國家正在研發(fā)自主致命性武器,相關(guān)項目包括裝備人工智能的無人坦克、無人戰(zhàn)斗機等。
各國就此自行實施了一些準則,但專家說這些還不夠。美國軍方政策規(guī)定,無人武器裝備作出開火決定時必須有“適當(dāng)程度的”人類判斷,但并未對此作出明確定義,而且允許有例外。美國也是反對在該領(lǐng)域進行國際監(jiān)管的少數(shù)國家之一。
不過,擔(dān)心爆發(fā)軍備競賽的荷蘭非政府組織“和平”反戰(zhàn)組織最新發(fā)表的報告稱,要想防止最終的災(zāi)難,除了全面禁止之外別無選擇。
資料圖片:科幻電影中的天網(wǎng)機器人。
資料圖片:未來士兵想象圖。
這種擔(dān)憂不無道理。人工智能專家認為這種武器將引發(fā)“第3次戰(zhàn)爭革命”。和前兩次戰(zhàn)爭革命——黑色火藥和核彈——一樣,此類武器系統(tǒng)能迅速證明其價值,讓擁有它們的一方獲得幾乎不可超越的技術(shù)優(yōu)勢。
如果不加以禁止,人工智能武器可能在全世界的軍隊中投入使用。就像社交媒體一樣,在相關(guān)公司強烈抵制——而同時技術(shù)還在飛速發(fā)展——的情況下,試圖到后來再回溯性地實施監(jiān)管將被證明困難重重。
正如“和平”組織所聲稱的,“將生死決定權(quán)交給機器或算法是極不道德的”。
問題是,我們會及時行動起來嗎?對于人工智能武器,快速采取行動極為重要。
解禁“殺人機器人”?美軍AI發(fā)展戰(zhàn)略涉?zhèn)惱頎幾h
參考消息網(wǎng)2月15日報道 據(jù)英國網(wǎng)站2月14日報道稱,美國軍方希望擴大人工智能在戰(zhàn)爭中的應(yīng)用,但表示會注意按照國家價值觀部署該技術(shù)。
報道稱,在一份17頁的報告中,五角大樓闡述了如何向未來的軍事行動注入人工智能,以及如何跟上俄羅斯和中國在未來技術(shù)方面的進展。
這份名為的報告標(biāo)志著,五角大樓首次就如何應(yīng)對人工智能的興起制定了戰(zhàn)略。
該戰(zhàn)略規(guī)劃要求加快在全軍使用人工智能系統(tǒng),執(zhí)行從情報搜集行動到預(yù)測戰(zhàn)機或艦船維護問題等一系列任務(wù)。它敦促美國在被其他國家削弱其技術(shù)優(yōu)勢之前,迅速推進此類技術(shù)。
報告稱:“其他國家,尤其是中國和俄羅斯,也在為軍事目的對人工智能進行大量投資,其中包括那些在國際準則和人權(quán)方面受到外界質(zhì)疑的應(yīng)用?!?img src="http://f99ss.com/d/uploads/2020/08/04/yaxv053y1k4.jpg" />
?
報告幾乎沒有提及自動化武器,但引用了2012年的一項要求人工掌控的軍事指令。包括美國在內(nèi)的少數(shù)幾個國家,一直在聯(lián)合國阻撓國際社會對“殺人機器人”設(shè)下禁令。有朝一日,這種完全自主的武器系統(tǒng)可能在沒有人類干預(yù)的情況下發(fā)動戰(zhàn)爭。
美國認為,試圖對“殺人機器人”進行監(jiān)管還為時過早。
報道認為,五角大樓本周公布的這項戰(zhàn)略報告的重點是更即時的應(yīng)用,但即便是其中的一些應(yīng)用也引發(fā)了倫理辯論。
去年谷歌的內(nèi)部抗議導(dǎo)致這家科技公司退出Maven項目后,五角大樓在人工智能領(lǐng)域遇到了障礙。Maven項目是利用演算法分析沖突地區(qū)的航拍圖像。
其他公司試圖填補這一真空,五角大樓正與業(yè)界和學(xué)術(shù)界的人工智能專家合作,為其人工智能應(yīng)用制定倫理準則。
美國雷神公司人工智能部門副總裁托德·普羅伯特說:“我們所看到的一切都是由人類決策者來決定的。”
普羅伯特說:“該項目正在利用技術(shù)幫助加快這一進程,但并沒有取代現(xiàn)有的指揮結(jié)構(gòu)。”
專家警告:殺人機器人軍備競賽或?qū)е聦ζ矫裢罋?/p>
參考消息網(wǎng)11月21日報道 英國網(wǎng)站11月17日發(fā)表了題為的報道。
一名人工智能專家透露,美國、英國、俄羅斯、以色列等國正卷入一場打造殺人機器人軍團的競賽。
從自主射擊槍械和無人機到遙控超級坦克,美國和俄羅斯的原型機器人已經(jīng)打造成功并整裝待發(fā)。而人形機器人上戰(zhàn)場也不過是幾十年內(nèi)就會出現(xiàn)的事情——并為這個世界勾勒出可怕的前景。
英國設(shè)菲爾德大學(xué)的人工智能與機器人學(xué)榮譽教授諾埃爾·沙爾基對本網(wǎng)站記者說:“一場軍備競賽已經(jīng)拉開序幕?!?/p>
沙爾基說:“我們現(xiàn)在看到,美國、以色列和俄羅斯已經(jīng)開始了。如果這些東西登場,那么它們隨時可能意外觸發(fā)戰(zhàn)爭?!?/p>
他還說:“怎樣才能取締它們?你完全可以把這些東西永遠擱置起來,可它們只需再充一次電就能再次啟動?!?/p>
如今,人工智能機器人正在全球掀起一股熱潮。沙爾基教授擔(dān)心,殺人機器人的研發(fā)可能也有著如此驚人的速度。因此,他正在領(lǐng)導(dǎo)一場禁止殺人機器人的全球運動。
在本網(wǎng)站披露了相關(guān)的最新進展——美國機器人做后空翻——后,這名專家警告說,俄羅斯的最新項目“絕對令人害怕”。
沙爾基表示:“還有很可怕的東西……俄羅斯人研發(fā)出了這個被稱為‘超級坦克’的東西,而它是世界上最先進的坦克,領(lǐng)先很多。它絕對是一個擁有巨大破壞力的龐然大物,而且他們可以遠程遙控它。他們還在努力以最快速度把它變成一種全自動的機器人?!?/p>
雖然自主武裝機器人比人形機器人領(lǐng)先很多年,但沙爾基教授擔(dān)心,可能出現(xiàn)的人形機器人也許會給世界帶來災(zāi)難——導(dǎo)致對平民的大屠殺。
在警告殺人機器人的可怕后果時,沙爾基教授說:“這不可能符合戰(zhàn)爭法,它們能區(qū)分某個目標(biāo)是軍事目標(biāo)還是民用目標(biāo)嗎?這是戰(zhàn)爭法的關(guān)鍵。”
他說:“殺死試圖投降的人也是不允許的。我知道很多人以為投降就是舉白旗,其實投降是指任何表明不再戰(zhàn)斗的姿態(tài),比如手無寸鐵地躺在地上……但機器人無法對此加以區(qū)分。我個人最大的擔(dān)心是,這會對全球安全造成怎樣的破壞——因為一場此類武器的軍備競賽已經(jīng)拉開序幕。”
資料圖片:能做后空翻的美國機器人。
英媒:殺人機器人與現(xiàn)代戰(zhàn)爭密切相關(guān) 要求取締或為時已晚
參考消息網(wǎng)9月8日報道 英國網(wǎng)站8月22日發(fā)表了題為的報道。
對于機器人技術(shù)和人工智能領(lǐng)域?qū)<野l(fā)出的取締“殺人機器人”的呼聲,有一種回應(yīng)是:你們?yōu)槭裁礇]有早些想到這一點?
在呼吁制定這方面禁令的116名專家當(dāng)中,包括像特斯拉公司首席執(zhí)行官埃隆·馬斯克這樣的重量級人物。他們說:“讓我們采取行動的時間不多了。一旦潘多拉盒子被打開,就很難再關(guān)上?!钡腔蛟S這樣的系統(tǒng)早就存在,比如由英國BAE系統(tǒng)公司研發(fā)的“雷神”隱身無人戰(zhàn)機,或者由三星公司制造并被部署到韓國邊境的SGR-A1無人哨戒機槍。自動坦克也在籌劃之中,而人類對于會造成傷亡的無人機的控制正在變成只是程度大小的問題。
不過從本質(zhì)上講,自從機器人問世,殺人機器人就伴隨我們左右。1920年捷克作家卡雷爾·恰佩克創(chuàng)作的科幻劇本讓我們第一次擁有了機器人這個詞。他筆下的人形機器人反抗并屠殺人類。從那以后,機器人一直在做這樣的事情,從賽博人到終結(jié)者。關(guān)于機器人的故事很少有好的結(jié)局。
甚至很難不在機器人世界末日即將到來的背景下去思考馬斯克和與他一道發(fā)聲的人所提出的這個問題。即便人類最終的命運沒有面臨威脅,我們也知道其中的某一臺機器會出現(xiàn)故障,產(chǎn)生像中Omni公司的機器人警察所制造的那種混亂。
這似乎讓一個極為嚴肅的話題變得過于輕松。這些故事盡管引發(fā)了人們深層的恐懼,說到底不過是娛樂。不過,讓這一討論的焦點最終集中在機器人技術(shù)有好有壞上,進而暗示只要我們避免壞的技術(shù),就會天下太平,這樣的方式未免過于簡單。
這個問題要更為復(fù)雜。一方面,這涉及更廣泛、也越來越緊迫的機器人道德規(guī)范的問題;另一方面,這也關(guān)乎現(xiàn)代戰(zhàn)爭的本質(zhì)。
我們?nèi)绾巫屪詣蛹夹g(shù)系統(tǒng)既安全又遵守道德規(guī)范?避免機器人給人類造成傷害是阿西莫夫在小說中所探討的主題,這本科幻小說短篇集對后世影響巨大,以至于阿西莫夫的“機器人三定律”如今有時幾乎與牛頓的三大定律一樣重要。具有諷刺意味的是,阿西莫夫的小說主要是關(guān)于這些出發(fā)點良好的定律如何在一些情況下遭到破壞的。
無論如何,道德問題不能簡單地被當(dāng)做一個放之四海而皆準的原則。歷史學(xué)家尤瓦爾·諾亞·哈拉里指出,無人駕駛汽車需要一些行為準則來確定在面對不可避免并有可能致命的碰撞時應(yīng)該怎樣做:機器人應(yīng)該去救誰?哈拉里說,或許我們會得到兩種模式:利己主義和利他主義。
“人權(quán)觀察”組織2012年的一份關(guān)于殺人機器人的報告帶有些許科幻色彩。報告說:“將害怕的平民與具有威脅性的敵方戰(zhàn)斗人員區(qū)分開來,需要士兵了解一個人行為背后的動機,這是機器人辦不到的事情?!贝送?,“機器人不能受到人類情感和共情能力的約束,而這種情感和共情能力會對殺戮平民的行為起到重要的阻止作用?!钡乔懊娴恼f法是在表達一種信仰——使用生物特征識別技術(shù)的機器人在作出評估方面難道不比用直覺去判斷的驚恐的士兵更勝一籌嗎?至于后面的說法,給人的感覺是:有時的確如此。但是另外一些時候,身處戰(zhàn)區(qū)的人也會肆意強奸和屠殺。
這樣說不是要反駁報告對于自動機器人士兵的恐懼,我本人也同樣對這樣的前景感到害怕。不過,這讓我們又回到了一個關(guān)鍵的問題上,這個問題無關(guān)技術(shù),而是關(guān)乎戰(zhàn)爭。
目前我們對于戰(zhàn)爭倫理的看法已經(jīng)帶有強烈的隨心所欲的色彩。“人權(quán)觀察”組織的報告說:“使用完全自動的武器帶來了問責(zé)方面的嚴重問題,這會破壞在平民保護方面的已有手段?!边@樣的觀點不假,但是只要核武器在國際范圍內(nèi)是合法的,這種說法在道德倫理上就站不住腳。
自動化軍事技術(shù)的問題與不斷變化的戰(zhàn)爭性質(zhì)本身存在密切的關(guān)聯(lián),在恐怖主義和叛亂活動頻繁的年代,戰(zhàn)爭不再有開始或結(jié)束,也不再有戰(zhàn)場或軍隊:正如美國戰(zhàn)略分析家安東尼·科德斯曼所言:“現(xiàn)代戰(zhàn)爭所帶來的教訓(xùn)之一是,戰(zhàn)爭不再能稱之為戰(zhàn)爭?!辈还芪覀?nèi)绾螒?yīng)對這一問題,戰(zhàn)爭都不會再像諾曼底登陸。
古往今來的戰(zhàn)爭無不在使用當(dāng)時可以獲得的最先進的技術(shù);“殺人機器人”也不例外。潘多拉的盒子隨著煉鋼技術(shù)的出現(xiàn)而被打開,或者打開得更早。可以肯定,有人從中得到了好處。
我們務(wù)必克制自己要鑄犁為劍的沖動,不過讓國際武器貿(mào)易行業(yè)不要制造殺人機器人就如同讓飲料制造商不要制造橙汁。
資料圖片:圖為英國“雷神”隱身無人戰(zhàn)機。
1.《殺人機器人 危險程度堪比核武?“殺人機器”研發(fā)或引發(fā)災(zāi)難》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識,僅代表作者本人觀點,與本網(wǎng)站無關(guān),侵刪請聯(lián)系頁腳下方聯(lián)系方式。
2.《殺人機器人 危險程度堪比核武?“殺人機器”研發(fā)或引發(fā)災(zāi)難》僅供讀者參考,本網(wǎng)站未對該內(nèi)容進行證實,對其原創(chuàng)性、真實性、完整性、及時性不作任何保證。
3.文章轉(zhuǎn)載時請保留本站內(nèi)容來源地址,http://f99ss.com/guoji/36945.html