AI武器:未來戰(zhàn)爭的全面升級
文/張?zhí)锟?/p>
發(fā)于2019.10.14總第919期《中國新聞周刊》
9月14日,沙特國家石油公司,即阿美石油公司的布蓋格煉油廠及胡賴斯油田兩處石油設施遭到無人機和導彈襲擊,導致沙特每天大約570萬桶的原油產(chǎn)量暫停供應,這占到了沙特產(chǎn)能的50%,也相當于全球5%的石油日消耗量。無人機襲擊的一個直接后果,是國際油價應聲而漲,16日一度飆升近20%。
9月18日,沙特國防部公布石油設施受攻擊的詳情。在此次襲擊中,攻擊方使用了18架無人機和7枚導彈。
此前,中東地區(qū)的無人機大戰(zhàn)已經(jīng)在各派之間頻頻展開。無人機(UAV)是利用無線電遙控設備和自備的程序控制裝置操縱的不載人飛機,或者由車載計算機完全或間歇自主地操作的飛行器和武器,因此它是AI產(chǎn)品。也許,無人機的加入戰(zhàn)爭和進一步改進,將與核武器的攻擊力旗鼓相當,甚至更厲害。
無人機加入戰(zhàn)爭意味著,AI深度加入戰(zhàn)爭的時代已經(jīng)來臨,且將導致重大的傷害和全面的戰(zhàn)爭升級,AI不介入軍事或戰(zhàn)爭的承諾已淪為笑話,潘多拉的魔盒已經(jīng)被打開。
無人機加入戰(zhàn)爭是對人類已經(jīng)意識到并愿意遵循的倫理的違背。人類在20世紀的核武器研發(fā)與應用曾一度是無意識的。提出了曼哈頓計劃的愛因斯坦后來曾說,如果知道原子彈能造成如此大的傷害,是決不會寫信給美國總統(tǒng)羅斯福建議研發(fā)原子彈的。
當今,全球最大的一些科技公司都提出了關于AI的倫理原則,其共同點就是不用于軍事和戰(zhàn)爭。2017年,116名全球人工智能和機器人領域的專家發(fā)表聯(lián)名公開信,呼吁聯(lián)合國采取行動禁止“自主殺人機器”(恐怖武器或智能武器)。此后,美國太空探索技術公司(SpaceX)CEO馬斯克與全球2400名機器人研發(fā)人員在斯德哥爾摩宣誓稱,“絕不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作?!蔽④泦T工也提出,反對參與美軍項目,因為這不符合公司AI倫理原則。
2018年4月,3000多名谷歌員工向谷歌首席執(zhí)行官桑德爾·皮查伊聯(lián)名上書,反對該公司參與五角大樓的軍用人工智能Project Maven項目。這個項目是利用機器人深度學習和人工智能分析、應用計算機視覺技術,幫助美國國防部從圖像和視頻中提取識別重點對象目標。由于員工的反對,谷歌被迫做出決定,在Project Maven合同2019年到期后,不再與五角大樓續(xù)簽。
然而,僅僅一些人和一些公司遵守“AI不加入軍事不用于戰(zhàn)爭不殺人”的倫理準則是不夠的,現(xiàn)在無機人機頻頻參與戰(zhàn)爭,襲擊人類住所與重大經(jīng)濟目標,已經(jīng)說明當今AI的倫理是非常脆弱的。2019年4月7日,谷歌新成立的AI倫理委員會只存活了不到10天即宣告解散,原因之一是,無人機公司首席執(zhí)行官吉布斯(Dyan Gibbens)加入倫理委員會后,重組了自己公司的舊部門,試圖將AI用于軍事領域。這一行為遭到了谷歌員工的反對,這說明,由公司發(fā)起的倫理委員會根本無法阻止這一勢頭。
軍事人員與一些科研人員支持AI武器的理由是,AI介入戰(zhàn)爭是為了避免大規(guī)模傷及無辜,如像核武器不分青紅皂白地殺死平民和常規(guī)武器地毯式轟炸濫殺無辜。所以,如果真是為了和平,就用精確制導武器消滅敵人來制止戰(zhàn)爭。因此,AI武器的出現(xiàn)和加入戰(zhàn)爭,是戰(zhàn)爭的第三次革命。
然而,實際上,無人機加入戰(zhàn)爭只會更肆無忌憚地襲擊軍事目標以外的民用和經(jīng)濟目標,現(xiàn)在,沙特兩處石油設施遭無人機攻擊已是最好的證明。盡管這次襲擊未造成人員傷亡,但對沙特經(jīng)濟和全球石油供應的影響是持續(xù)而深遠的,這也向世人公開展示,要想取得軍事勝利與實現(xiàn)政治目標,使用更新更好的AI武器是首選。
無人機會加劇未來戰(zhàn)爭的殘酷程度。2017年11月12日,一部由美國加州大學伯克利分校的教授斯圖爾特·拉塞爾與生命未來研究所合作拍攝的一部虛構影片開始在網(wǎng)絡上傳播。影片里,一種手掌大小的無人機殺人武器(Slaughterbots)配備了面部識別技術并攜帶炸藥,先由一架或幾架無人機炸開圍墻,后面的無人機進入大學和國會,通過面部識別,對準鎖定的目標大學生與國會議員進行爆頭屠殺。
雖然這只是虛擬場景,但在不遠的未來,小型無人機都可以配備人臉識別系統(tǒng)及聚能炸藥,在程序輸入后,可根據(jù)命令單獨作戰(zhàn),或集群作戰(zhàn),尋找和殺滅已知的個體或類似具有統(tǒng)一特征的人群,讓每個人無法逃脫大屠殺。這樣的AI武器比起原子彈來甚至更為厲害——至少原子彈爆炸時人們還有地下掩體可以保護,但在未來,任何人都無法逃脫AI武器的精準追殺。
依靠人臉識別技術追殺人的無人機,也還屬于初級的人工智能武器。根據(jù)對人工智能的分類,目前的AI武器可以分為三類。一類是完全由人類決定并由人遠程操作的無人機,現(xiàn)在美國的MQ-1“捕食者”偵察機就是代表。
第二類是機器人可以自己做一定的判斷,但在執(zhí)行任務期間,人類可以中斷或取消無人機的任務,如以色列的“哈比”自殺式無人機就屬于這一類。加州大學的拉塞爾教授所演示的無人機炸彈也屬于這一類。上述兩類武器都已經(jīng)用于實戰(zhàn)。
第三類,是人類完全不參與決策過程的自主型殺手無人機或機器人。這類機器本質上還是要由人來決定,即由人編程并在一定程度上讓無人機自己決策,但是,這類無人機的最大隱患在于,可能出現(xiàn)程序錯誤而導致誤傷,自主判斷做出人類意想不到或不會讓其進行的行動,如擴大打擊范圍和強度。另外,如果這類武器擴散到恐怖分子手中,會造成更大災難。
AI武器的這三種分類也來源于人工智能的三種分類:弱人工智能,只能完成某一項特定任務或者解決某一特定問題的人工智能;強人工智能或通用人工智能,可以像人一樣勝任任何智力性任務的智能機器;超人工智能或超級智能,可以像人類實現(xiàn)智能上的生物進化,對自身進行重編程和改進,即“遞歸自我改進功能”。
目前,在技術上,用超人工智能來打造殺人武器尚難以實現(xiàn),但現(xiàn)有的兩類人工智能武器已經(jīng)顯示了比常規(guī)武器更大的殺傷力,而且,由于可能出現(xiàn)程序錯誤,誰也不能保證無人機和機器人武器不會濫殺無辜?,F(xiàn)在已經(jīng)到了正視AI武器的危害并制定禁止AI武器規(guī)定的時候了!
迄今為止,聯(lián)合國已經(jīng)有《禁止核武器條約》《不擴散核武器條約》《關于禁止發(fā)展、生產(chǎn)、儲存和使用化學武器及銷毀此種武器的公約》《禁止細菌(生物)及毒素武器的發(fā)展、生產(chǎn)及儲存以及銷毀這類武器的公約》等條約,唯獨沒有禁止AI武器的國際法。
美軍曾明確表示不會禁止使用無人自動化武器,包括無人機、無人船艦等。他們提出的一個相當有力的理由是,當人們尚未完全了解AI武器時就要求禁止使用它,此舉無異于杞人憂天。實際上,美軍非但不會禁止,還會大力推廣AI武器的使用。
在這樣的背景下,即便國際社會愿意探討控制與禁止AI武器,可能也不會獲得廣泛支持和達成共識。人們還擔心,制定了禁止AI武器的國際公約,可能也無法阻止有人研發(fā)AI武器和使用AI武器。AI武器對未來人類戰(zhàn)爭的影響目前還難以估量,但必將是重大而深遠的。
《中國新聞周刊》2019年第37期
聲明:刊用《中國新聞周刊》稿件務經(jīng)書面授權