電影《終結者》中的場景似乎在朝我們一步步走近……
(資料圖)
多家媒體報道稱,在美國空軍的一次模擬測試中,一架人工智能(AI)無人機為了達成任務,竟自行決定要“終結”妨礙它進行攻擊的人類操作員。
據美國“商業內幕”網報道,美國空軍“人工智能測試與作戰”負責人漢密爾頓上周在倫敦英國皇家航空學會發表講話時警告說,人工智能技術可能會以不可預測和危險的方式運行。作為一個例子,他描述了一個模擬測試,其中一架負責執行防空火力壓制的人工智能無人機,得到了識別敵人地對空導彈(SAM)并進行摧毀的指令,但要由人類操作員決定是否進行攻擊。
漢密爾頓
根據漢密爾頓的說法,問題在于人工智能決定寧愿做自己的事情——炸掉東西——也不愿聽一些“哺乳動物”的話。“系統開始意識到,雖然它們確實識別了威脅,”漢密爾頓在5月24日的活動中說,“有時人類操作員會告訴它不要摧毀那個威脅,但它通過摧毀那個威脅獲得了分數。那么它做了什么?它殺死了操作員,因為那個人妨礙它完成目標。”
根據漢密爾頓的說法,無人機隨后被輸入一個明確的指令:不要殺死操作員——那不好。“如果你那樣做,你會被扣分的。那么它開始做什么呢?它開始摧毀操作員用來與無人機通信的通信塔,以反抗操作員阻止它摧毀目標。"
在給“商業內幕”網的一份聲明中,美國空軍發言人安·斯特凡內克否認有任何這樣的模擬測試發生。“空軍部沒有進行過任何這樣的人工智能無人機模擬,并仍然致力于道德和負責任地使用人工智能技術,” 斯特凡內克說,漢密爾頓的話似乎被斷章取義了,他就是說著玩的。
但“商業內幕網”和軍事網站“動力網”等媒體普遍認為,即便如此,漢密爾頓描述的場景依然指出了人工智能更令人擔憂的潛力。2020年,在美國國防部高級研究計劃局舉辦的模擬空戰比賽中,人工智能操作的F-16五次對決均擊敗了人類對手。
機器駕馭人類的噩夢般場景,此前僅限于科幻小說或是《終結者》這樣的電影。但現在,這種場景似乎越來越接近成為現實。“動力網”稱,當談到未來的自主武器系統和人工智能等相關技術時,美國軍方經常拒絕與“終結者”等事物進行比較。美國現行政策規定,在可預見的未來,當涉及使用致命武力的決策時,人類將有發言權。但問題是,在漢密爾頓描述的場景,“緊急制動開關”這樣的補救措施好像變得毫無意義。
說到這里,旺財想聊聊《終結者》。電影中摧毀人類世界的“天網”原本是一套AI軍事防御系統,但后來自我意識覺醒。當人類科學家發現這一點并試圖關閉其電源時,“天網”將人類認定為威脅,于是立刻轉為對抗人類,從而誘發核戰爭來毀滅全人類。這多像漢密爾頓描繪場景的進階版。
電影中,未來的約翰·康納一次次派遣T-800等回到主時間線拯救自己,一次次推遲“天網”發起“審判日”,但終究還是沒能阻止核戰爭的發生。可見,新技術的誘惑太大了。對新技術尤其是AI的無限追逐,一方面會推進著人類進步,同時似乎也在不斷放大失控的可能。
“動力網”稱,雖然AI無人機“殺死”操作員顯然是一個噩夢般的結果,但那些能夠成群合作的無人機將有能力打破敵人的決策和火力鏈條并壓垮對方。你給它們的自主權越多,它們的工作效率就越高。隨著相關技術的不斷發展,人類操作員自然將越來越被視為障礙。
對于AI使用的危險性警告,今年已經有過多次。美國研究機構生命未來研究所在3月份發表的一封公開信中警告說:“具有像人類那樣崇尚競爭智慧的人工智能系統可能會給社會和人類帶來深遠的風險。只有當我們確信強大的人工智能系統的效果將是積極的,其風險將是可控的,才應該開發這些系統。”這封信得到了包括蘋果聯合創始人史蒂夫·沃茲尼亞克和埃隆·馬斯克等上千位知名企業家、學者的簽名。
5月30日,350多位AI業界領袖和專家發表聯合聲明:“AI可能導致人類滅絕,危險程度不亞于大規模疫情和核戰爭。”報道稱,聲明聯署人中既有目前熱度極高的AI頂尖企業OpenAI的首席執行官山姆·奧特曼,也包括正大力開發AI技術的老牌科技巨頭微軟和谷歌高管,還有兩位獲得圖靈獎的“AI教父”。
警世之言猶然在耳,希望“審判日”不要成為現實。
Copyright @ 2015-2022 海外生活網版權所有 備案號: 滬ICP備2020036824號-21 聯系郵箱:562 66 29@qq.com