給AI自主武器及早戴上“緊箍咒”

2024-04-30 18:53:01 來源: 科技日報 點擊數(shù):

科技日報記者?劉霞

《自然》網(wǎng)站在近日的報道中指出,由人工智能(AI)加持的致命自主武器已經(jīng)到來,AI可能會幫助它們攻擊特定目標(biāo)。研究人員、法律專家和倫理學(xué)家正努力解決如何在戰(zhàn)場上使用這些武器的問題。


美國空軍的X-62A VISTA飛機(jī)已測試通過AI進(jìn)行先進(jìn)空中機(jī)動的能力。
圖片來源:《自然》網(wǎng)站

AI增強(qiáng)武器性能

自主武器至少已經(jīng)存在了幾十年,如熱追蹤導(dǎo)彈,但AI算法的開發(fā)和使用正在擴(kuò)展其能力。

研究人員指出,AI擁有卓越的處理和決策技能,理論上具有顯著優(yōu)勢。在快速圖像識別的年度測試中,近十年來算法的表現(xiàn)一直優(yōu)于人類專家。例如,去年一項研究表明,AI能比人類專家更快發(fā)現(xiàn)論文中重復(fù)出現(xiàn)的圖像。此外,在2020年,一個AI模型在一系列模擬混戰(zhàn)中擊敗了一名經(jīng)驗豐富的F-16戰(zhàn)斗機(jī)飛行員,這要歸功于“該AI模型具有人類飛行員無法匹敵的精確操作”。

這預(yù)示著,包括AI無人機(jī)在內(nèi)的致命自主武器正進(jìn)入研發(fā)快車道。


2023年3月,一名士兵準(zhǔn)備用無人機(jī)攜帶手榴彈作戰(zhàn)。
圖片來源:《自然》網(wǎng)站

美國國防部已為“復(fù)制者”計劃撥款10億美元。2023年8月28日,美國國防部副部長凱瑟琳·??怂剐剂恕皬?fù)制者”計劃,其目標(biāo)是在未來18—24個月內(nèi)生產(chǎn)、交付和部署數(shù)千個無人作戰(zhàn)系統(tǒng)。使用AI實現(xiàn)自動駕駛和射擊的實驗性潛艇、坦克和艦艇已經(jīng)問世,商用無人機(jī)也可以使用AI圖像識別功能瞄準(zhǔn)目標(biāo)并將其炸毀。

美國戰(zhàn)略與國際研究中心安全分析師扎克·卡倫伯恩指出,AI武器很容易鎖定紅外或強(qiáng)大的雷達(dá)信號,并將其與數(shù)據(jù)庫進(jìn)行比較以輔助決策。這意味著,當(dāng)AI武器在戰(zhàn)場上檢測到來襲雷達(dá)信號的來源時,可在幾乎不傷害平民的情況下進(jìn)行射擊。AI無人機(jī)也可就飛離對手的距離和攻擊角度作出非常復(fù)雜的決定。

用于戰(zhàn)場引爭議

AI增加了致命自主武器的速度和規(guī)避防御的能力。一些觀察人士擔(dān)心,未來任何集團(tuán)都可派遣大批廉價的AI無人機(jī)前往戰(zhàn)場,使用面部識別技術(shù)消滅目標(biāo)對象。

理論上,AI還能用于戰(zhàn)爭的其他方面,如編制潛在目標(biāo)清單。有媒體報道稱,以色列使用AI創(chuàng)建了一個包含數(shù)萬名疑似武裝分子姓名的數(shù)據(jù)庫。不過,以色列軍方對此進(jìn)行了否認(rèn)。

2017年,美國加州大學(xué)伯克利分校計算機(jī)科學(xué)家、著名反AI武器活動家斯圖爾特·拉塞爾幫助制作了名為“殺戮機(jī)器人”的視頻,突出了將AI用于戰(zhàn)爭可能帶來的風(fēng)險。視頻展示了在不久的將來,配備面部識別系統(tǒng)的微型無人機(jī)裝配炸藥,成為恐怖的“AI殺手”。它們能鎖定并殺死目標(biāo)或攻擊特定人群,如穿著制服的人。

AI在戰(zhàn)場上出現(xiàn),引發(fā)了研究人員、法律專家和倫理學(xué)家的爭論。

一些人認(rèn)為,AI輔助武器可能比人類引導(dǎo)的武器更精確,能減少死亡和致殘士兵人數(shù),減輕附帶傷害,如平民傷亡和對居民區(qū)的破壞,同時幫助弱勢國家和群體自衛(wèi)。另一些人則強(qiáng)調(diào),這些AI加持的自主武器可能會犯下災(zāi)難性錯誤。

而卡倫伯恩認(rèn)為,主要問題不在于技術(shù)本身,而在于人類如何使用這項技術(shù)。

亟待制訂相關(guān)規(guī)則

多年來,研究人員一直在努力控制這種AI增強(qiáng)武器可能帶來的威脅,聯(lián)合國已經(jīng)邁出了至關(guān)重要的一步。


2023年7月,聯(lián)合國安理會討論了AI增強(qiáng)武器的問題。
圖片來源:《自然》網(wǎng)站

去年12月,聯(lián)合國一項決議將致命自主武器列入今年9月聯(lián)合國大會議程。聯(lián)合國秘書長安東尼奧·古特雷斯去年7月表示,他希望2026年前禁止可在沒有人類監(jiān)督情況下使用的武器。

專家認(rèn)為,此舉為各國對AI武器采取行動提供了一條現(xiàn)實途徑。但說起來容易做起來難,部分原因在于各國對法律的實際內(nèi)容缺乏共識。2022年的一項分析發(fā)現(xiàn),“自主武器”至少有十幾個定義。

拉塞爾說,這些定義范圍很廣,并沒有達(dá)成共識。例如英國認(rèn)為,致命自主武器“能夠理解更高層次的意圖和方向”;德國則將“自我意識”視為自主武器的必要屬性,而大多數(shù)研究人員認(rèn)為現(xiàn)在的AI遠(yuǎn)未獲得這種能力。

卡倫伯恩表示,任何關(guān)于致命自主武器的禁令都很難通過檢查和觀察來執(zhí)行,因為AI很容易隱藏或更改系統(tǒng)狀態(tài)。

所有這些問題都將在今年9月的聯(lián)合國大會上進(jìn)行討論。

責(zé)任編輯:常麗君

抱歉,您使用的瀏覽器版本過低或開啟了瀏覽器兼容模式,這會影響您正常瀏覽本網(wǎng)頁

您可以進(jìn)行以下操作:

1.將瀏覽器切換回極速模式

2.點擊下面圖標(biāo)升級或更換您的瀏覽器

3.暫不升級,繼續(xù)瀏覽

繼續(xù)瀏覽