一方面,誰能為智能武器的“濫殺無辜”來買單。人工智能武器的智能化一旦超過一定程度,是否會出現(xiàn)自作主張甚至濫殺無辜的情況,我們不得而知。就拿美軍對藏匿的恐怖分子開展定點清除行動來說,無人機在殺死武裝人員的同時也可能“誤殺”了大量平民,這還是在有人干預的情況下。一旦人被完全排斥在“戰(zhàn)爭回路”之外,智能作戰(zhàn)平臺由于自身的“不靠譜”極有可能造成武力濫用,或?qū)?zhàn)爭倫理道德產(chǎn)生巨大沖擊。
另一方面,智能武器的戰(zhàn)場失控程度難以估量。武器的智能化程度越高,其內(nèi)部控制軟硬件的規(guī)模就越龐大、復雜,出現(xiàn)故障的概率也相應增大。資料顯示,美國空軍一架無人機曾突然自動向地面一處重要設施發(fā)射導彈,而事故原因是飛機的火控系統(tǒng)出了故障。在戰(zhàn)備值班與演習過程中,美軍也多次出現(xiàn)通用戰(zhàn)場態(tài)勢分析系統(tǒng)因軟件故障而被迫中斷的情況,進而導致作戰(zhàn)方案無法按時生成。
絕不能離開人類的控制
人工智能和無人作戰(zhàn)帶給人類的究竟是威脅還是發(fā)展,關(guān)鍵在于如何利用。人作為“戰(zhàn)爭回路”的主體,必須牢牢掌握未來智能戰(zhàn)爭的“開火權(quán)”。
人們在研制智能無人作戰(zhàn)系統(tǒng)時,為防止出現(xiàn)因失控而導致的意外事故,要求操作人員在必要時可以解除系統(tǒng)功能。英國空軍研制的“雷神”無人飛行器可攜帶武器直接攻擊地面目標,盡管該型無人機上裝備有可識別危險目標的機載計算機,但目前依然主要采用由地面人員控制的工作模式,發(fā)起攻擊時必須通過地面人員授權(quán)才能開火。
此外,還可以在智能作戰(zhàn)平臺中提前進行設置。一方面,可以通過代碼控制智能武器的“大腦”。在智能武器出廠啟用之前,人們可以提前設置“后門”式自毀模塊,從而在需要時令智能武器徹底死機或自行報廢。同時,由于智能武器的控制中樞是計算機,可在編寫軟件時加入相關(guān)控制程序。另一方面,智能武器的攻擊目標和攻擊方式也應受到明確限制。例如,如何使“武裝自主系統(tǒng)”摧毀敵方武器而非作戰(zhàn)人員,便可以通過設計來實現(xiàn)。
當然,更直接的辦法是只為智能武器平臺配備非致命性武器。未來,電磁脈沖武器、網(wǎng)絡攻擊武器、高功率微波武器等新概念武器,或?qū)橹悄芪淦髌脚_的安全使用提供新的技術(shù)思路。
人機協(xié)同是“最優(yōu)解”
無論未來的武器系統(tǒng)如何高度智能化,人是戰(zhàn)爭的主導因素這一基本條件不會改變。未來智能化戰(zhàn)爭,允許改變的只是人與武器裝備的戰(zhàn)場協(xié)作方式,人機協(xié)同將成為無人武器戰(zhàn)場運用的“最終答案”。
目前,美軍正在進行“有人-無人”協(xié)同作戰(zhàn)試驗,其中較為著名的當屬“忠誠僚機”計劃。“忠誠僚機”計劃就是為有人戰(zhàn)斗機找一群忠誠可靠的無人僚機,從而大幅提升人機協(xié)同作戰(zhàn)能力。據(jù)專家估算,即便擁有極高計算能力,無人僚機在響應或執(zhí)行指令時通常會有2秒鐘的滯后,這在瞬息萬變的智能化戰(zhàn)爭中是“致命傷”??紤]到人類大腦可以更為迅速地響應事態(tài)發(fā)展,人類飛行員依舊是未來戰(zhàn)場不可或缺的作戰(zhàn)主力。
作為美軍“第三次抵消戰(zhàn)略”重點發(fā)展的技術(shù)領(lǐng)域之一,“忠誠僚機”計劃有望首先發(fā)展出由第四代戰(zhàn)斗機改進而來的無人駕駛僚機。2017年4月,“臭鼬工廠”就與美國空軍研究實驗室等機構(gòu)一起完成了基于“忠誠僚機”概念的人機編組實驗,實現(xiàn)了無人僚機自主與長機編隊飛行并開展對地打擊,為美軍新型作戰(zhàn)模式打上了一針“強心劑”。
可以預見,隨著“有人-無人”協(xié)同作戰(zhàn)的穩(wěn)步發(fā)展,智能武器系統(tǒng)不僅將作為“戰(zhàn)場先鋒”實施偵察監(jiān)視、障礙排除、火力摧毀等作戰(zhàn)任務,還可進一步實現(xiàn)有人與無人作戰(zhàn)力量的混合編組。如此一來,不僅避免了無人作戰(zhàn)平臺“濫殺無辜”,還能以少量人力來指揮大量智能武器系統(tǒng)作戰(zhàn)。這種有人參與的“無人戰(zhàn)爭”,或?qū)⒊蔀槲磥碇悄芑瘧?zhàn)爭的新常態(tài)。

