【延伸閱讀】《終結者》電影或成真?專家稱須防AI武器“反噬”
參考消息網9月19日報道 西班牙《阿貝賽報》網站9月17日發(fā)表了題為《自動化武器:殺人機器人的威脅》的報道,具體內容編譯如下:
全世界的軍隊因為全自動化武器的生產而發(fā)生了翻天覆地的變化。然而,正如愛爾蘭信息工程專家勞拉·多蘭所言,人類卻尚未掌握能夠保證這些武器不犯錯或誤傷大批平民的辦法。
多蘭指出,假如使用不當,這種武器就很可能導致大規(guī)模意外事故。因此任何武器都應當受到人類控制。假如無法受到控制,就必須禁止使用,因為此類武器或造成意想不到的危險后果。
多蘭多年來一直致力于信息工程領域的研究。他曾在谷歌公司任職,2017年曾參與美國國防部的“梅文計劃”。該計劃旨在招募人工智能領域的專業(yè)企業(yè),以達到在伊拉克、敘利亞和阿富汗等戰(zhàn)亂地區(qū)利用圖像識別技術作戰(zhàn)的目的。
從技術角度看,得益于人工智能技術的發(fā)展,美軍無人自動化武器(無人機)能夠識別打擊目標并實施攻擊,因此似乎沒有必要配備專人監(jiān)控這些自動化武器。但多蘭認為,這構成了一個巨大的風險,因為任何人都無法保障戰(zhàn)爭機器能夠準確識別一個舉著槍的戰(zhàn)士和一個同樣舉著槍的獵人。
多蘭還表示,如果由全自動化武器來決定孰死孰活,而無需人類介入,那么這無疑意味著一個巨大的道德缺口。機器畢竟是機器,它們缺乏人類特性,例如在作出艱難的道德倫理抉擇時所必需的同情心和同理心。

資料圖片:科幻電影《終結者》中的“天網”獵殺機器人。(西班牙《阿貝賽報》網站)
