大多數關於自動化的公共討論都與就業有關,這就是為什麽我們花了這麽多時間來研究它。第二個發生實質性討論的領域是機器人在戰爭中的應用。在過去的幾千年裏,技術已經幾十次改變了戰爭的麵貌。冶金、馬、戰車、火藥、馬鐙、大炮、飛機、原子武器和計算機都對我們互相殘殺的方式產生了重大影響。機器人和AI將再次改變它。
我們是否應該製造能夠根據編程設定的要素做出自主殺戮決定的機器人武器?支持者堅持認為,機器人可以減少平民死亡人數,因為機器人將精準地遵守協議,不會濫殺無辜。在一瞬間,一個士兵,由於遭受疲勞或恐懼,可能會犯一個致命的錯誤。然而,對於機器人來說,它所需的刹那間就能完成任務,沒有疲勞、恐懼,更沒有致命錯誤。
這很可能是真的,但這並不是世界各國軍隊采用AI機器人的主要動機。這些武器之所以吸引他們,有三個原因。首先,它們在執行任務時比人類士兵更有效;其次,軍隊擔心潛在的對手正在開發這些技術,所以想先發製人;最後,他們將通過部署機器人來減少軍隊的人員傷亡。最後一個原因有一個令人不寒而栗的副作用:它可以降低戰爭的政治成本,從而使戰爭變得更加普遍。
目前的核心問題是,是否應該允許機器獨立決定殺死誰和放過誰。當我說眼前的決定是我們是否應該建造殺手機器人時,並沒有過於誇張。這裏沒有“我們是否有能力建造”的疑問,沒有人懷疑我們能做到。問題是:我們應該嗎?
許多從事人工智能研究但不與軍方合作的人認為我們不應該這樣做。1000多名科學家簽署了一封公開信,敦促禁止完全自主的武器係統。史蒂芬·霍金在2014年撰寫的一篇社論中表示,這些武器最終可能會通過AI軍備競賽的形式毀滅整個人類。