多位專家表示,由人工智慧(AI)驅動的尖端武器正在成為全球安全隱患,尤其是當其掌握在中共手中。專家警告,這種技術的性質很容易助長中共政權以及整個人類的一些最壞的心理傾向。
專家們認為,中共急於在軍事上超越美國,因此不太可能注意與致命的人工智慧技術相關的保障措施,而人工智慧技術本身正變得越來越危險。
美國智庫安全政策中心(Center for Security Policy)高級研究員、中國戰略評估專家塞耶(Bradley Thayer)說,「影響相當大,可能相當於核革命。」
如果中共向恐怖組織提供AI武器,從而使美軍陷入無休止的不對稱衝突,那也不足為奇。中共甚至可以保持距離,只提供零件,讓代理人組裝無人機,就像中國供應商向墨西哥販毒集團提供芬太尼前體,讓其製造、運輸和銷售毒品一樣。
軍事用途:殺手機器人
人工智慧開發者、人工智慧行銷公司Ink的聯合創始人瑞德爾(Alexander De Ridder)表示,目前,AI驅動的自主武器的開發進展迅速,非常不幸。他對《大紀元時報》說,「它們正在迅速變得更高效、更有效」,不過,「它們還沒有達到可以取代人類的地步。」
自主無人機、戰車、艦船和潛艇已經成為現實,此外,還有一些更奇特的模式,例如中國開發配備機槍的四腳機器狗。甚至連科幻恐怖片中的AI仿人機器人也在生產中。
當然,它們在現實世界中仍然相當笨拙,但瑞德爾認為,一旦這些機器人的實用性和可靠性達到市場要求,中國很可能會憑藉其製造實力開始大規模生產,「仿人機器人將充斥市場,然後就看程式設計師如何使用它們了」,這也意味著軍事用途。
人工智慧專家、FileMaker公司前技術長詹姆斯.邱(James Qiu)說,這種AI機器在處理圖像以辨別物體方面非常有效,譬如說,它們可以透過光學感測器探測到人類,這使得AI機器人非常善於瞄準目標,「這是一個非常有效的殺人機器。」
令人擔憂的不僅僅包括殺手機器人或無人機,還有各種非常規的AI武器,例如以AI來尋找電網或供水系統等關鍵基礎設施的漏洞。控制此類技術擴散顯得尤為艱巨。
電子將軍加入戰場指揮
一家財富500強跨國公司的AI專家兼數據研究負責人傑森.馬(Jason Ma)表示,在更廣泛的層面上,許多國家正在開發能夠為戰場決策提供資訊和協調的AI系統——電子將軍。
在中共軍隊最近進行的一場戰鬥演習中,AI直接參與指揮。傑森指出,美國軍方也有這方面的項目,「這是一個非常活躍的研發課題。」
他解釋,需求是顯而易見的。從歷史背景和過去的情報,到近乎即時的衛星數據,再到戰場上每台攝影機、麥克風和任何感測器的毫秒級輸入,戰場決策都要參考大量數據。
他說,人類「很難」處理如此不同的大量數據流,「戰爭越複雜,做出正確決策就變得越重要,就需要在幾秒甚至幾分之一秒內快速整合、總結所有這些訊息。」
削弱核威懾能力 破壞穩定局面
專家們一致認為,AI武器已經在重新定義戰爭,但其後果卻更為廣泛。塞耶說,這項技術正在使世界變得越來越不穩定。
從最基本的層面上講,在瞄準目標時,由AI驅動的武器可能會使擊落洲際彈道飛彈、探測和摧毀潛艇以及擊落遠端轟炸機變得更加容易。塞耶認為,這可能會削弱美國的「核三位一體」能力,讓對手肆無忌憚的「升級到核級別以上」。
「核三位一體」指由陸、海、空隨時發射核武的能力。當一個國家擁有三位一體的核子武器打擊能力時,也就等同於擁有全面性的核子武器威懾能力。
塞耶說,「人工智慧將影響到核三位一體中的每一個組成部分」,這些組成部分對於穩定的核威懾關係是絕對必要的。「冷戰期間人們普遍認為,核大國之間的常規戰爭是不可行的,但人工智慧正在顛覆這一認識,因為人工智慧在兩個核國家之間引入了常規衝突的可能性。」
他預測,如果人們繼續不加限制的開發AI驅動的武器系統,這種不穩定性只會惡化。儘管人工智慧正在極大的影響戰場,但還不是決定性的,而如果人工智慧達到了「不使用核武器就能打核戰爭的效果」,那世界就會陷入火藥桶。
「這是很有可能的,那將是一個極其危險的局面⋯因為它迫使可能受到攻擊的一方先發制人,不是忍受攻擊,而是主動侵略。」塞耶說,在戰爭術語中,這一概念被稱為「損害限度」(damage limitation),因為「你不想讓別人先動手,因為你會受到重創,所以你要先動手;這將極大的破壞國際政治的穩定。」
AI效率超乎常人 動搖人類控制權
至少在美國及其盟國中,人們普遍認為,要防止AI武器造成不可預見的破壞,最關鍵是要讓人類控制重要決策,尤其是涉及使用致命武力的決策。瑞德爾說,「人是有良知的」,能感到悔恨,並為自己的行為承擔後果,能吸取教訓,不再重複暴行。
瑞德爾說,「在任何情況下,都不能允許任何機器自主獨立的奪走人的生命。」這一原則通常被概括為「受人類控制」(Human in the Loop)。
然而,一些專家指出,這一人道原則已經被AI擁有的戰鬥性質所侵蝕。例如,在俄烏戰爭中,烏克蘭軍方不得不為無人機配備一定程度的自主能力,引導它們飛向目標,因為無人機與人類操作員的通訊受到了俄羅斯軍方的干擾。
前海軍情報官員、中國問題專家法內爾(James Fanell)表示,出於必要而取消人類控制,並不是一個新概念。
他以美國飛彈巡洋艦和驅逐艦上部署的「神盾戰鬥系統」(the Aegis Combat System)為例,它能自動探測和跟蹤空中目標,並發射飛彈將其擊落。法內爾說,通常飛彈發射由人類操作員控制,但也可以切換成自動模式,像是當目標太多,人類操作員無法追蹤時,系統會自行識別並摧毀目標。
在大規模無人機戰爭中,人工智慧能協調數千架無人機進行系統性攻擊。與人類必須批准每次射擊的一方相比,讓人工智慧自主射擊的一方將在速度上獲得很大優勢。
瑞德爾指出,無人機獨自射擊另一架無人機,這在道德上是可以接受的,但這可能會在戰場上釋放出大量的自主射擊,而且戰場上可能還有人類,這就會造成難以計數的附帶傷亡。
潛在危險 對AI產生信任感
然而,一旦人們接受了人工智慧在某些情況下可以自行射擊的事實,「受人類控制」的原則就會被動搖。法內爾說,「這是這種技術的自然演變,我不知道我們能做什麼來阻止它。在戰爭中,你不可能有道德準則規定⋯這是不可能的。」
多位專家一致認為,就算人類能夠控制宏觀決策,比如,是否執行特定任務,人工智慧也能輕易主導決策過程。危險是來自於表現出色的人工智慧,以至於能讓人類操作員產生信任感。
對於超級AI將遠遠超過人類的預言,瑞德爾持懷疑態度。不過他也承認,AI在某些方面顯然超過了人類,尤其是速度,它可以對堆積如山的數據進行運算,並幾乎立即得出結論。
傑森和詹姆斯認為,要想弄清人工智慧究竟是如何得出結論,幾乎是不可能的。瑞德爾說,他和其他人正在研究如何將人工智慧限制在類似人類的工作流程中,從而使其推理的各個步驟更加透明。
但傑森承認,考慮到所涉及的數據量驚人,如果人工智慧解釋每個資訊是如何影響其推理的,人類操作員一定會不知所措。
傑森說,「如果人類操作員清楚的知道,這是在人工智慧處理了數個TB的數據後做出的決定,那麼在大多數情況下,他將沒有勇氣推翻這個決定,所以我想,是的,這只是走形式。『受人類控制』的說法只是聊以自慰,實際上人類會很快放棄控制權。」
中共幾乎不可能遵守AI監管機制
事實上,所有專家都認為,公眾壓力很可能會限制AI武器的開發和使用,至少在美國是這樣。瑞德爾強調,即使人類只是名義上控制著一切,這仍然很重要,「只要我們讓人類知情,我們就能讓人類負起責任。」
傑森舉例,在員工的反對下,谷歌終止了一份國防契約,但他無法想像在中國會出現類似情況。詹姆斯對此表示贊同。他說,「中國國內的任何東西都是中共可以利用的資源,你不能說,『哦,這是一家私營公司』,因為中國本來就沒有私營公司。」
但瑞德爾認為,即使是中共也無法完全擺脫公眾的情緒,「只有民眾願意合作,政府才能生存。」
然而,並沒有跡象表明,中國民眾會認為人工智慧的軍事用途是一個迫切問題。傑森說,恰好相反,中國的公司和大學似乎正急於獲得軍事契約。
專家呼籲「建立一個可以執行的國際監管框架」,但目前還不清楚如何對中國執行這樣的法規,因為中共長期以來一直拒絕美國對其軍事發展施加任何限制。最近,對於美國要求保證不使用人工智慧做出核打擊的決定,也被中共拒絕了。
多位專家表示,如果美國對自己的人工智慧發展進行監管,可能會造成戰略漏洞。詹姆斯說,「中共將會仔細的研究這些監管規定,並利用其作為攻擊的工具。」
大多數專家都認為,無論人工智慧保障措施是否可行,中共都不太可能遵守。塞耶說,就算達成了某種協議,中共在信守承諾方面的紀錄也不佳,「任何協議都是畫餅充飢。」法內爾也說,「我不認為中國(共)會限制自己使用它,他們會試圖利用它,且能比我們更快的學會利用它。」
「要想阻止它 那就先打敗它」
瑞德爾希望各國能以破壞性較小的方式使用人工智慧。他說,「利用人工智慧來實現自己目標的方法有很多種,不需要向對方派遣成群的殺手級無人機,除非迫不得已,沒有人希望發生這些衝突。」
不過,其他專家認為,只要中共看到一條通往勝利的道路,就不介意挑起這樣的衝突。法內爾說,中共「不會受制於我們制定的規則,他們會不惜一切代價取得勝利。」
塞耶指出,不能依賴AI軍事顧問的耳語,雖然這種顧問透過處理大量數據和制定令人信服的作戰計畫來灌輸信心,但可能會特別危險,因為它可能會在以前沒有勝利的地方創造出勝利的願景。塞耶說,「你可以看到這對決策者有多大的吸引力,尤其是對像中共這樣具有超強侵略性的決策者,這可能會使其侵略性變得更強。」
「要想阻止它,只有一個辦法,那就是打敗它。」法內爾說道。
五角大廈網路評估辦公室前顧問德卡羅(Chuck de Caro)最近呼籲美國開發可使電腦晶片失效的電磁武器。他在「烈焰傳媒」(Blaze Media)上的一篇專欄文章中提出,有可能開發出能讓某種晶片失效的能量武器。
德卡羅表示,「很顯然,沒有正常運作的晶片,人工智慧就無法工作。」◇