◎蒲正寧(中華基督教網路發展協會副秘書長)
2026年初,一場原本屬於科技產業與國防系統之間的合約談判,逐漸演變成一場公開的衝突。美國人工智慧公司Anthropic的創辦人達里歐‧阿莫戴(Dario Amodei),在與美國國防部的合作談判中,拒絕讓公司旗下的人工智慧模型被用於兩種用途:一是大規模監控本國人民,另一是完全由機器自行決定攻擊目標的致命武器系統。
一項引發各界矚目的武器談判
美國國防部方面則要求移除這些限制,主張只要用途符合法律,就應當被允許。當談判最終破裂,美國政府將該公司列為「供應鏈風險」,排除其參與部分軍事體系,而公司也隨後提起訴訟。
這場爭議迅速引發廣泛討論,不只是因為它涉及尖端科技,更因為它讓一個長期存在卻不容易被看見的問題浮上檯面:當人工智慧逐漸成為國家安全與戰爭決策的一部分,究竟由誰決定它可以做到什麼程度。
這場衝突之所以引人注目,在於其中沒有簡單的善惡對立。阿莫戴並不反對人工智慧參與戰場,他甚至主張民主國家需要這些技術,以維持防衛能力。然而,在支持合作的同時,他
仍堅持兩條界線,認為某些用途一旦跨越,就可能帶來難以收拾的後果。
另一方面,美國政府也提出自身的顧慮:如果企業能透過技術限制軍事用途,國家安全是否會受到私人價值觀的左右。當雙方各自提出理由時,問題已經不只是技術層面的可行與否,而逐漸轉向更深的層次──控制權究竟掌握在誰手中,責任又將由誰承擔。

行動轉化為演算 人的責任可以外包?
若把視角再向後拉,這場爭議其實觸碰到一個正在形成的轉折。所謂「完全自主致命武器」,指的是系統能自行辨識目標、評估威脅,並決定何時攻擊。在這樣的架構中,工程師負責撰寫程式,軍官負責啟動系統,決策者依賴資料分析,每一個人都只接觸到流程的一部分。這種分工本身並不陌生,但是當決策被拆解為許多步驟時,人與結果之間的距離也逐漸拉開。人做的,只剩按下一個按鍵、啟動一個系統。
當責任被分散,人很容易在心理上相信自己只是完成工作的一環,而沒有真正做出奪去生命的決定。然而,生命仍然可能在那個流程之中消失,而沒有人清楚感到自己曾經站在那個關鍵的位置。
過去的戰爭,即使在最遠距離的情況下,也仍然存在一個清楚的動作與責任的連結。有人瞄準,有人扣下扳機,那個行動本身就是一個明確的選擇。但當行動轉化為資料與演算,人與後果之間的連結變得抽象。螢幕上的標記不再是一個具體的人,而是一個可能的威脅,一個需要處理的目標。這樣的轉變,未必立即造成錯誤,但長期下來,可能逐漸改變人如何看待生命。當生命不再以人的面貌出現,而以資料的形式呈現,人也可能慢慢失去對生命重量的感受。
每一個決定都需要在神面前交帳
在信仰的視角中,審判並不是一個普通的行為。聖經提醒,設立律法和施行審判的,只有一位。當人開始相信自己能預先界定誰是威脅,甚至在尚未發生具體行動之前就作出致命決定,人所扮演的角色,逐漸逼近一個原本不屬於自己的位置。這並不意味著所有判斷都是錯誤的,而是意在提醒,任何涉及生命的決定,都需要面對一個更高的責任。
另一個容易被忽略的問題,是責任的形狀正在改變。當人依賴系統作出決定,很容易相信結果是客觀的,好像只要系統沒有出錯,就不需要再追問背後的選擇。然而,信仰提醒人,每一個決定都需要在神面前交帳。即使行動透過機器、電腦系統完成,選擇仍然屬於人。系統可以計算,但無法承擔責任;資料可以提供建議,但無法面對審判。若人逐漸習慣把判斷交出去,也可能在不知不覺中,把原本屬於自己的責任一同交出去。
科技的發展,往往帶著一種令人著迷的力量,使人相信能力的提升必然帶來更好的結果。然而,歷史多次顯示,真正需要警惕的,往往不是技術本身,而是人如何理解自己的界線。當權力與效率結合,人內心的恐懼、偏見或野心,都可能透過技術被放大,或者以更隱蔽的形式延續。
人工智慧或許正站在類似的門口。未來某一天,人可能真的會站在一個螢幕前,看見一個名字被標記為威脅。那時真正的問題,未必是系統是否精準,而是人是否仍然記得,那個名字代表的是一個生命,而不是一組可以被消除的資料。未來需要回答的,或許不是技術能做到什麼,而是人是否仍然記得,有些位置本來不屬於人。

