Claude 進入布萊切利園
1939年,緊鄰牛津、劍橋與火車站之間大學線的布萊切利園(Bletchley Park),正式開始了破解德國恩尼格密碼機在內各項外國資訊的計畫。一開始,英國軍情處下轄的密碼學院私下招募的是「大學教授等級的男性」,包括圖靈在內,一些頂尖科學家進入團隊。但漸漸的,隨著工作與編制擴張,加以青年男性紛紛入伍,布萊切利園八千多名日以繼夜輪班拆解敵軍資訊的員工,有七成五是女性。
這些被後世稱為「布萊切利女孩」的年輕女性來自中產階級,擁有數學、物理、工程學位,有些則有特殊歐陸語言專長。她們是布萊切利園真正的中流砥柱,在1943年至1945年操作巨像電腦(Colossus Computer),後者是人類第一台電子數位可編程的電子計算機。
密碼學院遷入布萊切利園並開始招募人才,早於英國政府真正向德國宣戰數個月。他們獲得了華沙密碼局的啟發,把德國恩尼格密碼機當成「需要」且「可以」被解密的對象。沒多久,波蘭陷落,英國正式進入戰爭。
美國 Anthropic公司旗下大型語言模型 Claude,在近期美國對委內瑞拉與伊朗發動的軍事行動中,扮演的就是布萊切利園的角色。
透過與情報分析商 Palantir的合作,Claude 協助判讀衛星訊號、無人機數據和加密通訊。它本身並非真正在「戰鬥」,而是在「消除戰場迷霧」,把混亂的原始數據轉譯成指揮官能理解的「敵軍意圖預測」。某種程度上來說,美軍的這幾次精準打擊,都與 Claude 有關。
被迫離開布萊切利園
然而,奇怪的事情發生了。2026年二月,原本是 Anthropic 合作夥伴的 Palantir,向美國國防部警告,Anthropic 的員工「居然試圖詢問 Claude是如何被用在委內瑞拉行動中」,一個供應商居然想問倫理問題,直接被視為不可接受的挑釁。影響所及,美國國防部長 Pete Hegseth立刻在 2 月 24 日召見 Anthropic執行長 Dario Amodei,而後者並沒有放棄公司原本的倫理底線,最終導致 Anthropic 公司成為美國第一間被列為「供應鏈風險」(Supply Chain Risk)的本土公司,這個風險名單上還有中國華為。
一旦被列為「供應鏈風險」,Anthropic 不僅將失去目前約 2 億美元的軍方合約,所有與國防部合作的民間大廠,諸如 Microsoft、Amazon、Google都可能被迫停止使用 Claude。這對於Amazon 和 Google 似乎特別困擾,因為前者與 Anthropic 是極為親密的企業戰略夥伴,後者則才剛剛宣布與 Anthropic 進行金額龐大的投資合作。
Anthropic 遇到的事情堪稱古怪。首先,Anthropic公司原本就是民主世界 AI 中「最強調倫理守則」的,與 Palantir CEO Alex Karp給人的傲慢印象不同──Karp之前曾公開表示中下層白領民眾「不妨回去學點小手藝,反正你們要被 AI 取代了」──,Anthropic公司 CEO Dario Amodei是那種「即使是鮮明自由派媒體,也會幫他的專訪刻意挑張溫柔好看照片」的AI倫理資優生。這一切怎麼發生的?
其次,讓 Anthropic 公司被列進黑名單的兩條倫理守則,包含「致命性自主武器系統」(Lethal Autonomous Weapon)與「全權使用權(all lawful purposes)」,根本現階段就沒有任何證據顯示會真的被違反,甚至未來數年內也幾乎不會發生。
Claude主要的任務就是分析情報,即便在伊朗行動中,Claude提供的最接近「協助戰爭」的服務,也只有「作戰計畫輔助(Course of Action Analysis)」,亦即「模擬伊朗軍方在面對美軍封鎖時可能採取的反擊路徑」,這得以讓美軍更精準行事,但這「導致了戰爭本身」或「加速了戰爭本身」嗎?
恐怕不算是。事實上,它更像是「縮短了軍事行動的時間、減少了錯誤率,從而在達成目標時極小化整體成本」。軍事行動本身是否正義,是一回事;AI在其中的角色是否真的具有「決定性」、「需歸責性」,又是另一回事。不喜歡前者存在,並不證成後者為真。
Human,Too Human:人類始終在迴路
更諷刺的是,在 Anthropic 被踢出21世紀布萊切利園之後,研發 ChatGPT 的 OpenAI公司立刻趁亂卡位,但OpenAI CEO Sam Altman在與國防部交涉以及說服內部員工的過程中逐步畫出的底線,根本就跟 Anthropic當初堅持的沒什麼不同,包含:禁止自動化打擊、禁止從事國內監控、並且承諾人類在迴路(Human-in-the-loop),亦即要求所有涉及生命財產的決策必須有真人簽署。
這三點原則,根本就跟 Anthropic 的兩大紅線沒有不同。
更奇怪的是,在2020年,亦即川普上一任期中,美國國防部公布的《國防部採納人工智慧倫理原則》(DOD Adopts Ethical Principles for Artificial Intelligence),也同樣保證在軍事競爭中,仍會採取最高倫理標準,這項原則文件還說這「符合川普政府的核心治理方針」。至今沒有任何確切證據可以證明此一原則有所改變。
Anthropic被殺雞儆猴的時間點更是微妙:2月底,正是委內瑞拉強人馬杜洛已遭擊倒,而美軍伊朗行動尚未實際執行的緊張區間。事後回頭來看,Anthropic員工在錯誤的時間點問了「不該問」的問題,而儘管 Claude被列為風險供應鏈,它依然成功的支援了伊朗行動,讓幾次攻擊都精準無比、乾淨俐落。
上述跡象全都顯示,Anthropic 公司被要求退讓的那些底線,根本是「假的底線」,充其量只是美國國防部需要建立絕對服從權威感的幌子。問題可能從來不在Anthropic公司相信什麼,而是他們誤會了自己的珍貴工作產物 ,在國防的角度上只是流水線上的物品,「物品就不該問東問西的」。
這個 AI 公司,把「人類因素」放進企業名稱(anthropic,意為「人類的」),無法成功的「只當零件」,才是問題所在。即使知道一切會這樣演變,從頭重來一次,恐怕就 Anthropic 公司創始以來的理想性本質來說,也無法不迎接這樣的後果。
然而,它並非孤軍作戰。Dario Amodei收到五角大廈法律通知後,已宣布會立刻進入法律訴訟。Amazon(AWS)、Google 和 Microsoft 發表了聯合聲明,將繼續向商業客戶提供 Claude 模型。這些巨頭主張,國防部的標籤「僅限於軍事用途」,不影響民用或非國防的政府部門。
Anthropic公司的下一步仍充滿變數。但如同稍早提到的,Anthropic以其極度優越的研發能力,與其他科技巨頭的共生關係已經深刻到「無法只被一個標籤擊垮」。
不幸分不出大型語言模型差異的名作家
美國民眾對於 Anthropic的遭遇,倒是有十分奇特的反應:由於 Anthropic「看起來」是被川普政府欺負了,而OpenAI又在Anthropic談判破局幾小時內太快卡位成功,再加上揮兵伊朗的行動在國內並非沒有爭議,美國民眾發起了「QuitGPT」。
抵制OpenAI的行動號稱「全球響應」,有社群貼文宣稱連署已高達250萬人。不過這個訴求事實上似乎只在LLM覆蓋率最高的北美,頂多加上英國、澳洲發酵,再度顯示「英語趨勢」常被誤當成「全球趨勢」。
另一個值得注意的現象是,響應「QuitGPT」的人通常不是從此就不用AI了,他們只是打包資料跑去下載 Claude。湧入的人潮一度擠掛了 Claude 服務。
但同時,「只有Apple Store上,Claude衝上了下載熱門排行榜第一」,而「Google Play並沒有明顯的排名上升現象」,顯示這波因為政治理念原因搬家到Claude的用戶,以iOS設備持有者為主,這可以合理解釋為「教育程度較高」、「經濟較寬裕」的中產以上美國人,才會真的因為國防部事件「暫時轉換產品」,這波轉換未必能變成訂閱,短期來說也絕對無法彌補兩億美元的合約損失。
《人慈》一書作者的Rutger Bregman,3月4日投書《衛報》,標題寫的把握十足:「現在就踢掉ChatGPT!你在付錢贊助獨裁主義」,這位荷蘭作家說他研究消費者抵制的歷史,因此他很肯定「QuitGPT」一定會打倒數位極權,「改用其他什麼都好,因為 AI 工具全都是一樣的」。
雖然 Bregman 寫了一堆意見,試圖證明成立不太久的 OpenAI 已經是個需要被打倒的「數位獨裁」,但他卻完全忽視了,Anthropic公司的 Claude 才是第一波入駐美國國防系統的AI,而,如果訂閱 ChatGPT 是在贊助數位極權,那訂閱 Claude 跟 Gemini,某程度上也是在贊助 Amazon 跟 Google,他難道覺得貝佐斯跟 Google 生態系就「比較沒有數位極權的問題」?又或者,訂閱 Meta旗下的商品,不也是在贊助祖克柏壟斷社群平台?訂閱 Grok是不是等同在贊成 xAI 對他人照片執行「一鍵脫衣」功能?
說穿了,Bregman把對川普政府的厭惡,投射在OpenAI跟ChatGPT身上。他之所以可以這麼輕巧的選邊,是因為他生活在地緣政治風險相對低的國家。
技術陣營化:OpenAI 簽約的鎖定效應
從全世界民主的角度,OpenAI自願綁定美國國防部,最直接的影響其實是他們不再可能因為一時缺錢就輕易賣同一套LLM給敵對美國的威權政府,否則會失去合約。因此,宏觀而言,OpenAI「附帶人類在迴路條件」地站隊,其實是好事。
當 OpenAI 與五角大廈簽下機密合約,它在物理與法律上就正式成為「民主陣營」的技術基石。必須接受美國嚴苛的出口管制,不可能再像過去某些跨國科技企業那樣試圖走模糊地帶進入中俄市場。
對全球民主陣營來說,確保最強大的 LLM 不會被威權政府用於改良其壓迫人民的算法,本身就是一種巨大的戰略勝利。但換句話來說,由於 Claude 已經證明自己一直都在世界級頂級模型(SOTA Model)之列,直接排除 Claude 於美國國防之外,也不是什麼明智之舉。
其次,現在美國民眾的反彈有很多是來自於「誤把分析資料等同於監控」、「不知道國防部合約與個人 ChatGPT 使用資料是否安全根本無關」。但美國憲法不是寫好看的,除非政府能證明個人與特定國安威脅有關,否則 AI 根本無權「自動」監看人民,將「軍用情報輔助」直接滑坡成「全民監控」,徹底忽略了民主國家的法治約束力。
AI參與數位治理,被滑坡成「天網來臨」,AI分析軍用情報,減少本國與他國傷亡,精準打擊、減少戰爭時間,被說是「冷血無情的自動化武器」。這顯然是一個「怎麼做怎麼錯」的狀態。
AI軍事競賽與民主困境
事實就是,國際政治極為複雜,而戰爭是「人類」發起的。透過科技讓戰爭有效率,是歷史上一再發生,未來也必然繼續發生的走向。美國現在若不與 AI 進行密切整合,而讓中國、俄羅斯這類國家先行整合了,整個民主世界會發生什麼事情?
讓我們先承認一個事實,如今國與國之間的軍事對壘,不可能沒有 AI 介入。
以俄羅斯的「格拉茲(Glaz)」系統為例, 俄國已開發出統一的偵察打擊工作流,能將無人機畫面即時轉化為攻擊座標。這讓「發現到打擊」的時間從數小時縮短至幾分鐘。
根據 2026 年 2 月的 CSET 報告,中國解放軍將 AI 決策支持系統(AI-DSS)視為彌補「基層軍官經驗不足」的關鍵工具。他們在招標文件中明確要求開發能進行「認知領域作戰」和「深度偽造心理戰」的 AI 工具。
中國目前在「無人機量產」上也具有絕對優勢,2025 年底發表的「九天」無人機母艦顯示,它正致力於「飽和攻擊」戰術。美國若不靠 AI 的「認知能力優勢」,如更強的情報篩選與反制邏輯,來抵銷中國的「數量優勢」,民主陣營的防線將面臨物理性崩潰。
俄羅斯與中國開發者也積極將民主世界開源模型(如 LLaMA、Qwen、Mistral)嵌入封閉的軍用環境中進行修改。這意味著如果美國不積極主動將最強大的模型(如GPT與Claude)與國防深度綁定,威權國家反而可能透過開源漏洞實現「技術借道」。
目前中國頂尖模型在能力指標上仍落後美國約 6 到 9 個月,這 6 個月的差距就是民主的防火牆。
AI嵌入國防,是場消耗的賽跑,因為每個人都在跑,所以沒有不跑的可能性,只有跑的時候姿勢好不好看的差別。
當年的布萊切利園與供職其中的女孩是沉默的。直到1970年代檔案解禁,她們的故事才為世人所知。她們是否參與戰爭?是的。但她們的存在是否有理由?也是的。如果這個世界不會譴責布萊切利園女孩,為什麼AI非得遠離布萊切利園不可?
每個人當然都有權利可以QuitGPT。但問題是,有些國家的人,特別無法故做清爽的Quit站隊民主或威權陣營,除非決定Quit人生。我們與《人慈》作者Bregman,差別也不過在此而已。
文章轉載自:思想坦克
作者為SAVOIR|影樂書年代誌總編輯。對法蘭克福學派而言,大眾社會是一個負面的概念。他們相信,大眾(masse)如同字面所述,是無知、龐雜、聽不懂人話又好操控的集合體,稱不上有精神生活,就算有也是被事先決定的。大眾社會帶來了流行文化,大眾媒體如果顯得低俗又墮落,是基於服務大眾社會的目的,或者他們本身也就只是「烏合之眾」,不是真正意義上的專業人士。然而,在這些不登大雅之堂的流行樂、體育狂熱、偶像崇拜、實況主、網路迷因之中,我們卻還是能找到世界運轉的規則,並洞見人性企求超越的微弱燭火──為了這個原因,我研究大眾文化,我寫作。