當Anthropic傳出基於道德原則,拒絕美國政府要求取得其AI核心技術「完整控制權」時,外界第一反應往往是震驚:在AI被視為下一代國力的年代,企業怎敢對政府說不?但這起事件真正揭示的,不是單一公司與單一政府的衝突,而是2026年全球AI治理進入深水區後必然出現的「主權矛盾」:國家想握住開關,企業想守住底線,而社會最在意的其實是誰能避免AI被濫用。
政府的焦慮並不難理解。當模型能力逼近可自動化大量工作、影響輿論與資安攻防的等級,AI就不再只是商業產品,而是戰略資產。國安體系自然傾向建立「接管機制」:在緊急狀態、戰爭或重大風險情境下,政府可以直接介入模型的部署、權限與算力調度。從國家角度看,這是風險控管;但從民主社會角度看,這也可能打開另一扇門:若AI的能力被行政權直接握住,誰能保證它不會成為政治打壓、監控擴張或資訊戰的工具?
Anthropic的拒絕,等於把討論焦點從「該不該管」推進到「怎麼管才不會失控」。企業宣稱的倫理紅線,表面上像是價值宣示,本質上卻是在防止一種治理路徑:把AI治理簡化為「主權化」或「準國有化」。一旦企業讓出完整控制權,模型的道德框架可能被改寫成政權需求,安全承諾也可能轉變成政治指令。這不只傷害企業信任,更會讓AI治理失去最重要的資產:可預測的規則與可被外部檢驗的程序。
對台灣而言,這場爭議的啟示更尖銳。台灣在AI供應鏈與地緣政治上高度依賴盟友架構,但若治理框架完全外包,台灣社會的價值排序—言論自由、程序正義、個資保護—就可能被迫讓位給他國的國安優先。真正務實的路線不是選邊站,而是建立可落地的制度防線:清楚界定政府介入的觸發條件、權限範圍、監督機制與事後責任;同時要求任何高風險模型在台部署時,具備可稽核的安全報告、外部審查與透明揭露。當治理能被制度鎖住,才不需要靠某一家企業的道德勇氣來擋住權力。
這起事件提醒所有民主社會:AI的危險不只在模型本身,而在「誰能無限制地使用它」。真正的AI治理,不是把開關交給誰,而是讓開關永遠受到制衡。
作者:新公民議會編輯小組