重點摘要
拒絕開放 AI 全面軍用,Anthropic 成為首家被美國政府列為供應鏈風險的本土科技公司
國防部長將 Anthropic 列為「國家安全供應鏈風險」,禁止軍事承包商與其往來,Trump 下令聯邦機構六個月內停用 Claude
Anthropic 主張供應鏈風險指定僅適用於直接軍事合約,無權擴展至私人客戶與商業 API,將在法院挑戰此行政命令
超過 450 名 Google 與 OpenAI 員工簽署公開信聲援,OpenAI 接下國防部合約但強調與 Anthropic 紅線一致,行業陷入倫理與商業的兩難
前情提要
2026 年 2 月 27 日,Anthropic CEO Dario Amodei 收到的不是普通的合約修訂通知,而是一份政治性最後通牒:要麼移除所有安全限制,讓 Claude 開放給「所有合法用途」 (all lawful purposes) ,要麼失去美國政府這個最大客戶。
Amodei 選擇了拒絕。24 小時內,Trump 在 Truth Social 下令聯邦機構「立即停止」使用 Anthropic 技術,國防部長 Pete Hegseth 正式將這家 AI 安全公司列為「國家安全供應鏈風險」——這個標籤通常保留給中國公司或敵對勢力,如今首次用於美國本土科技企業。
這場對抗的核心爭議是兩項技術紅線:禁止全自主武器系統(無人類監督的致命性決策)與禁止國內大規模監控。Anthropic 主張現有 AI 模型的可靠性不足以支援這些應用,且違反基本權利。政府的回應則是:拒絕配合即視為威脅。
事件始末:Trump 一紙命令發生了什麼
時間軸回溯至 2025 年 7 月,美國國防部透過 Chief Digital and Artificial Intelligence Office(CDAO) 與 Anthropic 簽訂為期兩年、金額上限 2 億美元的合約,授權在機密系統中部署 Claude。這份合約讓 Anthropic 成為首家獲准在機密環境使用的 AI 公司,領先 Google Gemini 和 OpenAI ChatGPT。當時合約包含兩項明確限制:禁止用於國內大規模監控與全自主武器系統。這些條款並非 Anthropic 單方面強加,而是雙方談判後同意的合約內容。
然而到了 2026 年 2 月 26 日,國防部長 Pete Hegseth 提出最後通牒,要求移除所有限制,將 Claude 開放給「所有合法用途」。Amodei 發表聲明拒絕:「我們無法在良心上接受他們的要求」 (we cannot in good conscience accede to their request) 。
次日,Trump 在 Truth Social 發文:「我們不需要它、不想要它,也不會再與他們做生意」(We don't need it, we don't want it, and will not do business with them again),並給予現有用戶六個月過渡期。
同日,Hegseth 正式將 Anthropic 列為供應鏈風險,禁止所有軍事承包商與該公司進行商業往來。這個指定的影響範圍遠超過國防部本身——它可能波及託管 Claude 的主要雲端服務商(Amazon、Google、Microsoft),進而擾亂廣泛的聯邦承包商運營。社群評論者指出,這對於兩項特定使用案例的分歧而言,是極不成比例的政府回應。
Anthropic 的兩難:安全優先但無法拒絕政府客戶
Anthropic 面臨的矛盾在於:公司以負責任的 AI 治理作為品牌核心,但在缺乏正式監管框架的情況下,自願性安全承諾缺乏外部執行機制。TechCrunch 分析文章點出這個「自我設下的陷阱」:當 OpenAI 和 xAI 等競爭對手不受類似限制時,Anthropic 若因倫理立場拒絕政府需求,可能失去影響力、資金與市場地位——最終削弱其塑造負責任 AI 發展的能力。
文章引述:「Anthropic、OpenAI、Google DeepMind 等公司長期承諾自我治理」 (have long promised to govern themselves) ,但自我治理在壓力下證明脆弱。這場對抗揭示了產業的結構性困境:在沒有明確法律框架的情況下,企業自願設定的倫理紅線隨時可能成為競爭劣勢。
社群評論者警告:「這對產業來說是個壞訊號。如果每家 AI 公司都學到,設定明確紅線會被列入黑名單,那麼誘因就是把安全語言寫得模糊不清」(This feels bad for the industry. If every AI company learns that having explicit red lines gets you blacklisted, the incentive is to keep safety language vague)。
然而 Anthropic 的立場也並非毫無商業邏輯——有社群用戶指出,此禁令「實際上可能讓 Anthropic 在那些不支持現任美國總統的人群中變得非常受歡迎,這是個可觀的市場份額」(might actually make Anthropic very popular among those who do not support the current US presidency, a significant market share)。
多位技術用戶表示 Claude 在程式設計任務上表現優異,無關政府合約也具備競爭優勢。
法律反擊:Anthropic 為什麼說這是非法的
Anthropic 的法律論述主要基於《美國法典》第 10 卷第 3252 條 (10 USC 3252) :該條款僅適用於國防部與 Anthropic 的直接合約中的 Claude 模型使用,並無法律依據將限制擴展至私人客戶、商業合約、API 存取或 claude.ai 一般用戶。
Anthropic 聲明將在法院挑戰「供應鏈風險」指定,稱此舉「法律上站不住腳,並為任何與政府談判的美國公司開創危險先例」 (legally unsound and set a dangerous precedent for any American company that negotiates with the government) 。核心爭議在於行政權力的邊界:供應鏈風險指定原本設計用於應對外國敵對勢力(如中國公司),如今卻被用來懲罰拒絕修改合約條款的美國企業。
Hacker News 討論中有用戶指出,國防部起初同意包含這些限制的合約條款,後來卻試圖單方面移除限制,在遭拒後將 Anthropic 列為供應鏈風險——這被多位評論者類比為《星際大戰》的台詞:「我正在改變交易條件,祈禱我不會進一步改變它」 (I am altering the deal. Pray I do not alter it further) 。這個類比精準捕捉了政府單方面改變已簽署合約條款的強制性質。
技術社群也質疑行政權力過度擴張,指出只有國會才能正式重新命名聯邦部門或宣戰,但政府似乎在多個戰線上單方面行動。法律訴訟的結果將決定:政府是否有權因企業拒絕修改合約條款而將其列為國家安全威脅。
行業連帶:Google 與 OpenAI 員工為何選邊聲援
2026 年 2 月 27 日,超過 300 名 Google 員工與 60 多名 OpenAI 員工簽署公開信「We Will Not Be Divided」,呼籲公司領導層支持 Anthropic,拒絕國防部對 AI 技術的無限制軍事使用要求。總簽名數超過 450 人,其中近 400 人來自 Google。公開信呼籲:「放下分歧,團結一致,繼續拒絕國防部當前對於使用我們的模型進行國內大規模監控和在無人類監督下自主殺人的要求」。這封信反映出技術員工與公司管理層在國防合約議題上的潛在分歧。
Google DeepMind 首席科學家 Jeff Dean 公開表達反對政府大規模監控。然而行業回應並非一致——2026 年 2 月 28 日,OpenAI CEO Sam Altman 宣布與國防部達成協議,接下 Anthropic 原有的機密系統 AI 合約。OpenAI 發言人確認公司與 Anthropic 在自主武器與大規模監控議題上立場一致,但仍選擇與五角大廈合作。
OpenAI 甚至在 X 平台發文:「我們不認為 Anthropic 應該被指定為供應鏈風險,我們已向國防部明確表達這個立場」 (We do not think Anthropic should be designated as a supply chain risk and we've made our position on this clear to the Department of War) 。這種「紅線一致但選擇合作」的立場揭示了行業的務實考量:既想保持倫理形象,又不願失去政府合約。
技術政策分析師 Will Rinehart 批評:「國防部甚至考慮將 Anthropic 列為供應鏈風險或使用 DPA(國防生產法)徵用模型,這完全超出了界線。國防生產法是用於坦克和彈藥的,不是用於 transformer 權重的」(The DPA is for tanks and ammunition, not transformer weights)。這場對抗已成為行業試金石:企業如何在倫理承諾與商業壓力之間畫出界線。
名詞解釋
供應鏈風險 (Supply-Chain Risk) :美國政府用於識別可能危害國家安全的外國實體或技術的法律標籤,通常適用於中國公司或敵對勢力,被指定後將禁止聯邦機構與軍事承包商採購其產品或服務。
政策法規細節
核心條款
2025 年 7 月簽訂的國防部與 Anthropic 合約包含兩項關鍵限制:第一,禁止將 Claude 用於全自主武器系統 (fully autonomous weaponry) ,即無人類監督的致命性決策。Anthropic 主張現有 AI 模型的可靠性不足以支援此類應用,且技術成熟度無法保證在極端情境下的可預測性。
第二,禁止用於國內大規模監控 (mass domestic surveillance) ,公司認為此類應用違反基本權利,且現行法律框架對政府監控的監督機制存在漏洞。2026 年 2 月 26 日,國防部長 Pete Hegseth 要求移除所有限制,將 Claude 開放給「所有合法用途」 (all lawful purposes)——這個措辭刪除了原有的具體禁令,理論上允許政府在法律允許範圍內使用 AI 進行任何操作。
Anthropic 拒絕後,政府於次日啟動兩項行政措施:Trump 下令聯邦機構「立即停止」使用 Anthropic 技術(給予六個月過渡期),以及 Hegseth 將 Anthropic 列為「國家安全供應鏈風險」 (Supply-Chain Risk to National Security) 。
適用範圍
供應鏈風險指定的法律依據是《美國法典》第 10 卷第 3252 條 (10 USC 3252) ,該條款授權國防部識別可能危害國家安全的外國實體或技術。然而 Anthropic 是美國本土公司,這是該標籤首次用於非外國勢力。
指定生效後,所有軍事承包商(包括國防供應商、情報系統集成商、聯邦 IT 服務商)被禁止與 Anthropic 進行商業往來。這不僅涵蓋直接採購 Claude API,也可能波及託管 Anthropic 服務的雲端平台(Amazon Web Services、Google Cloud、Microsoft Azure)——若這些平台因提供 Claude 而被視為「間接供應鏈風險」,影響範圍將擴及數千家聯邦承包商。
Anthropic 主張該條款僅適用於國防部與 Anthropic 的直接合約,無法律依據將限制擴展至私人客戶、商業 API 存取或 claude.ai 一般用戶。
公司聲明:「我們將在法院挑戰這個指定,它法律上站不住腳,並為任何與政府談判的美國公司開創危險先例」 (legally unsound and set a dangerous precedent for any American company that negotiates with the government) 。
執法機制
供應鏈風險指定的執法由國防部契約管理局(Defense Contract Management Agency, DCMA)負責,透過合約稽核與違規罰則強制執行。軍事承包商若被發現在指定生效後仍使用 Anthropic 技術,可能面臨合約終止、未來標案取消資格、民事罰款等後果。Trump 的行政命令給予現有聯邦用戶六個月過渡期(至 2026 年 8 月底),期間須完成遷移至替代 AI 服務(如 OpenAI、Google Gemini)。
然而過渡期並不適用於新簽合約——從 2026 年 2 月 27 日起,任何聯邦機構或承包商不得新增採購 Anthropic 服務。申訴管道方面,Anthropic 可向聯邦法院提起行政訴訟,挑戰供應鏈風險指定的合法性。若法院判定國防部濫用 10 USC 3252 條款(該條款設計用於外國威脅,而非懲罰合約談判破裂的美國企業),指定可能被撤銷。然而訴訟過程可能耗時數月至數年,期間 Anthropic 仍受指定約束,實際上已失去政府市場。
合規實作影響
工程改造需求
對於軍事承包商與聯邦 IT 服務商:必須在六個月內完成 AI 服務遷移,涉及模型切換(從 Claude 轉至 OpenAI GPT-4 或 Google Gemini)、API 整合重寫、提示詞工程調整、權限管理系統改造。若原有系統深度依賴 Claude 的特定能力(如長上下文處理、結構化輸出),需重新驗證替代模型的表現是否符合任務需求。
機密環境中的部署須重新通過安全認證(如 FedRAMP High、IL5/IL6 授權),這可能延長遷移時程。
對於使用 Claude 的一般企業(非政府承包商):技術上無需立即改造,因 Anthropic 主張供應鏈風險指定僅適用於軍事合約,不影響商業客戶。
然而若你的客戶包含聯邦機構或國防供應商,可能間接受到波及——例如客戶要求你停用 Anthropic 技術以符合其合規要求。建議審查合約條款中是否有「禁用特定供應商」的條款,並準備替代方案。
合規成本估計
直接成本:API 遷移工程(2-4 週開發時間)、模型切換測試(1-2 週)、安全認證重新申請(若涉及機密系統,3-6 個月)。若原有系統使用 Claude 的 200K token 上下文窗口處理長文件,切換至其他模型可能需要重新設計文件分段邏輯,增加工程複雜度。
隱性成本:替代模型的授權費用差異(OpenAI 與 Anthropic 定價策略不同)、性能落差帶來的用戶體驗下降、遷移期間的服務中斷風險。對於已投入數月訓練 Claude 提示詞工程的團隊,切換模型意味著重新學習與調校成本。
法律成本:若你是軍事承包商且認為供應鏈風險指定不合理,可選擇加入 Anthropic 的集體訴訟或獨立提起行政救濟,但訴訟費用與時間成本可觀。多數企業會選擇配合遷移而非法律對抗。
最小合規路徑
步驟 1(立即):盤點組織內所有使用 Claude 的系統與合約,區分「政府相關」與「純商業」用途。若你不是聯邦承包商,目前無需行動,但應持續追蹤法院判決。
步驟 2(1-2 週內):若你是軍事承包商或聯邦 IT 服務商,啟動替代 AI 服務評估——測試 OpenAI GPT-4o、Google Gemini Pro、Cohere Command 等模型在你的關鍵任務上的表現,記錄差異與風險。
步驟 3(過渡期內):執行遷移並完成安全驗證。若遷移成本過高或技術上不可行,考慮向國防部申請延期或豁免(雖然批准機率低)。
步驟 4(持續):監控 Anthropic 訴訟進展。若法院判定供應鏈風險指定違法並撤銷,你可選擇遷移回 Claude——但這也意味著另一輪工程成本,因此多數企業可能選擇維持遷移後的狀態。
產業衝擊
直接影響者
首當其衝的是軍事承包商與情報系統集成商,包括 Palantir、Booz Allen Hamilton、Leidos、Northrop Grumman 等國防 IT 供應商。這些公司若在內部工具或客戶交付系統中使用 Claude,必須在六個月內完成遷移,否則面臨合約違規風險。
雲端平台(AWS、Google Cloud、Microsoft Azure)也可能間接受影響——若託管 Anthropic 服務被視為「供應鏈風險」的一部分,這些平台可能需要在政府專用區域停用 Claude API,增加基礎設施管理複雜度。
Anthropic 本身將失去每年數億美元的政府合約收入(原合約上限 2 億美元),且供應鏈風險標籤可能嚇阻其他聯邦機構或準政府組織(如國家實驗室、NASA、能源部)採購其服務。
然而公司在商業市場(企業客戶、開發者 API、消費者訂閱)仍可正常運營,且「拒絕政府無限制軍用」的立場可能吸引重視倫理的客戶群。
間接波及者
其他 AI 公司(OpenAI、Google、Cohere、Mistral AI)面臨策略選擇:若跟進 Anthropic 設定類似紅線,可能同樣被政府列為風險;若配合政府需求(如 OpenAI 接下合約),則面臨員工反彈與倫理質疑。OpenAI 的應對策略是「紅線一致但選擇合作」——聲稱與 Anthropic 在自主武器與大規模監控議題上立場相同,但仍與五角大廈簽約,試圖在倫理形象與商業利益間取得平衡。
這種模糊立場可能成為行業新常態:公開宣示倫理原則,但在實際執行中保持彈性。
開源 AI 社群可能從中受益。若政府對商業 AI 公司的控制要求持續升級,聯邦機構可能轉向使用開源模型(如 Meta Llama、Mistral、Qwen)並自行部署,減少對單一供應商的依賴。然而開源模型在機密環境的安全認證與技術支援仍是挑戰。
成本轉嫁效應
軍事承包商的遷移成本(工程改造、測試、認證)最終可能轉嫁至聯邦預算——承包商會在下一輪合約談判中要求補償或調高報價,以覆蓋非預期的技術債。這意味著納稅人間接承擔了政府強制遷移 AI 服務的代價。
對於一般企業與消費者,短期內無直接影響——Anthropic 的商業 API 與 claude.ai 訂閱服務仍正常運作。然而若供應鏈風險指定在法律上站穩腳跟,未來政府可能對其他科技公司使用類似手段,形成「配合政府需求否則列入黑名單」的先例。
這將改變整個科技產業與政府的談判動態,削弱企業在倫理議題上的自主權。
長期而言,這場對抗可能推動AI 治理立法加速——當自願性安全承諾證明脆弱時,產業與公民社會可能呼籲國會建立明確的 AI 使用紅線與監督機制,避免行政權力單方面定義「合法用途」。
時程與展望
美國國防部與 Anthropic 簽訂兩年期合約(上限 2 億美元),授權在機密系統部署 Claude,合約包含禁止全自主武器與國內大規模監控條款
國防部長 Pete Hegseth 要求 Anthropic 移除所有安全限制,CEO Dario Amodei 拒絕最後通牒
Trump 下令聯邦機構停用 Anthropic(六個月過渡期);Hegseth 將 Anthropic 列為供應鏈風險;超過 450 名 Google 與 OpenAI 員工簽署公開信聲援
OpenAI 宣布接下國防部機密系統 AI 合約,取代 Anthropic 原有協議
Anthropic 提起行政訴訟挑戰供應鏈風險指定;軍事承包商完成 AI 服務遷移(2026 年 8 月底前);法院進行初步審理
法院判決供應鏈風險指定合法性;其他 AI 公司明確化與政府合作的紅線;產業可能形成統一倫理標準或持續分化
國會是否啟動 AI 治理立法,建立明確使用紅線與監督機制;政府是否對其他科技公司使用類似手段;Anthropic 商業市場表現與品牌效應
唱反調
Anthropic 的倫理立場可能只是行銷手段——若真的堅持原則,當初就不該與國防部簽約。接下 2 億美元後再拒絕條款修改,看起來更像是談判籌碼而非道德底線
禁止「全自主武器」的定義模糊不清——現代軍事系統早已高度自動化(如防空系統),Anthropic 的紅線可能只是排除了名義上的「完全無人監督」,實際上仍允許大量致命性應用
若 Anthropic 真的失去政府合約與軍事承包商市場,其影響 AI 治理的能力反而會提升——不再受制於國防需求,可以專注於民用倫理標準,成為獨立於政府的制衡力量
炒作指數
行動建議
追蹤 Anthropic 訴訟進展與法院判決,這將決定政府是否有權因合約談判破裂而將企業列為國家安全威脅
觀察其他 AI 公司(Google、Microsoft、Meta)如何回應國防部需求,以及是否出現行業統一立場或分化
審查你的組織與政府或軍事承包商的現有 AI 合約條款,確認是否包含使用限制與終止條款的明確定義