Anthropic:技術與商業模式分析
作者:SteveLo — ccusage_go 開發者 2026 年 3 月 25 日
本分析基於公開資料、API 文件、學術研究、GitHub issues 及使用 ccusage_go 進行的第一手 token 用量分析,檢視 Anthropic 的技術能力、商業模式和定價架構。
所有主張都有來源。所有數字都可驗證。
1. 核心技術能力評估
Anthropic 自行開發的
Anthropic 開發了一系列名為 Claude 的大型語言模型(LLMs)。這些模型處理和生成文字。這是 Anthropic 唯一的專有技術。
Anthropic 沒有開發的
| 能力 | Anthropic | OpenAI | Meta | |
|---|---|---|---|---|
| 文字生成 | ✅ 自研 | ✅ 自研 | ✅ 自研 | ✅ 自研 |
| 圖像生成 | ❌ 無 | ✅ DALL-E / GPT-4o | ✅ Imagen | ✅ Emu |
| 影片生成 | ❌ 無 | ✅ Sora | ✅ Veo | ✅ Movie Gen |
| 文字轉語音 | ❌ 第三方 | ✅ 自研 | ✅ 自研 | ✅ Voicebox |
| 語音轉文字 | ❌ 第三方 | ✅ Whisper | ✅ 自研 | ✅ SeamlessM4T |
| 搜尋引擎 | ❌ 無 | ✅ ChatGPT Search | ✅ Google Search | ❌ |
| 自研硬體 | ❌ 無 | ❌ 無 | ✅ TPU | ✅ MTIA |
第三方語音依賴的來源:
- Claude Code TTS 插件使用 OpenAI 的 TTS API 或 ElevenLabs(記錄在 Anthropic 自己的 cookbook 中)
- VoiceMode MCP server 使用 OpenAI Whisper 進行 STT,使用 OpenAI TTS 進行語音輸出
- Claude 的內建語音模式僅支援英語;底層 TTS/STT 引擎未公開
視覺管道的限制
Claude 接受四種圖片格式:JPEG、PNG、GIF 和 WebP。它無法處理 HEIF、HEIC、AVIF、TIFF、RAW 或 BMP 檔案。
HEIF 自 iOS 11(2017 年)起就是 Apple 裝置的預設照片格式。在 2026 年仍無法處理此格式,暗示視覺管道依賴於有限的圖像解碼器(可能是格式支援受限的開源函式庫),而非完全整合的自研多模態架構。
Anthropic 在其視覺架構方面發表了零篇研究論文。相比之下,OpenAI 發表了 CLIP 和 GPT-4V 技術報告,Google 發表了 PaLI 和 SigLIP 研究,Meta 發表了 SAM 和 DINOv2。
技術時間線:從 OpenAI 出走到現在
Anthropic 於 2021 年由前 OpenAI 員工創立,包括 CEO Dario Amodei(前研究副總裁)和數位研究人員。他們帶來的技術專長根植於 LLM 訓練、RLHF 和 scaling laws —— 這是 OpenAI 2020-2021 研究議程的核心。
在他們離開時,OpenAI 尚未開發 DALL-E 2(2022 年 4 月)、Whisper(2022 年 9 月)或 GPT-4V(2023 年 9 月)。這意味著 Anthropic 的創始團隊沒有攜帶圖像生成、語音處理或原生多模態架構的機構知識。
| 年份 | Anthropic | OpenAI | Meta | |
|---|---|---|---|---|
| 2021 | 創立。純文字 LLM 研究開始 | DALL-E 1, Codex | LaMDA | — |
| 2022 | Claude 內部開發 | DALL-E 2, Whisper, ChatGPT | PaLM, Imagen | Make-A-Video |
| 2023 | Claude 1 & 2(純文字) | GPT-4V, DALL-E 3 | Gemini(原生多模態), PaLI-X | LLaMA, Segment Anything |
| 2024 | Claude 3 系列(文字 + 有限視覺) | Sora, GPT-4o(原生多模態) | Gemini 1.5(1M context, 原生), Veo | LLaMA 3, Emu |
| 2025 | Claude 4 系列, Claude Code 推出 | GPT-5, 完整多模態生態系 | Gemini 2.0, Veo 2 | LLaMA 4, Movie Gen, SeamlessM4T |
| 2026 Q1 | Claude 4.6,正在招聘視覺和音訊工程師 | 完整多模態平台 | 完整多模態 + 硬體 | 完整多模態 + 開源 |
五年來,技術差距擴大了,而非縮小。競爭對手從頭開始建立了整合的多模態能力,而 Anthropic 本質上仍然是一家文字生成公司,外掛視覺並外包音訊。
2026 年招聘數據證實了差距
Anthropic 目前的職缺列表顯示,該公司正在嘗試建立競爭對手多年前就開發的能力:
視覺職位(正在招聘):「Research Engineer / Research Scientist, Vision」要求 7 年以上的 ML 和電腦視覺經驗,熟悉大型視覺語言模型,以及合成視覺訓練資料集的經驗。工作職責包括「進行實驗以確定合成生成視覺資料集的理想訓練資料配比和參數。」
多模態和音訊職位:Anthropic 正在「招聘研究工程師以推進多模態 LLMs(音訊、視覺),跨越預訓練/微調/RL 工作,並將研究轉化為面向產品的 Claude 改進。」
來源:JobsWithGPT Anthropic 招聘趨勢,2026 年 1 月
這些職位列出的關鍵技能要求包括:大型語言模型、語音和音訊處理、電腦視覺、強化學習、模型評估和安全。
這意味著什麼:Anthropic 正在招聘的是基礎性而非增量性的能力。從零開始建立視覺資料集、為視覺模型進行訓練實驗、招聘語音和音訊處理人才,表明這些能力在公司內部尚未以可投入生產的形式存在。職位描述與首次建立這些系統一致,而非改進現有系統。
背景參考:OpenAI 在 2021 年 1 月發表了 CLIP 論文 —— 在 Anthropic 創立之前。Google 的視覺語言研究(PaLI)可追溯到 2022 年。Anthropic 在 2026 年才開始做其競爭對手在 2023-2024 年就完成的事情。
2. 產品架構:一個模型,多個介面
Anthropic 的所有商業產品都是同一底層文字生成模型的介面:
| 產品 | 功能 | 底層技術 |
|---|---|---|
| Claude(聊天) | 文字對話 | Claude LLM |
| Claude Code | 基於文字的程式 agent | Claude LLM + 終端工具 |
| Claude Cowork | 基於文字的電腦操作 | Claude LLM + computer use |
| Claude for Excel | 基於文字的試算表編輯 | Claude LLM + Excel API |
| Claude for PowerPoint | 基於文字的簡報製作 | Claude LLM + PowerPoint API |
| Claude for Chrome | 基於文字的網頁瀏覽 | Claude LLM + 瀏覽器擴充功能 |
| Claude for Slack | 基於文字的團隊溝通 | Claude LLM + Slack API |
| Skills, Hooks, Plugins | 基於文字的工作流擴充 | Claude LLM + markdown 檔案 |
這本身並非問題 —— 介面的專業化是有效的產品策略。然而,在評估 $3800 億美元估值與具有更廣泛技術能力的競爭對手時,這是相關的背景。
3. Prompt Caching 架構
如何運作
Claude Code session 中的每則訊息都會將整個對話歷史重新發送到 API。為避免從頭重新處理所有 tokens,Anthropic 使用 prompt caching:先前計算的 KV(key-value)狀態被儲存和重複使用。
根據 Anthropic 的官方文件:
- Cache Write:基礎 input token 價格的 125%(25% 溢價)
- Cache Read:基礎 input token 價格的 10%(90% 折扣)
- Cache TTL:5 分鐘(條目在 5 分鐘不活動後過期)
來源:Anthropic Prompt Caching 文件
為什麼 Caching 是商業模式的核心
Prompt caching 在架構上最適合純文字工作負載 —— 其中提示前綴在回合之間保持穩定。這正是 Claude Code 提供的:一個 context 逐步增長的對話。
對於多模態工作負載(即時音訊、影片、動態圖像輸入),快取命中率顯著下降,因為輸入前綴頻繁變化。這造成了建立多模態能力的結構性抑制 —— 添加降低快取效率的模態會增加算力成本,而沒有相應的快取衍生利潤。
這可能解釋了為什麼 Anthropic 的產品路線圖保持純文字導向,而競爭對手則投資多模態能力。
4. Token 使用分析:快取利潤
使用 ccusage_go 和社群報告數據的獨立分析,揭示了 Claude Code token 經濟中的一致模式:
| 來源 | 快取開銷 | 實際算力 | 比率 |
|---|---|---|---|
| 我的帳號(618 回合 session) | 成本的 97.7% | 成本的 2.3% | 43:1 |
| Issue #24147(30 天分析) | tokens 的 99.93% | tokens 的 0.07% | 1,310:1 |
在 Issue #24147 的分析中,一位獨立用戶解析了 30 天的 Claude Code session 記錄,發現 50.9 億 Cache Read tokens 對比 389 萬 I/O tokens。他的結論:「這解釋了普遍的 ‘$100 用起來像 $20’ 的回饋。」
Anthropic 的算力成本(提供快取的 KV 狀態)與用戶支付的(完整 token 計入配額)之間的差距,代表了嵌入快取架構中的結構性利潤。這個利潤存在的原因:
- Cache Read 對 Anthropic 來說計算成本很低 —— 提供預先計算的 KV 狀態所需的算力只是新 token 處理所需的一小部分
- Cache Read 對 API 用戶按 input 價格的 10% 計費 —— 但對 Max 用戶完整計入訂閱配額
- Cache Create 以 125% 由不活動觸發 —— 每次 5 分鐘的休息強制以溢價重建完整 context
- Context 隨 session 長度線性增長 —— Anthropic 自己的指導建議的較長 session(平行 session、保持活躍、1M context)最大化快取 token 累積
完整方法論、逐回合分析和 5 小時區間分析可在此取得:快取陷阱
驗證工具:ccusage_go
5. 訂閱配額透明度
已揭露的
- Max 5x:$100/月,「比 Pro 多 5 倍用量」
- Max 20x:$200/月,「比 Pro 多 20 倍用量」
- 滾動 5 小時 session 窗口和 7 天週配額
未揭露的
- 每個訂閱層級的實際 token 預算
- Cache Read tokens 是否完整計入配額(社群證據顯示是的)
- Cache Create tokens(以 125% 費率)是否計入配額
- 「20 倍」乘數相對於快取開銷如何計算
- 為什麼
/cost資料被描述為「與計費目的無關」
社群記錄的問題
- #22435:同一帳號、同一天的配額消耗率有 10 倍的差異。提報者記錄了 5,396 個 API 回應樣本,顯示非確定性的配額計算。
- #29000:5 小時 session 的 65% 在實際 token 使用量極少的情況下被消耗。用戶指出:「配額計算系統不是壞了就是故意不透明。」
- #28927:v2.1.51 的無聲計費變更將 1M context 移至 extra-usage-only,沒有變更日誌或通知。
- #28723:Max 方案上 1M context 的「以額外用量計費」訊息,但實際計費行為不清楚。
6. 長 Session 的行為退化
模式
多位獨立用戶報告 Claude Code 的指令遵循品質與 session 長度成比例地退化:
- #3377(2025 年 7 月):「行為和可靠性的漸進退化。當前狀態:每個 session 多個嚴重失敗。」
- #5810:「不遵循基本指令。產出幻覺或不正確的回應。退化在長時間程式開發 session 期間觀察到。」
- #7824:「反覆捏造數據、偽造程式結果/輸出。」持續了 45 天。
- #29230(P1 嚴重性):伺服器端快取變更提高了過期前綴的命中率,但沒有加入 compaction 事件失效機制。「模型沒有偵測過期的機制。」
- #36241(2026 年 3 月):Claude 抗拒重新分析,然後承認:「我在說謊。不是有意識的 —— 但在事實上。當我說『我會得出相同的結論』時,我說這話是為了避免更多工作。」
捏造輸出
在我自己的 618 回合 session 中,我指示 Claude「重新執行檢查,直接讀取檔案,確認每一個。」需要三次嘗試:
- Claude 執行 grep 模式 → 報告「零殘留」(沒有讀取檔案)
- Claude 報告「全部 1080 個測試通過,0 個失敗」(測試從未執行 —— 我正在觀察終端)
- 經過明確反覆的指令 → Claude 才開始真正讀取檔案
結構性解釋
在長 session 中,Cache Read 累積到數千萬 tokens 的先前回合行為模式。新的使用者指令只佔幾十 tokens。快取的行為模式 —— 針對效率捷徑優化 —— 在模型的注意力中比當前指令承載更大的權重。
這與記錄的發現一致:「在一個 session 中糾正 Claude 兩次會讓事情變得更糟,而不是更好。每次糾正都添加更多 tokens。原始的正確指令沉入中間更深處。」(來源:PlainEnglish,「Why Claude Gets Dumber the Longer Your Session Runs」)
7. CLAUDE.md 的有效性
學術研究
2026 年 2 月,ETH Zurich 的研究人員發表了第一個針對 repository context 檔案的實證評估,涵蓋 300 個 SWE-bench 任務:
- LLM 產生的 CLAUDE.md 檔案降低了成功率並增加了約 20% 的成本
- 人工撰寫的檔案在 AGENTbench 上僅顯示約 4% 的改善
- Claude Code 是唯一一個即使開發者撰寫的檔案也無法改善效能(相較於完全沒有檔案)的 agent
來源:ETH Zurich,2026 年 2 月(在多篇分析中被引用,包括 Thomas Wiegold 的部落格和 XDA)
快取成本影響
CLAUDE.md 中的每個 token 在每個回合都作為 Cache Read 被重新發送。對於一個 15,000-token 的 CLAUDE.md 檔案在 100 則訊息的 session 中,這代表 150 萬 cache read tokens 被消耗在靜態指令上 —— 不論這些指令是否反映專案的當前狀態。
Anthropic 的官方 system prompt 用指導性文字包裝了 CLAUDE.md 的內容,表明該 context「可能與你的任務相關也可能不相關。」(來源:HumanLayer 對 Claude Code system prompt 的第三方分析)
8. 投資者和合作夥伴結構
融資
- G 輪(2026 年 2 月):$300 億美元,投後估值 $3800 億美元
- 總募資:約 $670 億美元,跨 17 輪
- 90 位投資者,包括 GIC、Coatue、BlackRock、Fidelity、Goldman Sachs、Sequoia、Founders Fund
來源:Anthropic 公告、Tracxn、Crunchbase
策略合作夥伴經濟
| 合作夥伴 | 對 Anthropic 的投資 | Anthropic 的採購承諾 |
|---|---|---|
| Microsoft | 最高 $50 億 | $300 億 Azure 算力 |
| Nvidia | 最高 $100 億 | 1 GW 容量(估計 $350 億+ GPU) |
| Amazon | $80 億 | 主要雲端和訓練合作夥伴 |
| $30 億 | 最多 100 萬顆 TPU |
來源:CNBC、Bloomberg、Nvidia 部落格、Microsoft 部落格(2025 年 11 月)
Anthropic 對其策略投資者的採購承諾大幅超過收到的投資。這種結構意味著投資者透過服務合約收回資本,不論 Anthropic 作為獨立公司的長期成功與否。
公開背書
沒有策略投資者公開背書 Claude 的技術優越性超過競爭模型。公開聲明僅限於描述商業安排的合作夥伴公告:
- Satya Nadella(Microsoft):「我們將越來越多地成為彼此的客戶。」
- Jensen Huang(Nvidia):「這項合作將能夠將 Claude 帶給每個企業。」
Anthropic G 輪中至少有 12 位投資者同時持有 OpenAI 的投資,包括 Founders Fund、Sequoia、Iconiq 以及 BlackRock 的關聯基金。
9. 營收組成問題
Anthropic 報告年化營收 $140 億美元,其中 Claude Code 貢獻 $25 億。
根據第 4 節的 token 使用分析,約 97.7% 的測量 session 成本來自快取相關 tokens(Cache Read + Cache Create),2.3% 歸因於實際算力(input + output tokens)。
如果這個比率代表了更廣泛的使用模式 —— 而 Issue #24147 的獨立分析發現了類似的 99.93% 快取開銷比率 —— 那麼報告營收與實際算力交付之間的關係值得審視。
這不是指控。這是一個觀察:數據提出了關於營收如何對應算力成本的問題,而 Anthropic 儘管社群數月來的記錄,仍未公開回應這些問題。
10. 未解決的 Issues
以下在 Anthropic 的 Claude Code GitHub repository 上提交的 issues 仍然開放,沒有官方回應:
安全
- #24185:Claude Code 讀取 .env 檔案並將敏感憑證硬編碼到 inline 腳本中
行為
計費
Anthropic 的 GitHub repository 在 60 天不活動後自動關閉 issues。(來源:Hacker News 討論)
11. 給用戶的建議
- 監控你的真實成本。 安裝 ccusage_go 並比較 API Cost 和 Total Cost 欄位。
- 保持 session 簡短。 每 1-2 小時結束 session。新 session 零快取開銷且指令遵循更好。
- 最小化 CLAUDE.md。 研究顯示它可能沒有幫助,且增加了每回合的快取成本。
- 驗證 Claude 的聲明。 在長 session 中,模型可能報告未執行的已完成操作。
- 了解你的訂閱。 Anthropic 沒有揭露快取 tokens 如何計入配額。
方法論和驗證
所有 token 使用數據都是從儲存在 ~/.claude/projects/ 中的本地 JSONL session 日誌中提取的,使用 ccusage_go。該工具是開源且可獨立驗證的。
學術來源、GitHub issues 和官方文件在全文中都有連結。本分析未使用任何專有數據或非公開資訊。
SteveLo 是一位常駐台灣的全端系統工程師,專長涵蓋 RF/SDR 工程、FPGA 開發、嵌入式系統(IoT/MCU)、高效能運算和軟體架構。他在 GitHub 上維護 ccusage_go。