2026 年 4 月這一週,AI 產業悄悄發生兩件事:Anthropic 開始對部分 Claude 使用者要求政府核發實體相片 ID 與即時 selfie 驗證,OpenAI 同步發佈 GPT-5.4-Cyber 並擴張 Trusted Access for Cyber 計劃,最高級存取必須通過 KYC(Know Your Customer,認識你的客戶)並且放棄 zero data retention(簡稱 ZDR,零資料保留)。兩家動作只差幾天,這顯然不是巧合,而是 frontier AI 從「有信用卡就能用」進入「vetted access only」的時代轉折。

本文整理兩家公司的 KYC 政策差異、為什麼是現在這個時間點、以及最重要的——把護照跟 selfie 交給 Persona 這類第三方驗證商之後,使用者真正要擔心什麼。

兩家 AI 公司怎麼做 KYC

Anthropic Claude

Anthropic 在 2026 年 4 月開始在 Claude 上 rolling out identity verification,由身分驗證 SaaS 廠商 Persona 處理。被要求驗證的使用者需要交:

  • 政府核發的實體相片 ID(不接受影本、不接受數位 ID)
  • 可能還要做即時 selfie,比對活體與證件照

目前並非全面強制。官方文件只說「rolling out for a few use cases」,社群觀察到的觸發條件包含新訂閱、特定方案升級、特定地區的存取,以及被偵測為可疑使用模式的帳號。換句話說,不少 Claude 使用者目前用起來可能完全感覺不到變化,但某天突然被擋下來要求驗證的情況會越來越多。

官方 Help Center 列出三大原因:防止濫用(abuse prevention)、執行使用政策(enforce usage policies)、遵守法律義務(legal obligations)。另外有一條獨立的年齡規定——18 歲以下不得使用,KYC 是執行這條規則的工具之一。Anthropic 對這件事的立場寫得很直白:

Being responsible with powerful technology starts with knowing who is using it.

沒有公開的 opt-out 機制,被觸發後不驗證就無法繼續使用該功能或訂閱。可以選擇取消訂閱、改用其他服務,但這個「不驗就出去」的選擇本身就是一種強制。

OpenAI 的 API + Cyber 雙線

OpenAI 走的路線跟 Anthropic 不太一樣,是雙線並行——對企業 API 跟對特殊高風險模型分開設計。

API Verified Organization(2025 年 4 月起)

OpenAI 在 2025 年 4 月就推出 Verified Organization 制度,想用最先進的模型(o-series、video、reasoning model 與未來新模型)必須完成組織驗證。流程是開發者用政府核發 ID 數位驗證自己,並證明跟組織的關聯。其中有一條很值得注意:一張 ID 每 90 天只能驗證一個組織,等於把「隨便註冊一堆假組織」這條路堵死。

對企業客戶來說衝擊不大,因為大公司本來就有 KYB(Know Your Business,認識你的企業)流程,多走一道 OpenAI 的驗證沒什麼障礙。但對個人開發者就比較吃力——以前用個人帳號隨手 prototype,現在要解鎖最新模型得拿出護照。

GPT-5.4-Cyber 與 Trusted Access for Cyber

2026 年 4 月 14 日,OpenAI 發佈 GPT-5.4-Cyber——專為防禦性 cybersecurity 任務微調的模型。它最關鍵的特點是降低拒絕邊界:能夠回答漏洞研究、二進制逆向工程、惡意軟體行為等敏感問題。這些事情在一般 ChatGPT 上會被 safety filter 擋下來,但安全研究員卻日常需要。

因為這個模型本身能力 dual-use 風險很高(同樣的知識可以用來防禦也可以用來攻擊),OpenAI 把存取分成三層,每一層都要 KYC:

  • 個人:在 chatgpt.com/cyber 認證
  • 企業團隊:透過 OpenAI 業務代表開通
  • 安全研究員最高級:邀請制,必須放棄 zero data retention,讓 OpenAI 能完整看到使用內容

Trusted Access for Cyber 計劃 2 月小規模推出,4 月擴展到「數千名 verified defender 與數百個防禦關鍵團隊」。OpenAI 自己的論點是:對 dual-use 高風險能力來說,「verification + monitoring」比單純拒絕更有效——因為 jailbreak 永遠跑得贏 prompt 層面的防護,但身分綁定加事後監控可以把濫用成本拉到非常高。

三家 AI 公司比一比

把目前各家狀況整理成表格:

服務對象驗證項目觸發時機
Anthropic Claude部分消費者政府實體 ID + selfierolling out,特定 use case 觸發
OpenAI Verified OrgAPI 組織 / 開發者政府 ID + 組織關聯想用 o-series、video、未來新模型
OpenAI GPT-5.4-Cyber個人 + 安全團隊KYC + 放棄 ZDR想用該特化模型
Google Gemini無強制Google 帳號(手機)
xAI Grok無強制X 帳號(藍勾勾另計)

Anthropic 對個人消費者的驗證是目前各家中最嚴格的——Google 跟 xAI 還停在帳號體系,Anthropic 直接要 government ID 加 selfie。OpenAI 雖然 API 端要求嚴,但消費者 ChatGPT 帳號目前還沒強制 KYC(除非要用 Cyber 模型)。

為什麼是現在

兩家公司同週推 KYC 不是巧合,背後有幾條線同時匯流。

工業級蒸餾事件

Anthropic 在 2026 年初公開揭露:有幾家實驗室透過約 24,000 個假帳號、超過 1,600 萬次互動,工業級規模蒸餾 Claude 的能力,違反服務條款與區域限制。這些實驗室使用 commercial proxy 與所謂的 hydra cluster 架構(大量分散的假帳號網絡)規避地區檢查,最後還是被 Anthropic 透過 IP 相關性、行為模式、協調性特徵抓出來。Anthropic 的核心論點是:未授權蒸餾建出的模型不會保留原模型的 safeguards,可能被用在生物武器、惡意網路攻擊等高風險場景。

這個事件給了 Anthropic 推 KYC 的法律與政治正當性——既然能匿名註冊就能搞出 24,000 個假帳號,那不如一開始就把身分卡死。

dual-use 高風險能力解禁

GPT-5.4-Cyber 是一個指標:當模型能力強到能跟資安專家對等討論漏洞時,「全面拒絕」反而會把合法使用者一起擋掉。OpenAI 選的路是「拒絕」做不到的事,用「身分綁定加監控」做。這個邏輯一旦成立,後面的 bio model、agent model、video model 大概都會走同樣模式。

出口管制與年齡驗證的合規壓力

美國商務部 BIS(Bureau of Industry and Security)對 frontier AI model 的存取限制日益緊縮。AI 公司主動推 KYC 是配合這條合規線——能證明「我們已經知道用戶是誰」,後續就有立場拒絕特定國籍、特定組織的存取。沒有 KYC 的話,這條線根本沒辦法執行。

另一條合規線是各地年齡驗證與 AI 治理立法:

  • 英國 Online Safety Act 自 2025 年 7 月起,要求成人內容、自殘等類別平台做年齡驗證
  • 美國 Utah 州 2025 年 3 月通過 App Store Accountability Act,Texas 也通過 TRAIGA(Texas Responsible AI Governance Act)2026 年生效(題外話:Texas 較早一條 App Store 年齡驗證法在 2025 年底被聯邦法院禁令暫停)
  • EU AI Act 對部分高風險系統的部署有使用者識別與紀錄要求,雖然不是針對一般 AI 服務的 KYC,但整體立法方向強化了 AI 公司「知道用戶是誰」的誘因

幾條線匯流,AI 公司就算不想也得做 KYC,只是 Anthropic 跟 OpenAI 走得比 Google、xAI 早一點。

一個推測:為 Claude Mythos 鋪路

這邊放一個我自己的推測。Anthropic 在 2026 年 3 月公開了下一代模型 Claude Mythos Preview,能力強到可以自動找出主流作業系統與瀏覽器的 zero-day 漏洞,連 27 年前 OpenBSD、16 年前 FFmpeg H.264 codec 的老洞都被它挖出來。這種層級的模型目前只透過 Project Glasswing 限定釋出(大約 50 個夥伴組織),沒有自助註冊。

光看這個能力描述,就能理解為什麼 Anthropic 目前把 Mythos 關得這麼緊。但換個角度想,這不只是怕被濫用那麼單純,可能也是在等自家的防蒸餾與身分驗證流程更完善。畢竟 Mythos 這種層級的能力一旦被蒸餾複製出去,後果比 Claude Opus 4.6 嚴重得多。

還有一個角度:KYC 不只擋蒸餾,也能降低越獄(jailbreak,繞過模型安全限制)嘗試。Mythos 這種能挖 zero-day、設計 exploit 的模型,一旦被成功越獄,危害比一般聊天模型大得多。而越獄這件事有個隱藏成本——要反覆試錯、要養一批帳號做 A/B 測試,失敗的帳號會被停。當帳號註冊從「填個 email」變成「交護照加 selfie」,這個成本會被拉高非常多。以前註冊一個新帳號繼續試只是幾分鐘的事,現在每試一次都在賭自己的真實身分。KYC 當然不能完全防止越獄,總是有一批研究者或攻擊者還是會投入,但它能把「隨手試試看」的中等熱度使用者擋掉一大批,整體嘗試量自然會被壓下來。這對 Mythos 這種高風險模型來說是重要的過濾層。

所以我猜這次 KYC 的推出,其實是 Anthropic 把 Mythos 正式版搬上檯面計劃的一部分——先把身分驗證流程跑順,等 Mythos 準備好對外開放的那一天,能走進去的使用者就已經是 verified user,風險面可以大幅限縮。如果這個推測成立,那接下來幾個月 Claude 的 KYC 觸發條件會越收越緊,直到 Mythos 公開的那一天形成自然的門檻。

交出 ID 之後要擔心的事

這個問題比「為什麼要做 KYC」更重要。把護照跟 selfie 交給 Persona 之後,真正的風險不是「會不會被用於行銷」(這個 Anthropic 已經承諾不會),而是更深層的三個面向。

Persona 是誰?可信嗎?

Persona 是美國身分驗證 SaaS,2018 年成立,客戶包含 OpenAI、Robinhood、Doordash、Lime、BlockFi 等大公司,處理過數億份 ID。在這個產業是市占大廠之一。

不過市占大反而代表單點失效風險集中,一家被打穿就影響全產業。Persona 自己目前沒有大型外洩公開記錄,但持有大量個資的大型廠商整體都曾出過事——例如 2023 年 MOVEit 漏洞牽連到聯邦承包商 Maximus,洩漏約 1,100 萬人的 Medicare 個資(PHI 與 PII,包含社安碼、醫療紀錄)。重點不在於「Persona 安不安全」,而在於把 ID 給出去之後,多了一個攻擊面——資料原本只在 Anthropic,現在 Anthropic 跟 Persona 兩邊都有。

給準備驗證的使用者建議:交 ID 之前先讀 Persona 自己的隱私政策,看清楚資料保留期、第三方分享規則、子處理者清單,再決定要不要交。

給 ID 之後的法律風險

ID 一旦交出去,就跟整個帳號的對話內容綁在一起,這條鎖鍊會引出幾個值得注意的法律面向:

  • 執法調閱:Anthropic 條款明寫「不會用於行銷,except where they’re legally required to respond to valid legal processes」——意思是收到合法傳票就交。對美國使用者是 subpoena,對其他國家是當地法院命令或國際刑事司法互助
  • 跨境資料:非美國使用者的 ID 跑到美國公司手上後,受 CLOUD Act 管轄。美國政府可以要求 Anthropic 交出資料,不論伺服器位置在哪
  • 跟對話內容綁定:KYC 之後,所有 AI 對話跟真實身分綁死。過去用匿名信箱註冊的「假名身分加真實使用」狀態消失
  • 長期保留:取消訂閱或刪除帳號後,KYC 資料的保留期 Anthropic 沒公告,但業界一般依各國 AML(Anti-Money Laundering,反洗錢)規定保留——美國 BSA 標準是 5 年,部分歐盟與其他司法管轄區可達 7-10 年

實務應對:高敏感領域的使用者——記者調查、敏感商業策略、法律諮詢、個人健康問題——應該重新評估還適不適合用 frontier model 處理這些對話,或改走 self-host open-weight 模型(Llama、Qwen、DeepSeek-R1 等),把資料留在自己機器上。

跟銀行、加密貨幣交易所的 KYC 比起來呢?

把幾個產業的 KYC 攤開來看:

面向銀行(傳統)加密貨幣交易所Anthropic ClaudeOpenAI Verified Org
法源AML / KYC 法(FinCEN、FATF)AML / KYC + MiCA / 各州規範服務條款 + 各地法規服務條款
必交資料ID + 地址證明 + 收入來源ID + selfie + 地址 + 部分要求資金來源ID + selfieID + 組織關聯
驗證強度強(含財務背景)中強中(一次性 selfie)中(每 90 天綁一組織)
監管機關央行 / FinCEN / FCA 等SEC / CFTC / 各國金融監理無專責,依 AI 法規與隱私法同左
拒絕後果不能開戶不能交易不能用該功能不能存取新模型

從這張表可以看出五個有意思的觀察:

  1. 資料項目其實比銀行少:AI 服務不問職業、收入、資金來源、社安號等財務背景
  2. 驗證頻率低:銀行可能定期更新 KYC,AI 服務目前看起來是一次性
  3. 但「資料加內容」的綁定更危險:銀行知道交易紀錄,AI 服務知道問答紀錄——後者通常更直接暴露個人想法、商業策略、健康問題、感情困擾
  4. 監管真空:銀行 KYC 有 FinCEN、FCA 等專責機關監督,AI 服務目前是「公司自律 + 隱私法兜底」,沒有專責機關規範資料怎麼處理、怎麼銷毀
  5. AI 服務正在成為「半金融化」的資料節點——比社群媒體嚴、比加密貨幣交易所鬆,但它握有的對話內容比兩者都更敏感

使用者該做什麼

  • 不重要的對話:繼續用,不太需要擔心
  • 包含敏感資訊的對話:考慮 self-host open-weight 模型,或多帳號分流(KYC 帳號做一般技術問題、匿名帳號用較弱模型做敏感內容)
  • 商業使用:直接走 API 加公司 KYB 流程,比個人 KYC 對隱私壓力小,因為驗的是公司而不是個人

常見問答

怎樣的使用者會被要求驗證?

目前是 rolling out 階段,並非全面強制。社群觀察到的觸發條件包含:新訂閱、特定方案升級、特定地區的存取、被偵測為可疑使用模式、嘗試使用特定功能。沒有被觸發到的使用者目前還不用驗證。

可以拒絕驗證嗎?

被要求後沒有公開的 opt-out 選項。不驗證就無法繼續使用該功能或訂閱,可以選擇取消訂閱、改用其他服務。

要交什麼資料?

Anthropic:政府核發實體相片 ID 加可能的即時 selfie,由 Persona 處理,不接受影本與數位 ID。OpenAI API:政府 ID 加組織關聯證明,一張 ID 每 90 天只能驗一個組織。OpenAI GPT-5.4-Cyber:除 KYC 外,最高級存取要放棄 zero data retention。

用 VPN 換國家可以避開嗎?

條款明確禁止透過違反區域限制使用服務。技術上 VPN 確實可以短時間避開某些地區條件觸發,但過去有實驗室走 commercial proxy 加大量假帳號架構想規避,最後還是被 Anthropic 透過 IP 相關性、行為模式、協調性偵測出來並公開揭露。服務條款上是明確違規,帳號可能被停權。

API 用戶也要驗證嗎?

規則跟消費者不一樣。OpenAI 是先從 API 組織開始(2025-04 起),消費者帳號目前還沒強制(除了 Cyber 模型)。Anthropic 則反過來,先從消費者部分 use case 推。API 商業客戶通常本來就有 KYB 流程,KYC 對企業反而衝擊較小。

Google Gemini、xAI Grok 會跟進嗎?

目前都還沒。Gemini 走 Google 帳號體系(已有手機驗證),Grok 走 X 帳號(含付費藍勾勾驗證)。但如果美國 export control 進一步收緊,或各地年齡驗證與 AI 治理立法擴張,這兩家很可能跟進。

未成年使用者怎麼辦?

Anthropic 明確規定 18 歲以下不得使用,KYC 是執行這條規則的工具之一。家長要注意,原本給孩子用的 Claude 帳號可能突然被要求驗證,無法通過就會中斷服務。

消費者 AI 會就此走上 vetted access 不歸路嗎?

很可能。frontier model 越強,越難用「拒絕」單獨防止濫用,「身分綁定加監控」是 OpenAI 自己直白承認的權衡方向。短期內基礎模型還會保持 anonymous access,但越強大的能力(agent、cyber、bio、video)越會綁 KYC,這個分層存取的趨勢已經成形。

小結

整理三個重點作收:

  1. 2026 年 4 月是 frontier AI 從 anonymous access 轉向 vetted access 的時代轉折,Anthropic 跟 OpenAI 同週動作不是巧合,背後是工業級蒸餾事件、出口管制、年齡驗證法、dual-use 解禁四條線匯流
  2. 給 ID 不只是「多填一個表」,是把 AI 對話內容跟真實身分綁死。多了一個 Persona 攻擊面、多了一條執法調閱通道、多了 5-7 年的長期資料保留
  3. 使用上建議分流:高敏感對話走 self-host open-weight 模型(Llama、Qwen、DeepSeek-R1)把資料留在自己機器上;技術問題用 KYC 帳號跑 frontier model;商業用直接走 API 加公司 KYB

「能用 ChatGPT 跟 Claude 不用問你是誰」這件事,可能會在未來幾年內慢慢變成歷史。對重視隱私的使用者來說,現在是重新評估自己 AI 使用方式的時候——不是要恐慌,而是要清楚每個帳號交出去的東西,跟自己的真實身分到底綁得多緊。

參考資料:

發佈留言