封印的智能: Claude Mythos 與 AI 安全的臨界點
Anthropic 發布了史上第一份主動封存自家模型的244頁危險報告 ( 系統說明卡 ) ——因為它太強大了。這是一份關於 AI 能力躍升、網路安全潰壩與人類抉擇的深度紀錄。 如果人工智慧在你晚上睡覺時做了某些事情——一個人憑藉一己之力發現了全世界電腦的弱點,四處尋找,終於找到了征服一切的完美方法——你覺得如果這本書當時已經寫出來了會怎樣?這個故事已經成為現實。 2026年4月7日,人工智慧公司 Anthropic 發布了一項公告。然而,這並非一次普通的新產品發表會。他們阻止公眾存取,是因為他們創造的人工智慧能力太強了。一份長達244頁的詳細危險報告由 Anthropic 親自發布。通常,公司開發人工智慧後將其出售,開發需要投入數千億乃至數兆日圓,但他們選擇將已建立的模型封存起來。從商業角度來看,這完全是背離常規的決定。為什麼被封存?它究竟危險在哪裡?這對我們的生活意味著什麼? 本文將詳細解釋 Claude Mythos 與 Anthropic 的背景,即使不擅長技術討論的人也能跟上。如果你仔細閱讀,就會明白我們現在活在一個怎樣的時代。 Anthropic 是一家什麼樣的公司? Anthropic 是一家成立於2021年的人工智慧研究公司。創辦人 Dario Amodei 與 Daniela Amodei 兄妹最初在 OpenAI 工作——那是一家將 ChatGPT 帶給世界的公司。然而,他們對人工智慧安全的努力感到憂慮,認為還不夠,因此獨立創辦了一家以安全為首要考量的 AI 公司。 Anthropic 目前已獲得 Amazon 40億美元、Google 20億美元的投資,估值超過180億美元。其開發的 AI 模型系列名為 Claude,與 GPT、Gemini 並列為主要 AI 模型,獲得廣泛認可。 Anthropic 有一套獨特的安全標準,稱為 RSP(Responsible Scaling Policy,負責任擴展政策)。這套系統定義了:若所開發的 AI 模型功能超過一定限度,則限制其公開發布。Claude Mythos 是該機制首次全面啟動的案例——作為一家 AI 公司,他們主動為自己創造的模型踩下煞車。 Claude Mythos 如何被發現? 2026年3月底,美國知名經濟記者 Fortine 意外發現了儲存在 Anth...