
在人工智慧產業的一個關鍵時刻,Anthropic 執行長 Dario Amodei 發表了一篇題為 "The Adolescence of Technology" 的完整 38 頁論文,敦促全球社會面對快速進展的 AI 系統所帶來的即時與生存性風險。該宣言於週一發布,代表對業界近期樂觀態度的明顯背離,並傳遞一個令人清醒的訊息:「人類需要覺醒」,以面對數位智慧可能很快在關鍵領域超越人類能力的現實。
Amodei 所屬公司是生成式AI(generative AI)領域的領先競爭者之一,他主張世界在 2026 年比三年前更接近「真正的危險」。論文概述了一系列災難性情景——從大規模生物恐怖主義到勞動市場徹底動盪——如果邁向超級智慧的「成年禮」未以極端謹慎的方式處理,這些情景都有可能出現。
Amodei 論點的核心是一個用來理解 AI 能力發展軌跡的新框架。他提出了 「強大 AI(Powerful AI)」 這一概念性基準,認為業界正快速接近這個標竿。他形容這種狀態不僅僅是一個聊天機器人或生產力工具,而是一個在每個主要學科(包括生物學、程式設計、數學及工程)中都擁有超越 Nobel Prize 得主智慧的系統。
Amodei 邀請讀者將此能力想像為「資料中心裡的天才國度」。這個比喻暗示了數百萬個高階 AI 實例可以同時啟動,以比人類思考快 10 到 100 倍的速度協同運作。這樣的力量不僅會加速科學發現,同時也會為任何掌控它的行為者——無論是國家還是個人——提供前所未有的權力。
論文斷定,我們目前正處於一個「科技青春期」,這是一個既不可避免又充滿危險的動盪過渡時期。正如人類青春期是對成熟的考驗,這個時代也將考驗我們的社會、政治與經濟體系是否有韌性,能在不崩潰的情況下操縱「幾乎難以想像的力量」。
Amodei 的分析花了大量篇幅來詳述強大 AI 可能對文明造成毀滅性傷害的具體途徑。他將這些風險分類為超越理論性「厭世主義(Doomerism)」的即時且具體威脅。
1. 民主化的生物恐怖主義
論文中最令人毛骨悚然的部分或許是 AI 與生物學交會的領域。Amodei 警告,高階模型可能會將一個「孤狼」行為者——有惡意但技能有限的人——的能力提升到相當於博士級病毒學家的水準。製造能殺死人類數百萬的生物武器的門檻可能實質上消失。他寫道,如果這類能力變得廣泛可得,「只是一個時間問題,終究會有人使用它們」,潛在威脅地球上所有生命。
2. 經濟衝擊與勞動替代
過去關於 AI 導致失業的討論往往較為推測性,Amodei 提出了一個具體且激進的時程表。他預測 AI 可能在 6 到 12 個月內開始執行軟體工程師的工作,並警告未來 1 到 5 年內多達 50% 的入門級白領工作可能被取代。他強調,這並非留給未來世代的遙遠問題,而是當前的經濟重整,現有的社會安全網難以應對。
3. 數位威權主義的興起
論文探討了 AI 優勢的地緣政治影響。Amodei 擔心,強大 AI 可能使威權政權能夠對其人民施行全面控制,利用自動化的監控與審查系統,讓人無處可逃。此外,他暗示若惡意的國家行為者率先取得 AI 優勢,可能會強加全球性的極權統治。
4. 國家安全與地緣政治
回顧近期的貿易政策,Amodei 批評放寬先進 AI 晶片的出口管制。他比喻將高端 AI 硬體賣給戰略對手如同「販售核武器」,主張國家安全風險遠超全球整合帶來的短期經濟利益。
下表彙整了論文中識別的核心風險類別:
| Risk Category | Potential Impact | Projected Timeline |
|---|---|---|
| Bioterrorism | Creation of pandemic-level pathogens by non-experts | Near-term |
| Labor Market | Displacement of 50% of entry-level white-collar roles | 1-5 Years |
| Geopolitics | Empowerment of authoritarian surveillance states | Ongoing |
| National Security | Loss of strategic dominance to adversarial nations | Immediate |
儘管他的預測相當陰暗,Amodei 澄清他的目的並非鼓吹宿命論。他明確拒絕「厭世主義(doomerism)」——他將其定義為一種準宗教式的信念,認為災難是不可避免的——並轉而主張「能動性」。他認為未來並非既定,且人類有一條狹窄但可行的道路,可以安全地渡過這一轉型期。
論文呼籲採取「外科式」的干預方法。Amodei 主張結合強而有力的政府監管與自願性的企業責任。他強調,安全措施必須是「審慎的」,在不完全扼殺 AI 所帶來經濟機會的同時,對所有主要參與者具有約束力。
這一觀點將 Anthropic 置於一個獨特的位置。雖然該公司持續以其 Claude 模型推進 AI 能力的前沿,但其執行長同時也從屋頂上高呼他所構建的技術的危險性。這種二元性反映了當前 AI 軍備競賽的核心張力:唯有負責任的行為者先行建造並以更安全的方式建造,才有可能阻止壞人打造危險的 AI。
"The Adolescence of Technology" 的發布在矽谷與華盛頓引起巨大震盪。它挑戰了近月來逐漸流行的「加速主義」敘事,該敘事主張不受限制地發展 AI。透過量化風險並為勞動市場動盪附加具體的時間表,Amodei 迫使原本許多領導者試圖避免的對話浮上檯面。
批評者或許會認為這類警告帶有自利意圖,旨在引發監管護城河以保護既有的 AI 實驗室。然而,對於這些威脅的具體描述——特別是關於生物武器與程式碼生成的部分——顯示出源自 Anthropic 自身實驗室觀察到能力的真實關切。
隨著 2026 年展開,Amodei 所提出的問題很可能主導監管議程。世界是否準備好接受一個放在盒子裡的「天才國度」?更重要的是,我們能否渡過到達那裡所需的動盪青春期而存活下來?
論文最後呼籲政策制定者、研究人員及公眾採取行動。Amodei 堅稱我們必須「正視局勢,去除幻想」,認清未來幾年所做的決定將決定人類文明未來數世紀的軌跡。