OpenAI 為免費與 Go 等級用戶推出 ChatGPT 廣告方案
自 2026 年 1 月起,OpenAI 開始在 ChatGPT 的免費與 Go 等級測試廣告,廣告將顯示在回應底部。Premium 訂閱者仍可免廣告使用。

在人工智慧產業的關鍵時刻,OpenAI 正式發佈了 GPT-5.3-Codex,這是一款突破性的程式碼模型,其與眾不同之處不僅在於性能,更在於其誕生故事。根據今日稍早發佈的公告,這是第一個在自身開發過程中提供顯著協助的部署模型,有效地標誌著產業正式進入遞迴自我改進(Recursive Self-Improvement)時代。
此次發佈正值產業活動的高峰期。在一連串戲劇性的事件中,OpenAI 的公告在競爭對手 Anthropic 發佈其自身的代理型程式碼模型幾分鐘後便隨之而至,為開發者工具市場的一場高風險對峙拉開了序幕。然而,OpenAI 聲稱 GPT-5.3-Codex 成功地「對自身的訓練運行進行了除錯(Debugged its own training run)」,這引起了科技界的廣泛關注,將對話從簡單的程式碼生成轉向了自主系統管理(Autonomous system stewardship)。
AI 為自身的創造做出貢獻的概念長期以來一直是理論上的里程碑——在科幻小說中通常被稱為「奇點(Singularity)」。雖然 GPT-5.3-Codex 並不代表失控的智慧,但它展示了這種回饋迴路的功能性、受控版本。OpenAI 的技術報告顯示,該模型在部署前階段已整合到公司的內部 DevOps 和研究管線中。
與其前代模型不同,前代模型需要人類工程師細緻地診斷評估失敗或優化訓練內核(Training kernels),而 GPT-5.3-Codex 被授予了「代理(Agentic)」權限。它成功識別了訓練數據攝取中的效率低下問題,編寫了補丁(Patches)來修復這些問題,並診斷出評估指標中的特定異常。
這種能力代表了從**被動工具(Passive Tooling)到主動協作(Active Collaboration)**的轉變。該模型不僅僅是向人類審查建議程式碼片段;它還管理了自身子模組的部署,減少了 OpenAI 人類研究人員的營運開銷。這種內部的「吃自家的狗糧(Dogfooding)」——即 AI 構建 AI——催生了一個對複雜軟體架構細微差別進行了深度調整的系統。
除了遞迴開發能力外,GPT-5.3-Codex 還擁有顯著的性能升級。對開發者而言,最直接的好處是與之前的旗艦模型相比,執行速度提升了 25%。
據報導,這種速度提升是模型自我優化的直接結果。在開發過程中,系統分析了自身的推理路徑(Inference pathways),並對其運行中使用的底層 CUDA 內核提出了優化建議。
關鍵性能改進:
這對企業客戶的影響是深遠的。更快的推理直接轉化為更低的 API 成本和減少用戶端應用程式的延遲,使 GPT-5.3-Codex 成為即時軟體開發環境的強大引擎。
GPT-5.3-Codex 的發佈強調了產業向「代理型 AI(Agentic AI)」的轉向。雖然像 GPT-4 之前的模型充當的是複雜的自動完成引擎,但代理型模型旨在追求目標。它們計畫、執行、觀察結果並進行迭代。
對於軟體工程師來說,這預示著日常工作流程的轉型。人類開發者的角色正日益轉向高層級架構和監督,而語法、測試和部署管線管理的「繁重工作」則交由 AI 處理。
為了說明這一轉變,下表將傳統大型語言模型(Large Language Models, LLMs)的功能與 GPT-5.3-Codex 設定的新代理標準進行了比較。
比較:傳統 vs. 代理型編碼模型
| 功能 | 傳統編碼 LLMs | GPT-5.3-Codex(代理型) |
|---|---|---|
| 錯誤處理 | 標示錯誤;建議修復方式 | 自動診斷、修補並重新運行程式碼 |
| 範圍 | 函式或檔案層級的生成 | 儲存庫(Repository)層級的架構與部署 |
| 開發角色 | 助手(Copilot) | 協作者(DevOps 與工程) |
| 訓練輸入 | 靜態數據集 | 來自自我診斷的動態回饋 |
| 優化 | 需要人工調整 | 自我優化運行時內核 |
這次發佈的時間點不容忽視。TechCrunch 報導稱,Anthropic 在 OpenAI 宣佈之前的幾分鐘推出了其競爭的代理型編碼模型。這種同步性顯示了這兩家總部位於舊金山的實驗室之間存在著激烈的開發速度「冷戰」。
雖然關於 Anthropic 模型的細節仍在浮現,但同步發佈迫使市場在兩種不同的哲學之間做出選擇。Anthropic 歷來強調「憲法 AI(Constitutional AI)」和安全護欄,通常導致更保守的模型行為。而 OpenAI 憑藉 GPT-5.3-Codex,似乎正在推動自主性的邊界,賭注於自我改進模型帶來的生產力增益將超過授予 AI 更多程式碼執行控制權所帶來的內在風險。
分析師預測,2026 年的「模型戰爭(Model Wars)」將不會在標準化測試的基準分數上展開,而是在**實用性(Utility)**上展開——具體來說,是指模型在企業防火牆內可以安全獲得多少自主權。
引入一個「幫助構建自身」的模型不可避免地引發了安全疑慮。如果一個 AI 可以修改自己的訓練程式碼,那什麼能阻止它引入偏見或覆蓋安全協議?
OpenAI 在其系統卡中解決了這個問題,強調雖然 GPT-5.3-Codex 協助了除錯和優化,但所有關鍵的架構決策和最終的程式碼提交仍處於嚴格的人類審查之下。「自我改進」被嚴格限制在效率和錯誤修正範圍內,而非目標修改。
儘管如此,趨勢是明確的。隨著這些模型變得更擅長編碼,它們也變得更擅長改進運行它們的軟體。GPT-5.3-Codex 的發佈可能會加速關於「遞迴 AI 監管(Recursive AI Oversight)」的監管討論,這一話題已從學術論文轉向華盛頓和布魯塞爾的立法機關。
GPT-5.3-Codex 代表的不僅僅是版本的更新;它驗證了 AI 可以加速自身進步的假設。透過成功僱用該模型來除錯其訓練並管理其部署,OpenAI 展示了一種實際的飛輪效應。
對於依賴 Creati.ai 獲取最新見解的開發者和企業來說,結論是具備行動力的:工具棧正在變得主動。我們正從「與」AI 一起編寫程式碼,轉向「監督」AI 編寫並改進自身。在我們接下來幾週評估 GPT-5.3-Codex 時,要觀察的主要指標將是信任:不僅在於程式碼是否運行,更在於我們是否信任編寫程式碼的代理能管理它所居住的系統。