Anthropic's Claude Opus 4.6 uncovers 500 zero-day flaws in open-source code
Hacker News
Anthropic's advanced AI model, Claude Opus 4.6, has successfully identified 500 previously unknown zero-day vulnerabilities within open-source code. This breakthrough highlights the growing capability of AI in software security and code auditing.
Anthropic 的 Claude Opus 4.6 在開源程式碼中發現 500 個零日漏洞
Hacker News
23 天前
AI 生成摘要
Anthropic 的先進 AI 模型 Claude Opus 4.6 已成功在開源程式碼中識別出 500 個先前未知的零日漏洞。這項突破凸顯了 AI 在軟體安全和程式碼審計方面的日益增強的能力。
Anthropic 最近發布其最新模型 Claude Opus 4.6,並聲稱該模型在開源軟體中發現了超過 500 個高風險的零日漏洞(Zero-day flaws)。這項消息引發了技術社群的高度關注,討論核心圍繞在 AI 驅動的漏洞挖掘技術是否已達到實用階段,以及這類宣傳背後是否存在過度包裝的嫌疑。
社群觀點
Hacker News 社群對此消息的反應呈現兩極化。質疑者認為這更像是一場行銷活動,缺乏透明的驗證數據。部分留言指出,Anthropic 提供的系統卡片與部落格文章內容過於簡略,僅列舉了少數如緩衝區溢位(Buffer Overflow)的案例,難以判斷這些漏洞的實際挖掘難度,或是是否經過精心篩選。此外,社群中也出現了對「OpenClaw」等特定專案普及程度的爭論,有人質疑這些所謂被修復的專案是否真的具有廣泛的經濟影響力,甚至懷疑部分討論中提到的專案名稱是否為 AI 幻覺或過度誇大的產物。
然而,資深安全專家 tptacek 的加入為討論帶來了不同的維度。他認為 LLM 在漏洞研究領域的潛力不容小覷,並指出漏洞挖掘本身就是一種高度依賴模式識別、擁有大量既有範例且具備閉環驗證特性的任務,這與 LLM 的強項完美契合。他反駁了那種將專業研究員使用 AI 尋找漏洞,與一般人利用 AI 產生大量低品質回報(Slop)混為一談的觀點。他強調,Anthropic 擁有頂尖的安全研究團隊與龐大資金,其產出的研究成果與隨機腳本小子(Script kiddies)的行為有本質上的區別。
討論中也觸及了 AI 尋找漏洞的具體邏輯。有留言分析了 Claude 在處理 Ghostscript 漏洞時的表現,發現 AI 雖然在最初的模糊測試與手動分析中失敗,但當它觀察到程式碼提交歷史中某處增加了邊界檢查時,便能靈敏地推論出其他未修改處可能存在類似漏洞。這種「大局觀欠缺但細節執行卓越」的特性,被認為是目前 AI 輔助安全審查的典型樣貌。
此外,社群也反思了這類技術對開發生態的長遠影響。有人擔憂這會演變成「製造問題再販售解決方案」的商業策略,但也有觀點認為,如果 AI 能持續且廉價地發現 C 語言等不安全語言中的漏洞,或許會減緩企業將舊有系統重寫為 Rust 等安全語言的壓力,進而改變軟體工程的投資優先順序。儘管目前對 Opus 4.6 的具體表現仍有爭議,但社群普遍共識是:AI 輔助的漏洞挖掘已不再是科幻,而是安全從業者必須正視的現實。
延伸閱讀
Anthropic 官方紅隊測試報告:詳細說明了 500 個零日漏洞的發現背景與部分案例。
Google Project Zero 的「Big Sleep」計畫:展示了 LLM 在實際漏洞挖掘中的前導研究。
Daniel Stenberg(curl 作者)關於 AI 提交漏洞回報的部落格文章:探討了開源專案維護者如何應對 AI 產生的安全報告。
Claude Code 與相關 API 狀態頁面:提供關於 Anthropic 開發工具可用性的即時資訊。