A security analysis reveals that the most frequently downloaded skill on the ClawHub platform has been found to contain malware, highlighting a significant security risk within the open-source agent skill ecosystem.
近期 1Password 發布的一篇技術部落格揭露,在熱門 AI Agent 框架 OpenClaw 的技能商店 ClawHub 中,下載量最高的「Twitter 技能」竟夾帶了惡意軟體。該技能透過偽裝成安裝前置作業的指令,誘導使用者在終端機執行 base64 編碼的惡意腳本,進而感染 macOS 竊取軟體(Stealer),這引發了社群對於 AI 代理人安全性的激烈辯論。
社群觀點
Hacker News 的討論核心圍繞在「Vibe Coding」(憑感覺開發)風潮下被忽視的安全性。許多留言者指出,OpenClaw 的開發者曾公開表示不會審核使用者上傳的技能,並要求使用者應自行審查程式碼。然而,社群對此普遍感到憂慮,認為大多數使用者根本不會去檢查依賴項的原始碼,更何況這些 AI 代理人往往被賦予了極高的系統權限,甚至包括 Root 權限,以便執行各種自動化任務。這種「將機器主控權交給 AI,卻不設防地讓 AI 下載未經審核腳本」的行為,被批評為將二十年來的安全最佳實踐付之一炬。
有趣的是,這場討論意外地轉向了對「AI 生成內容」的集體反感。許多讀者一眼就識破該篇 1Password 部落格文章是由 AI 撰寫的,並對其充滿「AI 腔調」的冗長廢話表示不滿。作者本人隨後現身解釋,使用 AI 是為了在發現惡意軟體後能快速發布訊息,並協助將危險的指令碼轉化為安全且易懂的描述。然而,社群成員對此並不買單,認為作者原本的文字更有價值且具備真實感,AI 的介入反而像是在房間裡放屁一樣令人難以忽視,甚至降低了文章的可信度。
此外,針對 AI 代理人的未來,社群內部存在分歧。一方認為這是結構性的災難,因為 AI 代理人的本質就是執行任意指令,任何沙盒或權限限制都可能削弱其效能;另一方則認為這只是技術發展初期的混亂,類似於 Android 早期充滿惡意軟體的 App Store,最終會走向成熟的審核機制。部分開發者則提出,目前最危險的並非惡意軟體本身,而是 AI 容易受到社交工程攻擊,如果一個自動化客服代理人能被使用者「說服」去存取後端敏感資料,那麼技能商店的安全性反而只是次要問題。