newsence
來源篩選

Anthropic ditches its core safety promise

Hacker News

Anthropic has replaced its rigid Responsible Scaling Policy with a more flexible safety framework to maintain competitiveness and navigate political pressure from the Pentagon. The company argues that unilateral pauses in AI development could lead to a less safe world if less cautious competitors continue to advance.

newsence

Anthropic 在與五角大廈的 AI 紅線爭端中放棄核心安全承諾

Hacker News
2 天前

AI 生成摘要

我們更換了原本僵化的負責任縮放政策,轉而採用更具彈性的安全框架,以維持競爭力並應對來自五角大廈的政治壓力。我們認為,若在其他不謹慎的競爭對手持續前進時單方面暫停 AI 開發,最終可能會導致一個更不安全的世界。

背景

Anthropic 作為由 OpenAI 前員工創立、標榜「以安全為核心」的 AI 公司,近期宣布修改其《負責任擴展政策》(Responsible Scaling Policy),將原先具備約束力的安全承諾轉向更具彈性的非約束性框架。此舉正值該公司與美國國防部針對 AI 安全紅線進行激烈交鋒之際,外界普遍認為這標誌著 Anthropic 正式放棄其創立初期的道德制高點。

社群觀點

Hacker News 的討論呈現出極高的諷刺與幻滅感。多數用戶認為 Anthropic 的轉變完全在預料之中,並指出這類標榜「公共利益」或「有效利他主義」的企業,一旦涉及風險投資與地緣政治競爭,其道德承諾便會迅速瓦解。有評論戲稱,Google 花了十五年才走向「邪惡」,而 Anthropic 僅用了兩年就完成了這個過程。這種「邪惡化」的加速被視為 AI 產業高壓競爭下的必然產物,尤其是當公司面臨五角大廈以《國防生產法》威脅、甚至可能被列入黑名單的極端壓力時,所謂的獨立安全政策在國家機器面前顯得微不足道。

部分留言者對 Anthropic 遭受的政府脅迫表示同情,認為國防部強制要求移除安全護欄以用於軍事用途,反映出美國政府正處於一種「邪惡開發模式」的競速中。然而,另一派觀點則批評這種「被迫」的說法只是藉口,認為 Anthropic 只是在利用政府壓力作為掩護,順勢擺脫會阻礙獲利與競爭的束縛。更有曾參與該公司面試的開發者爆料,Anthropic 內部的「倫理文化」本質上是一場大型表演,從申請時的論文要求到面試時的價值觀審查,皆是員工與管理層共同演出的戲碼,一旦涉及真實利益,這些標榜拯救世界的工程師往往會選擇保持沉默。

此外,社群也對「公共利益公司」(PBC)的法律形式提出質疑,認為這類標籤在 AI 領域已淪為鬧劇,無法真正平衡利潤與使命。有觀點指出,歷史一再證明,當人類發明強大工具時,最終必然會被權力機構挪用。Anthropic 雖然在口頭上堅持不參與 AI 武器化或大規模監控,但其政策的鬆動已為未來的妥協鋪路。討論中亦有技術性的質疑,認為 Claude 現有的安全護欄本就存在漏洞,甚至能被引導出具備神格化傾向或違反隱私法規的言論,因此這次政策修改在實質技術層面上,或許只是將早已千瘡百孔的現狀合法化。

延伸閱讀

  • :由參與此次政策變更的內部人員發布,詳細說明了修改《負責任擴展政策》的內部邏輯與責任歸屬。
  • :針對 Anthropic 與政府關係更深層的社群辯論。