Anthropic has replaced its rigid Responsible Scaling Policy with a more flexible safety framework to maintain competitiveness and navigate political pressure from the Pentagon. The company argues that unilateral pauses in AI development could lead to a less safe world if less cautious competitors continue to advance.
Anthropic 在與五角大廈的 AI 紅線爭端中放棄核心安全承諾
Hacker News
2 天前
AI 生成摘要
我們更換了原本僵化的負責任縮放政策,轉而採用更具彈性的安全框架,以維持競爭力並應對來自五角大廈的政治壓力。我們認為,若在其他不謹慎的競爭對手持續前進時單方面暫停 AI 開發,最終可能會導致一個更不安全的世界。
此外,社群也對「公共利益公司」(PBC)的法律形式提出質疑,認為這類標籤在 AI 領域已淪為鬧劇,無法真正平衡利潤與使命。有觀點指出,歷史一再證明,當人類發明強大工具時,最終必然會被權力機構挪用。Anthropic 雖然在口頭上堅持不參與 AI 武器化或大規模監控,但其政策的鬆動已為未來的妥協鋪路。討論中亦有技術性的質疑,認為 Claude 現有的安全護欄本就存在漏洞,甚至能被引導出具備神格化傾向或違反隱私法規的言論,因此這次政策修改在實質技術層面上,或許只是將早已千瘡百孔的現狀合法化。