背景
OpenAI 執行長 Sam Altman 近日宣布與美國戰爭部(Department of War)達成協議,將其人工智慧模型部署於軍方的機密網路中。此舉發生在競爭對手 Anthropic 因堅持 AI 安全紅線而被政府列為供應鏈風險之後,引發了科技圈對於 OpenAI 是否為了商業利益而犧牲倫理原則的激烈辯論。
社群觀點
Hacker News 的討論核心圍繞在 OpenAI 與 Anthropic 之間截然不同的處置方式。許多評論者指出,OpenAI 聲稱在協議中保留了禁止「國內大規模監控」與「自動化武器系統」等原則,這與先前導致 Anthropic 陷入困境的條款幾乎如出一轍。社群對此感到困惑,質疑為何相同的原則在 Anthropic 身上被視為風險,在 OpenAI 卻能順利過關。部分觀點認為這並非技術或原則之爭,而是純粹的政治角力,暗示 OpenAI 透過政治獻金與遊說,成功讓政府接受了表面上的安全承諾,實則可能在私下達成了更具彈性的執行默契。
針對 Sam Altman 的誠信問題,社群展現了高度的不信任感。多位留言者回顧了 Altman 過去在 YC 或 OpenAI 董事會風波中的爭議紀錄,認為他是一位極具政治手腕的「變色龍」,擅長使用模糊的法律術語來掩蓋實質的讓步。例如,協議中提到的「人類責任」被批評為文字遊戲,因為這並不等同於「人類決策」,軍方大可宣稱由高層官員承擔最終責任,而實際的殺戮行為仍由 AI 自動化執行。這種對「紅線」的解釋權轉移,被視為 OpenAI 向權力靠攏的證明。
此外,OpenAI 內部的道德壓力也成為討論焦點。雖然有自稱員工的網友表示,只要協議條款依然禁止大規模監控,就沒有理由離職,但這種說法隨即遭到其他人的反駁。反對者認為,在當前政治環境下,期待政府自我約束是不切實際的,OpenAI 員工若繼續留任,等同於為潛在的人權侵害背書。討論中也提到,OpenAI 董事會中包含前國安局局長等軍方背景人士,這使得該公司與軍工複合體的深度綁定顯得更加不可逆轉。
最後,社群中出現了一股抵制浪潮。不少開發者表示已取消 ChatGPT 的訂閱,並呼籲同儕轉向其他更具透明度或道德堅持的模型。然而,也有現實主義者指出,在國家安全與全球競爭的大框架下,領先的 AI 公司最終都難以避免被納入國防體系,這可能是科技發展與地緣政治碰撞下的必然結果,而 OpenAI 只是選擇了最能確保其商業存續的道路。
延伸閱讀
在討論中,網友提到了幾個關鍵的背景資訊與資源:
- Not Divided:一個由科技從業者發起的聯署網站,旨在反對將 AI 技術用於非人道用途。
- Still Drinking:由知名部落客撰寫的文章,探討科技高層如何透過語言偽術規避責任。
- 相關新聞報導:包括《財富》雜誌與《華盛頓郵報》對五角大廈與 AI 公司談判細節的深度調查。