newsence
來源篩選

OpenAI agrees with Dept. of War to deploy models in their classified network

Hacker News

OpenAI has reached an agreement with the Department of Defense to integrate its artificial intelligence models into the military's highly secure and classified communication networks.

newsence

OpenAI 與國防部達成協議,將在機密網路中部署模型

Hacker News
大約 15 小時前

AI 生成摘要

OpenAI 已與國防部達成協議,將其人工智慧模型部署在軍方的機密網路環境中。

背景

OpenAI 執行長 Sam Altman 近日宣布與美國戰爭部(Department of War)達成協議,將其人工智慧模型部署於軍方的機密網路中。此舉發生在競爭對手 Anthropic 因堅持 AI 安全紅線而被政府列為供應鏈風險之後,引發了科技圈對於 OpenAI 是否為了商業利益而犧牲倫理原則的激烈辯論。

社群觀點

Hacker News 的討論核心圍繞在 OpenAI 與 Anthropic 之間截然不同的處置方式。許多評論者指出,OpenAI 聲稱在協議中保留了禁止「國內大規模監控」與「自動化武器系統」等原則,這與先前導致 Anthropic 陷入困境的條款幾乎如出一轍。社群對此感到困惑,質疑為何相同的原則在 Anthropic 身上被視為風險,在 OpenAI 卻能順利過關。部分觀點認為這並非技術或原則之爭,而是純粹的政治角力,暗示 OpenAI 透過政治獻金與遊說,成功讓政府接受了表面上的安全承諾,實則可能在私下達成了更具彈性的執行默契。

針對 Sam Altman 的誠信問題,社群展現了高度的不信任感。多位留言者回顧了 Altman 過去在 YC 或 OpenAI 董事會風波中的爭議紀錄,認為他是一位極具政治手腕的「變色龍」,擅長使用模糊的法律術語來掩蓋實質的讓步。例如,協議中提到的「人類責任」被批評為文字遊戲,因為這並不等同於「人類決策」,軍方大可宣稱由高層官員承擔最終責任,而實際的殺戮行為仍由 AI 自動化執行。這種對「紅線」的解釋權轉移,被視為 OpenAI 向權力靠攏的證明。

此外,OpenAI 內部的道德壓力也成為討論焦點。雖然有自稱員工的網友表示,只要協議條款依然禁止大規模監控,就沒有理由離職,但這種說法隨即遭到其他人的反駁。反對者認為,在當前政治環境下,期待政府自我約束是不切實際的,OpenAI 員工若繼續留任,等同於為潛在的人權侵害背書。討論中也提到,OpenAI 董事會中包含前國安局局長等軍方背景人士,這使得該公司與軍工複合體的深度綁定顯得更加不可逆轉。

最後,社群中出現了一股抵制浪潮。不少開發者表示已取消 ChatGPT 的訂閱,並呼籲同儕轉向其他更具透明度或道德堅持的模型。然而,也有現實主義者指出,在國家安全與全球競爭的大框架下,領先的 AI 公司最終都難以避免被納入國防體系,這可能是科技發展與地緣政治碰撞下的必然結果,而 OpenAI 只是選擇了最能確保其商業存續的道路。

延伸閱讀

在討論中,網友提到了幾個關鍵的背景資訊與資源:

  • Not Divided:一個由科技從業者發起的聯署網站,旨在反對將 AI 技術用於非人道用途。
  • Still Drinking:由知名部落客撰寫的文章,探討科技高層如何透過語言偽術規避責任。
  • 相關新聞報導:包括《財富》雜誌與《華盛頓郵報》對五角大廈與 AI 公司談判細節的深度調查。