DOGE Bro's Grant Review Process Was Literally Just Asking ChatGPT 'Is This DEI?'
Hacker News
Reports reveal that the Department of Government Efficiency (DOGE) staff used ChatGPT as their primary tool to flag research grants for elimination based on DEI criteria, raising concerns about arbitrary decision-making.
近期一份報告指出,美國政府效率部(DOGE)在審核政府資助計畫時,其決策過程極度依賴人工智慧。具體而言,相關負責人被指控直接將計畫描述輸入 ChatGPT,並下達簡短指令要求 AI 判斷該計畫是否涉及「多元、平等與包容」(DEI),以此作為取消資助的依據。這種做法引發了關於政府決策透明度、AI 偏見以及行政程序是否過於草率的激烈辯論。
社群觀點
Hacker News 的討論呈現出高度的兩極化與對技術應用邊界的質疑。部分評論者以諷刺的口吻認為,這種做法確實符合「簡單、便宜且快速」的原則,但隨即遭到其他用戶的強烈反擊。反對者指出,這種流程本質上是「垃圾進,垃圾出」(Garbage in, garbage out),因為負責人並未定義何謂 DEI,也未確認 ChatGPT 對該詞彙的理解是否與其政策目標一致。這種缺乏標準的審核方式,被批評為比單純過濾關鍵字更加愚蠢,因為它將嚴肅的政府決策交給了充滿不確定性的黑盒模型。
討論中也深入探討了 AI 訓練數據對判斷結果的影響。有觀點認為,DEI 這一術語在當前的文化語境中已被高度政治化,相關的負面情緒或特定立場可能早已滲透進 AI 的訓練資料中,導致模型產生偏頗的判斷。網友舉出實例說明,AI 竟然將研究棒球如何促進一戰後美日關係的計畫,或是研究原住民寄宿學校歷史的學術專案都標記為 DEI。這顯示出 AI 在處理複雜歷史脈絡時的無能,也反映出審核者對於「DEI」定義的無限擴張,甚至到了損害學術研究與社會理解的地步。
此外,社群對於「DEI 是否應成為終止資助的唯一標準」也存在爭議。有留言者質疑,即便不使用 AI,僅憑政治意識形態就撤銷已核准的計畫,在法律上可能面臨「任意且反覆無常」的挑戰。更有網友憂心,這種基於幻覺與情緒化決策的治理模式,反映了當前政治環境對技術的誤用。管理層往往要求 AI 執行特定任務,卻不理解技術限制,最終可能導致政策失效,甚至造成嚴重的現實後果,例如先前曾發生過因錯誤標籤導致人員在海外面臨危險的極端案例。
最後,部分討論回歸到經濟成本與行政效率的本質。有意見認為,這種不分青紅皂白的削減方式,雖然表面上節省了開支,但長遠來看,為了剔除特定意識形態而犧牲具有價值的研究,無異於「割鼻療傷」。這種將複雜的社會與科學議題簡化為 AI 是非題的做法,被視為管理上的嚴重失職,也預示了未來 AI 輔助決策可能帶來的治理危機。