背景
近期人工智慧領域引發高度爭議,主因在於 Anthropic 與 OpenAI 兩大巨頭對美國國防部(文中稱為 Department of War)採取了截然不同的立場。Anthropic 因堅持不將其模型 Claude 用於自主武器或大規模監控,被美國政府列為供應鏈風險並禁止使用;隨後 OpenAI 執行長 Sam Altman 則公開表態支持政府,承諾提供技術支援,引發社群發起「取消 ChatGPT」的抵制運動。
社群觀點
在 Hacker News 的討論中,社群對於這場風暴的看法呈現多樣化且具批判性的角度。首先,部分評論者對媒體將 AI 競賽描述為「毫無道德參與者」的說法感到不滿,認為這種一竿子打翻船的論點侮辱了許多致力於研究且不涉及戰爭開發的小型公司與研究人員。他們指出,如果資金能流向這些避開軍事爭議的團隊,或許今日的技術環境就不會陷入如此兩難的局面。
針對 OpenAI 與政府的合作,社群內部的反應出現了明顯的認知落差。有觀點認為,所謂的抵制運動可能僅限於特定的同溫層,如 Reddit 或 Hacker News 等技術社群。一位留言者分享其在現實生活中的觀察,發現一般大眾對此類爭議幾乎一無所知,甚至傾向支持美國政府應掌握最強大的技術以對抗外部威脅。這顯示出技術圈的道德焦慮與社會大眾的實務觀點之間存在巨大鴻溝。
此外,關於 AI 技術本質的爭論也十分激烈。有評論者主張大眾過度神化了 AI,認為 ChatGPT 本質上只是具備擬人化介面的搜尋引擎或知識庫,將其視為威脅人類生存的「惡魔」過於嚴肅且缺乏理性。然而,也有使用者從更實際的層面考量替代方案,提到雖然對 OpenAI 的立場感到不安,但競爭對手如 Claude 的字體設計影響閱讀體驗,而 Google 的 Gemini 則可能面臨政治壓力而妥協,這反映出使用者在道德立場與產品易用性之間的權衡困境。
最後,討論中也涉及了對政府機構稱呼的精確性爭議。部分留言者指出文中將國防部稱為「戰爭部」具有強烈的政治隱喻,雖然在歷史上曾有此稱呼,但現行體制下未經國會更名。這種術語的使用反映了報導者對 OpenAI 投身軍事契約的強烈批判立場,但也引發了關於報導中立性的質疑。
延伸閱讀
在討論過程中,有使用者詢問是否有架設在「中立基礎設施」上的中國前沿模型可供使用,作為避開美國科技巨頭政治立場的替代選項。此外,討論也提及了《美國愛國者法案》(U.S. Patriot Act)中關於大規模監控合法性的法律爭議,這也是 OpenAI 承諾「合法使用」模型時最令社群擔憂的法律基礎。