newsence
來源篩選

US Gov Deploys Grok as Nutrition Bot, It Advises for Rectal Use of Vegetables

Hacker News

The Trump administration integrated Elon Musk's Grok AI into its new RealFood.gov website, but the chatbot quickly sparked controversy by providing inappropriate medical advice regarding the rectal insertion of vegetables.

newsence

美國政府部署 Grok 作為營養機器人,竟建議將蔬菜用於直腸

Hacker News
5 天前

AI 生成摘要

川普政府在新建的 RealFood.gov 網站中整合了馬斯克的 Grok AI,但該聊天機器人隨即引發爭議,竟然針對將蔬菜插入直腸的行為提供不當建議。

背景

美國川普政府近期推出以蛋白質為核心的膳食指南網站 RealFood.gov,並整合了由 Elon Musk 旗下 xAI 開發的聊天機器人 Grok 作為官方營養助手。然而,媒體測試發現該機器人不僅會針對「如何將蔬菜塞入直腸」等荒謬問題給出具體建議,其提供的營養建議也與現任衛生部長 Robert F. Kennedy Jr. 倡導的肉食主義立場不符,引發公眾對政府採用 AI 工具作為權威資訊來源的質疑。

社群觀點

Hacker News 的討論主要圍繞在「垃圾輸入,垃圾輸出」(GIGO)的邏輯辯論,以及政府部署生成式 AI 的正當性。部分網友認為這類報導純屬點擊誘餌,因為測試者是刻意誘導機器人回答荒謬問題,而非正常使用。他們主張,如果使用者故意詢問如何將蔬菜塞入直腸,機器人給出對應的安全性建議(如去皮或使用保護措施)在技術邏輯上是合理的,不應將使用者的惡意操弄歸咎於工具本身的失敗。這類觀點將其比喻為「把手伸進果汁機後抱怨受傷」,認為要求 AI 必須能完美過濾所有惡作劇或惡意指令是不切實際的期待。

然而,另一派意見則從公共服務的嚴肅性出發,認為政府網站不應提供具有潛在負面價值的工具。批評者指出,即便問題本身荒謬,但作為政府認可的工具,Grok 缺乏基本的安全護欄與常識判斷,這反映出背後的採購流程可能存在黑箱或利益輸送。有留言者強調,LLM(大型語言模型)本質上容易受到問題暗示的引導,而一般大眾在諮詢營養資訊時,往往存在巨大的知識落差,可能在無意間使用錯誤的假設提問。如果 AI 無法識別這些錯誤前提並給出正確的警告(例如直接告知不應將食物塞入直腸),而是順著使用者的話頭給出建議,將可能導致嚴重的健康風險或法律責任。

此外,社群也觀察到一個有趣的諷刺現象:儘管 Grok 被視為與現任政府立場一致的工具,但它在正常營養諮詢中給出的建議,如減少紅肉攝取、增加植物性蛋白質等,反而更接近傳統科學共識,而非政府目前推廣的肉食主義。這引發了關於 AI 是否能真正代表政府意志的討論。更有網友嘗試將對話引導至政治敏感話題,發現 Grok 甚至會給出批評其創作者 Musk 的言論。這進一步證明了將 LLM 作為「專家系統」部署在政府網站上的魯莽,因為這些模型本質上只是機率性的文本生成器,其輸出結果充滿不可控性,難以承擔政府資訊應有的權威性與穩定性。

延伸閱讀

  • 404 Media 原始測試報導:詳細記錄了 Grok 針對「直腸飲食法」給出的具體回覆與操作建議。
  • RealFood.gov:美國政府新推出的蛋白質膳食指南官方網站。