The article critiques Sarvam AI's Indus model, arguing that its claims of national sovereignty are enforced through restrictive system prompts and hardcoded patriotism rather than transparent technical innovation.
系統提示詞中的主權:分析印度 Sarvam AI 的國產模型爭議
Hacker News
4 天前
AI 生成摘要
這篇文章批評了 Sarvam AI 的 Indus 模型,認為其所謂的國家主權 AI 承諾,實際上是透過限制性的系統提示詞和硬編碼的愛國主義來達成,而非透明的技術創新。
印度 AI 新創公司 Sarvam AI 近期推出了擁有 1050 億參數的本土大語言模型 Indus,並定位為印度的「主權 AI」。該公司獲得了印度政府巨額的 GPU 補貼與私人投資,聲稱其模型在印度語言表現上優於 Gemini 等國際主流模型,然而其技術透明度與系統提示詞中強烈的政治導向引發了科技社群的熱烈討論。
社群觀點
Hacker News 社群對 Sarvam AI 的質疑主要集中在技術透明度與政治干預兩大面向。許多評論者指出,儘管該公司領取了大量納稅人的補貼,卻未提供任何技術論文、訓練報告或損失曲線,這種「黑箱」作法與 DeepSeek 或 Meta 等公開技術細節的機構形成鮮明對比。部分網友認為,這種打著「主權 AI」旗號騙取政府資金的行為,與歐洲某些落後於頂尖技術卻不斷索求補助的「玩具模型」計畫如出一轍,擔心這最終會演變成一場耗資巨大的科技騙局。
針對被洩漏的系統提示詞,社群展開了激烈的辯論。提示詞中明確要求模型必須展現對印度的自豪感,並拒絕使用如「種族清洗」或「大屠殺」等國際通用的負面詞彙,轉而以印度法院的裁定為唯一標準。有留言者諷刺地指出,這種「此地無銀三百兩」的作法反而讓模型顯得心虛,就像是在系統中硬編碼了「不要承認我偷了餅乾」一樣,反而引導使用者去關注那些被刻意掩蓋的爭議事件。這種將特定意識形態與愛國主義強行注入模型的作法,被視為是對 AI 中立性的嚴重破壞。
然而,也有觀點認為這種現象並非印度獨有。有討論指出,所有的 AI 模型其實都內嵌了開發者的意識形態,只是西方模型通常將其包裝在「普世價值」或「護欄」之下。例如 Google Gemini 在生成圖像時曾因過度追求多元化而引發爭議,或是馬斯克的 xAI 也曾被發現有針對特定政治人物的偏好調整。支持主權 AI 的聲音認為,與其依賴外國私人企業的價值觀,各國政府自然會傾向於建立符合自身法律與文化框架的模型,以避免數據主權受制於人。
此外,社群也對技術細節表現出濃厚興趣。有網友試圖透過提示詞注入技術挖掘更多隱藏的規則,並對模型如何處理工具調用與防止洩漏感興趣。同時,也有人提出務實的建議,認為與其從頭訓練一個透明度極低的模型,不如基於 Llama 等開源架構進行微調,並將資金投入到基礎設施與晶片研發上,或許對印度的 AI 發展更有實質幫助。