I believe that AI-enabled harm to democracy through mass surveillance is a critical risk that must be tracked like bioweapons, and while OpenAI's deal with the Department of War provides a framework for safeguards, its success depends on the actual implementation of monitoring and red lines.
AI 如何摧毀民主?縱觀歷史,獨裁政權需要龐大且服從的官僚體系來監視和控制公民。在東德,除了全職的史塔西(Stasi)工作人員外,還有百分之一的人口擔任線人。克格勃(KGB)則以多次「清洗」以確保忠誠而聞名。
AI 潛在可能導致產生一個官僚體系,其僅忠於掌握模型訓練或提示詞(prompting)權限的人,從而確保擁有一支不會洩密、不會吹哨、也不會違抗非法命令的代理人軍隊。此外,由於政府壟斷了暴力手段,我們不需要「原子世界」的進步就能實現這一點,也不需要「諾貝爾獎得主」級別的智慧。
舉例來說,想像國稅局(IRS)被 AI 勞動力取代。可以說,目前的模型已經具備或接近自動化執行大部分職能的能力。在這種情況下,該機構的領導者可以對其政治對手發動大規模的稅務調查。此外,即使每個 AI 代理人個體都是對齊(aligned)的,它也可能無法得知它收到的審計指令是出於政治原因而選擇的對象。人類會回家、看新聞,並能理解更廣泛的背景。而語言模型在任務開始時誕生,在任務結束時消亡。
這並非毫無希望——我們可以實施並監管防止這種情況的方法。AI 可以像擴展監控規模一樣,擴展監督和監測的規模。我們還可以在 AI 中內建隱私和加密保護,以賦予個人權力。但我們迫切需要開展這項工作。
就像關於加密技術的辯論一樣,總會有人提議用我們的自由來換取對抗敵人的保護。但我希望我們已經從《愛國者法案》和史諾登(Snowden)揭秘事件中吸取了教訓。雖然我不認同對憲法第二修正案最廣泛的解讀,但我認為它也很好地說明了美國人一直願意犧牲一些安全來保護自由。即使在先進 AI 的世界裡,我們仍擁有兩大洋、數千枚核彈,以及預算超過中俄總和的軍隊。我們不需要放棄自由和隱私來保護自己。
*OpenAI 與國防部的協議*
雖然政府濫用 AI 的可能性一直存在,但在機密環境中這種風險會被放大,因為就其本質而言,這會使濫用行為更難被發現。(例如,如果不是因為史諾登,我們可能永遠不會聽說國安局的過度擴權。)出於這個原因,我很高興我們與國防部的協議受到了高度關注(即便這種關注對我個人來說並不容易應對)。
先前國防部與 Anthropic 的國防合約引起的關注相對較少。我希望此議題關注度的提升能被用來提高整個行業的標準。就像我們對待生物武器和網路安全等其他風險一樣,我們需要建立最佳實踐,以避免 AI 導致民主被接管的風險,包括國內大規模監控和高風險的自動化決策(例如,選擇性起訴或「社會信用」)。這些風險的災難性不亞於生物武器,應當被視作同類風險進行追蹤和報告。雖然由於該領域的機密性質,並非所有內容都能公開,但我們至少可以而且應該公開其流程。
如果說 AI 研究人員擅長一件事,那就是衡量和優化量化指標。如果我們能建立評估體系,並將追蹤這些風險轉化為一門科學,我們就有更好的機會與之對抗。我有信心只要有足夠的時間就能做到。我不太有信心的是,時間是否足夠。