This field report reflects on the 2026 AI Impact Summit in Delhi, highlighting its inclusive atmosphere and diverse stakeholder insights while critiquing its poor logistics and surface-level policy discussions.
2026年AI影響力峰會:現場實地報告
Lesswrong
4 天前
AI 生成摘要
這份現場報告反映了我們參加 2026 年德里 AI 影響力峰會的經驗,肯定了其包容的氛圍與多元的利害關係人見解,同時也批評了物流組織不佳以及政策討論過於表面化的問題。
研究——服務稀有語言和分眾文化可以作為分佈外泛化(out of distribution generalization)的極佳測試。因此,如果你想要實現「AGI」,出於工具性理由,你也會有動力去追求包容性。
追蹤資金來源——是來自 ESG 基金還是非營利組織的捐贈?確保此類投資的透明度具有價值。
組織文化本身是一個大因素——包括招聘決策,以及受技術影響的所有利益相關者的代表性。
我以此具體案例來展示我在活動中進行的討論。
「永續與韌性未來的認知基礎設施」會議由 Bertrand Badré、Saurabh Mishra 博士、 的 G. Sayeed 出席。會中將可靠的基礎設施項目與 AI 進行了有趣的類比:就像互聯網革命一樣,人們需要可靠的 AI 基礎設施,以便他人在此基礎上進行構建。因此,安全概念正從這類建築工程領域中借鑑。
由 Anil Ananthaswamy、IIT Madras 的 Krishnan Narayanan、itihaasa Research & Digital 的 Shaveta Sharma 主持的「教育中的安全 AI 解決方案——全球南方視角的實踐者對話」吸引了很多人參加。活動透過類似 Slido 的 App 與觀眾互動,看到大眾大規模參與非常有活力。
「小 AI 帶來大影響」會議中,Wadhwani AI 的 Alpan Raval 談到了在邊緣端部署更多本地蒸餾的小型模型,這能減少對大型中心化供應商的依賴,在醫療保健等隱私敏感領域尤其具有影響力。
缺失之處
對於一個以 AI 為主題的科技活動,峰會官網的表現令人驚訝地糟糕。面對數百場會議,沒有有效的方法來篩選、搜尋或規劃行程。沒有觀眾分流,也沒有針對新手、資深專業人士、學者、學生或創業者的平行路徑。參加者被丟進一個大型複雜的場地,卻沒有明確的背景程度標示。第一天極度擁擠,入口處形成瓶頸:多條隊伍擠向僅有的一兩個掃描器,導致混亂和時間浪費。
在內容實質方面,我們參加的會議大多停留在高層次。講者常使用模糊且缺乏資訊量的語言。問答環節的問題經常未被正面回答。沒有討論到逐漸失能(gradual disempowerment)、權力經濟集中或 AI 帶來的結構性風險;對話侷限在狹窄的表面擔憂中。私下裡,一些講者對不確定性和真實風險的態度要坦率得多,但在台上,語調顯然是為了形象而經過修飾的。如果座談會能有更多技術背景的 AI 安全人員,對話將會犀利許多。關於具體貢獻路徑(技術與政策)的會議完全缺失,而這本應對觀眾大有裨益。
峰會各場次中反覆出現的一個主題是拒絕更新本體論(ontologies)。例如,在一個關於 AI 教學的活動中,講者仍在一種「教師是固定權威、AI 是受限補充工具」的框架下運作。一些被提出的問題——如「校長是否應該決定孩子花多少時間使用 AI?」——顯示出未能意識到這項技術對現有制度結構的顛覆程度。即便撇開災難性風險情境不談,AI 能力的最佳發展軌跡也要求我們從根本上重新思考教育是為了什麼做準備。
如果整個職業類別都趨向自動化,回應就不該只是「教學生使用 AI 工具」。它需要從「哪些技能將保持需求或抵禦自動化」進行逆向推導,而這反過來要求緊跟能力評估和模型瓶頸的現況。我們觀察到的高層決策者似乎並未做到這一點。
無論這是源於自上而下要求正面論述 AI 的敘事指令,還是源於對進步速度的真正無知,其效果是一樣的:政策制定者和教育工作者尚未為已經在進行的變革做好準備,即便是在樂觀的假設下。
AI 安全連結 (邊會)
奏效之處
2 月 18 日至 19 日在 The Imperial 舉行的 活動,在組織、策劃和實質內容上都比主峰會有顯著進步。約有 250 名政策制定者、研究人員和行業領袖參加。場地華麗,群體較小且親密,對話明顯更加聚焦。講者平易近人;你可以在會議結束後直接走向 Stuart Russell 或來自 FAR AI、牛津馬丁學院或史丹佛大學的研究人員,就他們發表的論文、正在進行的研究或合作機會進行實質性的一對一交流。與具影響力的研究者和政策制定者的高頻寬接觸是其最強大的特色之一。
幾場會議脫穎而出。探討了政府應該購買還是建立自己的 LLM,為思考數據在地化和 API 依賴的信任影響提供了有用的框架。聽取新加坡作為案例研究,確實讓討論落到了實處。,並為政策制定者提供了具體指標,這與主峰會充斥的模糊語言相比是個受歡迎的轉變。
中,Humane Intelligence 展示了運行評估的界面,此外還有來自 Apart Research、AgentiCorp、聯合國教科文組織印度辦事處和埃森哲的演示,涵蓋生成式 AI 評估、AI 操縱防禦和兒童安全。現場有更多公共空間供人會面交談,雖然行程有所延誤,但靈活性意味著人們有真正的時間提問,而不是被匆忙趕過場。
我們與人們進行了非常精彩的一對一對話,深入探討了威脅模型,並在印度背景下(對採用 AI 存在顯著慣性)對我們自己的模型收到了一些反對意見。如果我們能與政府合作,確保他們為 AI 網絡攻擊做好準備,將會非常有幫助。更多像 Anthropic 的這樣的工作將有所助益。
第二天的「共同責任:行業與 AI 安全的未來」會議揭示了重要的地緣政治緊張局勢:一方面倡導與中國進行多邊合作,另一方面又推動出口管制之間的矛盾;在沒有困擾核不擴散論述的零和博弈動態下,構建 AI 治理框架的困難;以及意識到 AI 巨大的正面潛力使得採取激進立場比對待武器更具。聽取華盛頓特區政策制定者如何處理遊說和聯盟建立非常有啟發性,這有助於了解幕僚如何獲取 AI 領域發展的資訊,以及這如何直接影響政策。
Stuart Russell 發表了其中一場演講,由 FAR AI 的 Adam Gleave 主持,他們討論了逆向強化學習 (inverse reinforcement learning) 的實施細節和特定的控制協議。這種程度的技術參與是一個受歡迎的改變。
缺失之處
儘管以安全為核心,Connect 活動仍有顯著差距。對話過度向政策制定者傾斜而非技術人員,如果你是技術背景,很難與合適的對手建立聯繫。「紅線工作坊」——正式名稱為「定義與治理不可接受的 AI 風險」,基於由 100 多位領導人和諾貝爾獎得主簽署的,討論的內容大多是陳詞濫調。