We are inviting applications for the AFFINE Superintelligence Alignment Seminar, a one-month intensive program in Czechia designed to equip newcomers with the deep understanding needed to tackle AI existential risk.
超級智能對齊研討會(為期一個月專注技能提升)
Lesswrong
11 天前
AI 生成摘要
我們誠摯邀請您申請 AFFINE 超級人工智慧對齊研討會,這是一個在捷克舉行的為期一個月密集課程,旨在讓新手具備應對 AI 生存風險所需的深度理解能力。
導師: Abram Demski, Ramana Kumar, Steve Byrnes, Kaj Sotala, Kaarel Hänni, Jonas Hallgren, Ouro, Cole Wyeth, Aram Ebtekar, Elliot Thornley, Linda Linsefors, Paul ‘Lorxus’ Rapoport 等
名額: 30 名
費用: 免費(歡迎捐款,我們備有部分預算可補助交通費用)
津貼: 我們正在申請額外資金,為有需要的人提供津貼
如何加入: 請於 3 月 8 日前 填寫
目標
本研討會的主要目的是讓有潛力的 AI 對齊領域新人有機會深入理解該問題的核心部分,使他們能更好地應對 AI 存在性風險的緩解工作。
超人工智慧(ASI)脫離人類控制並追求與人類繁榮相悖的目標,是 AI 造成災難性與存在性風險的核心模型。儘管如此,旨在尋找 ASI 對齊問題解決方案的研究,在一般的 AI 安全生態系統中卻系統性地被忽視,後者大多將資源投入在許多與之廣泛相關的事務上(如監控、引導及衡量相對小規模的優化等)。
我們預計錄取最多 30 名學員,此外還有多位現場及遠端導師。我們將有兩位全職現場導師:Ouro(前 Orthogonal 成員)和 Jonas Hallgren(Equilibria Network)。其他已確認的導師包括:Abram Demski, Ramana Kumar, Steve Byrnes, Kaj Sotala, Kaarel Hänni, Cole Wyeth, Aram Ebtekar, Elliot Thornley, Linda Linsefors, 以及 Paul ‘Lorxus’ Rappoport。