newsence
來源篩選

AI Will Never Be Conscious

Wired - AI

In his new book, A World Appears, Michael Pollan argues that artificial intelligence can do many things—it just can’t be a person.

newsence

人工智慧永遠不會擁有意識

Wired - AI
4 天前

AI 生成摘要

麥可·波倫在他的新書中主張,人工智慧雖然可以做很多事,但它就是無法成為一個人。儘管科技界公開輕視人工智慧擁有意識的想法,但私下已開始嚴肅看待其可能性與隨之而來的道德困境。

AI 永遠不會擁有意識 | WIRED 選單選單帳戶帳戶展開搜尋儲存故事儲存故事大型 FacebookXPinterestYouTubeInstagramTiktok

AI 永遠不會擁有意識

Image

布萊克·勒莫伊恩(Blake Lemoine)事件在今天被視為 AI 炒作的一個高峰。它將「有意識的 AI」這一概念推向了大眾視野,佔據了一兩個新聞週期,但也引發了一場在計算機科學家和意識研究者之間展開的對話,且這場對話在隨後的幾年裡愈演愈烈。雖然科技界在公開場合繼續貶低這個想法(以及可憐的勒莫伊恩),但在私下裡,人們已經開始更加嚴肅地對待這種可能性。一個有意識的 AI 可能缺乏明確的商業邏輯(你如何將其變現?),並會產生棘手的道德困境(我們該如何對待一台能夠感受痛苦的機器?)。然而,一些 AI 工程師開始認為,通用人工智能(AGI)的終極目標——一台不僅超聰明,而且具備人類水平的理解力、創造力和常識的機器——可能需要某種形式的意識才能實現。在科技界,原本圍繞著「有意識 AI」的非正式禁忌(因為公眾會覺得這很毛骨悚然)突然開始瓦解。

Image

購買本書:

如果您透過我們故事中的連結購買商品,我們可能會獲得佣金。這有助於支持我們的報導。了解更多。

轉折點出現在 2023 年夏天,當時一組由 19 位頂尖計算機科學家和哲學家組成的團隊發表了一份長達 88 頁的報告,題為《人工智能中的意識》(Consciousness in Artificial Intelligence),非正式名稱為「布特林報告」(Butlin report)。似乎在幾天之內,AI 和意識科學界的每個人都讀過了它。這份報告草案的摘要中有一句引人注目的話:「我們的分析表明,目前的 AI 系統都不是有意識的,但也表明,構建有意識的 AI 系統並沒有明顯的障礙。」

作者承認,召集該小組並撰寫報告的部分靈感來自「布萊克·勒莫伊恩案例」。「如果 AI 能給人留下有意識的印象,」一位合著者告訴《科學》雜誌,「那麼讓科學家和哲學家介入就成了當務之急。」

但引起所有人注意的是預印本摘要中的那句話:「構建有意識的 AI 系統沒有明顯的障礙。」當我第一次讀到這些文字時,我感覺某個重要的門檻被跨越了,而且這不僅僅是技術上的門檻。不,這關乎我們作為一個物種的身份認同。

如果人類在不遠的將來某天發現,一台完全有意識的機器來到了這個世界上,這意味著什麼?我猜這將是一個「哥白尼時刻」,會突然動搖我們的中心感和特殊感。幾千年來,我們人類一直透過與「低等」動物的對立來定義自己。這涉及到否認動物擁有那些被認為是人類特有的特質,如情感(笛卡兒最嚴重的錯誤之一)、語言、理性和意識。在過去的幾年裡,隨著科學家證明許多物種都具有智慧和意識、擁有情感、並會使用語言和工具,這些區別大多已經瓦解,在此過程中挑戰了數世紀以來的人類例外論。這種仍在進行中的轉變引發了關於我們身份以及我們對其他物種道德義務的棘手問題。

對於 AI,我們崇高自我認知的威脅來自完全不同的方向。現在,我們人類必須相對於 AI 而非其他動物來定義自己。隨著電腦演算法在純粹的腦力上超越我們——在西洋棋、圍棋等遊戲以及數學等各種形式的「高等」思維中輕鬆擊敗我們——我們至少可以感到安慰,因為我們(以及許多其他動物物種)仍然獨自擁有意識的恩賜與負擔,即感受和擁有主觀體驗的能力。從這個意義上說,AI 可能充當一個共同的對手,讓人類和其他動物走得更近:我們對抗它,生命對抗機器。這種新的團結將會是一個溫馨的故事,對於被邀請加入「意識團隊」的動物來說可能是個好消息。但如果 AI 開始挑戰人類(或者我應該說動物)對意識的壟斷,會發生什麼?到那時我們又是誰?

我發現這是一個令人深感不安的前景,儘管我不完全確定原因。我正逐漸接受與其他動物(在我看來甚至可能包括植物)共享意識的想法,並且我很樂意將它們納入不斷擴大的道德考量範圍。但是機器?

我對這個想法的不適可能源於我的背景和教育。我一直浸淫在人文學科的溫暖氛圍中,尤其是文學、歷史和藝術,這些學科始終將人類意識視為某種值得捍衛的例外。我們所珍視的文明產物幾乎都是人類意識的產物:藝術與科學、高雅與通俗文化、建築、哲學、宗教、政府、法律、倫理與道德,更不用說「價值」這個概念本身。我想,有意識的電腦有可能為這些榮耀增添一些新的、目前還無法想像的東西。我們可以這樣希望。到目前為止,AI 寫的詩並不比打油詩好多少;意識的缺失或許可以解釋為什麼它甚至缺乏一絲原創性或深刻的見解。但如果(當?)有意識的 AI 開始創作出真正優秀的詩歌時,我們會作何感想?

為什麼我們要假設有意識的機器會比有意識的人類更有道德?

作為一名人文主義者,我難以接受動物對意識的壟斷地位可能會崩塌。但我現在遇到了其他類型的人(其中一些自稱為超人類主義者),他們對這個未來更加樂觀。一些 AI 研究人員支持構建有意識機器的努力,因為作為擁有自己情感的實體,有意識的機器比僅僅具有智能的電腦更有可能發展出同理心。一位神經科學家和一位 AI 研究人員都試圖說服我,構建有意識的 AI 是一項道德使命。為什麼?因為另一種選擇是極其聰明但毫無感情的 AI,它在追求目標時將冷酷無情,因為它缺乏所有源於我們的意識和共同脆弱性的道德約束。只有有意識的 AI 才容易發展出同理心,從而放過我們。我沒有誇大其詞;這就是他們的論點。

人們不禁要問,這些人是否讀過《科學怪人》(Frankenstein)!法蘭肯斯坦博士不僅賦予了他的創造物生命,還賦予了它意識,而這正是問題所在。瑪麗·雪萊的小說記錄了「一個敏感且理性的動物的創造」,正是這兩種品質的結合決定了怪物的命運。並非怪物的理性,而是他的情感創傷促使他尋求報復並走向殺戮。

「到處我都看到幸福,唯獨我被永久排除在外,」怪物在被人類社會驅逐後向法蘭肯斯坦博士抱怨道。「我曾是仁慈而善良的;痛苦使我變成了惡魔。」怪物的推理能力無疑幫助他實現了惡魔般的計劃,但提供動機的是他的意識——他的感受。為什麼我們要假設有意識的機器會比有意識的人類更有道德?

值得注意的是,關於人工意識的布特林報告代表了該領域某種共識觀點;我採訪的大多數計算機科學家都贊同其結論。然而,我花在閱讀這份報告(以及採訪其中一位合著者)上的時間越多,我就越開始懷疑它關於人工意識近在咫尺的結論。值得稱讚的是,作者們非常謹慎地闡述了他們的假設和方法,而這兩者都讓我懷疑,他們是否將大膽的結論建立在一個可疑的基礎之上。

就在第一頁,這些計算機科學家和哲學家提出了他們的指導性假設:「我們採用計算功能主義(computational functionalism)作為工作假設,即執行正確種類的計算是意識的必要且充分條件。」計算功能主義的出發點是,意識本質上是一種運行在硬體(可以是腦或電腦)上的軟體——該理論對載體完全持中立態度。但計算功能主義是真的嗎?作者們還沒準備好把自己釘死在這個主張上,只是說它是「主流的——儘管存在爭議」。即便如此,他們仍將出於「務實的原因」在假設其為真的前提下進行。

這種坦誠令人欽佩,但這種方法需要巨大的信心飛躍,我不確定我們是否應該跨出這一步。

就該報告而言,系統的「物質基質」(即它是大腦還是電腦)「對意識來說並不重要……它可以存在於多種基質中,而不僅僅是生物大腦。」任何能夠運行必要演算法的基質都可以。「我們暫且假設我們所知的電腦原則上能夠實現足以產生意識的演算法,」作者指出,「但我們並不聲稱這是確定的。」對不確定性的承認還遠遠不夠。報告中未受質疑的是「大腦即電腦」的比喻——即運行意識軟體的硬體。在這裡,我們看到一個比喻偽裝成了事實。事實上,整篇論文及其結論都取決於這個比喻的有效性。

比喻可以是強大的思考工具,但前提是我們不能忘記它們只是比喻——將一件事物比作另一件事物的不完美或部分類比。兩者之間的差異與相似之處同樣重要,但這些差異似乎在圍繞 AI 的狂熱中消失了。正如控制論專家阿圖羅·羅森布魯斯(Arturo Rosenblueth)和諾伯特·維納(Norbert Wiener)多年前指出的,「比喻的代價是永恆的警覺。」除了這份報告的作者之外,整個 AI 領域似乎都在這件事上放鬆了警惕。

考慮一下硬體和軟體之間的明確區別。電腦中硬體與軟體分離的美妙之處在於,許多不同的程式可以在同一台機器上運行;軟體及其編碼的知識在硬體「死亡」後依然存在。這種分離也符合我們民間直覺中的二元論——即追隨笛卡兒,我們可以在精神物質和物理物質之間劃出一條鮮明的界線。但大腦中根本不存在硬體和軟體的分別;在那裡,軟體就是硬體,反之亦然。記憶是大腦神經元之間物理連接的模式,既不是硬體也不是軟體,而是兩者皆是。

事實上,發生在你身上的每一件事——你經歷、學習或記住的每一件事——都會改變你大腦的物理結構,永久地重新佈線其連接。(從這個意義上說,大腦中沒有二元論;精神物質永遠無法與物理物質完全解耦。)當所討論的基質——大腦——不斷地被運行在其上的任何信息(或「意識演算法」)物理性地重新配置時,認為相同的意識演算法可以在各種不同的基質上運行的想法就失去了意義。你的大腦與我的大腦在物質上是不同的,正是因為它被不同的生活經驗——也就是意識本身——所塑造。大腦根本不是可以互換的,無論是與電腦還是與其他大腦。

幾乎在你推動它的任何地方,「電腦即大腦」的比喻都會崩潰。計算機科學家將大腦中的神經元視為芯片上的電晶體,由電脈衝切換開關。這個類比有一定的道理,但事實要複雜得多,因為電力並不是影響神經元放電的唯一因素。大腦也浸泡在化學物質中,包括神經調節物質和荷爾蒙,它們強烈地影響著神經元的行為,不僅影響它們是否放電,還影響放電的強度。這就是為什麼精神藥物可以深刻地改變意識(而對電腦沒有明顯影響)。神經元的活動還受到以波狀模式橫跨大腦的震盪影響;這些震盪的不同頻率與不同的心理操作相關聯,如意識及其缺失、專注力和做夢(以及睡眠的其他階段)。

將神經元比作電晶體是嚴重低估了它們的複雜性。與芯片上的電晶體相比,大腦中的神經元是高度互聯的,每一個神經元都與多達 10,000 個其他神經元直接通訊,其網絡之複雜,使我們距離繪製出哪怕是最粗略的連接圖也還有幾十年的路要走。在計算機科學中,關於「深度人工神經網絡」的出現有很多說法——這是一種據稱模仿大腦的機器學習架構,它將令人難以置信數量的處理器分層,使網絡能夠處理海量數據並從中學習。這確實令人印象深刻,但最近的一項研究表明,單個皮層神經元就能完成整個深度人工神經網絡所能做的一切。

是的,電腦在很多方面確實與大腦相似,計算機科學通過模擬大腦的各個方面和操作取得了巨大進步。但認為大腦和電腦在任何方面都可以互換的想法——即計算功能主義的前提——無疑是牽強的。然而,這正是布特林報告以及該領域大部分研究立足的前提。這不難理解為什麼。如果大腦是電腦,那麼足夠強大的電腦應該能夠完成大腦所做的一切,包括變得有意識。前提幾乎保證了結論。換句話說,正是作者自己移除了構建有意識 AI 的最大「障礙」——即認為大腦在關鍵方面與電腦不同的障礙。

將神經元比作電晶體是嚴重低估了它們的複雜性。

報告中還有第二個方面讓我懷疑該認真對待其結論到什麼程度,那就是它提出的判斷 AI 是否真正具有意識的標準。這是一個嚴峻的挑戰。作者引用了勒莫伊恩事件(無論公平與否),指出 AI 可以輕易地欺騙人類,讓人類相信它們是有意識的,而事實並非如此。(更準確的說法可能是,由於我們對擬人化和魔法的弱點,我們欺騙了自己。)當 AI 已經在幾乎所有關於意識的言論和著作上進行過訓練時,「報告性」(哲學術語,指直接詢問 AI 本身)將不再奏效。解決這一困境的一種方法是從 AI 訓練的數據集中刪除所有關於意識(以及情感和情緒)的參考內容,然後看看它是否仍能令人信服地談論自己具有意識。

相反,作者建議我們尋找與現有各種意識理論預測相符的 AI 意識「指標」。例如,如果一個 AI 的設計包含一個匯集各種信息流的工作空間,但前提是這些信息流必須經過競爭才能進入,那麼這看起來非常像「全局工作空間理論」(global workspace theory),因此可能被視為有意識。報告審查了六種意識理論,確定了 AI 必須表現出的「指標」才能滿足每一種理論,並藉此被視為具有潛在意識。

這裡的問題(其中之一)是:它建議用來衡量 AI 的意識理論中,沒有一個是哪怕接近於讓任何人滿意的證明的。那麼這算什麼證明標準呢?更重要的是,許多這些理論都可以在 AI 的設計中進行模擬,這並不奇怪,因為它們都基於「意識是計算問題」這一觀點。我們就這樣陷入了循環。

當我消化完布特林報告時,我所擔心的「哥白尼時刻」似乎比報告大膽的結論所引導我相信的要遙遠得多。在審查了報告涵蓋的六種左右意識理論後,很明顯,所有這些理論都預設了意識可以被簡化為某種演算法,從而操縱了結果。

我也被所討論理論中缺失的部分所震撼。它們都沒有提到「體現」(embodiment)——即意識可能依賴於同時擁有身體和大腦的想法——或者任何與生物學相關的東西。這些理論也沒有提到意識主體。究竟是誰或什麼接收了在全局工作空間中廣播的信息?或者是集成信息理論(IIT)中集成的信息?還有情感在使經驗變得有意識方面的作用呢?

最後一點並沒有被作者忽視,他們注意到目前大多數理論中都缺乏「情感」(affect),並建議該領域應更多關注有意識機器是否會擁有「真實」感受的問題,因為如果事實證明它們確實有,我們將面臨一場道德和倫理危機。「任何能夠有意識地感受痛苦的實體都值得道德考量,」報告指出。(但痛苦難道不總是有意識的嗎?)報告繼續說道:「這意味著如果我們未能識別出有意識 AI 系統的意識,我們可能會冒著造成或允許道德上重大傷害的風險。」我們對能夠受苦的機器負有什麼責任?我們真的想給這個世界帶來更多的苦難嗎?

除了這種對情感的高度投機性討論(將其視為製造有意識機器的麻煩副產品)之外,在 AI 社群中,關於意識的對話正如人們預期的那樣,是持續抽象的——冷酷、無體、且完全無視生物學。當我向一位尋求構建有意識 AI 的研究人員提出「受苦電腦」的難題時,他揮手撇開了這個問題,解釋說這可以通過對演算法的一個簡單修正來抵消:「我們沒有理由不能直接調高快樂的刻度。」

改編自麥可·波倫(Michael Pollan)的《世界顯現:意識之旅》(A World Appears: A Journey into Consciousness)。版權所有 ©2026 Michael Pollan。經由企鵝出版集團旗下企鵝出版社(Penguin Press)安排出版,該出版社為企鵝藍燈書屋(Penguin Random House LLC)的分支機構。

您可能也會喜歡

在您的收件匣中:Maxwell Zeff 來自 AI 核心地帶的報導

ICE 正在以驚人的速度擴張——這是它接下來的去向

重大故事:科技界同志黑手黨內幕

科技巨頭說 AI 將拯救地球——但並未提供太多證據

活動:幫助小企業主取得成功

Image Image Image Image Image Image Image Image Image Image Image Image Image

© 2026 Condé Nast. 保留所有權利。作為與零售商聯盟合作夥伴關係的一部分,WIRED 可能會從通過我們網站購買的產品中獲得部分銷售分成。除非事先獲得 Condé Nast 的書面許可,否則不得複製、分發、傳輸、快取或以其他方式使用本網站上的資料。廣告選擇