欧美三级电影完整|亚洲一二三四久久|性爱视频精品一区二区免费在线观看|国产精品啪啪视频|婷婷六月综合操人妻视频网站|99爱免费视频在线观看|美女一级片在线观看|北京熟女88av|免费看黄色A级电影|欧美黄色毛片儿

人工智能為何永遠無法擁有意識

04-01 06:18
對AI意識的探討,不能脫離生物學基礎(chǔ)。

神譯局是36氪旗下編譯團隊,聚焦科技、商業(yè)、職場、生活等領(lǐng)域,重點介紹國外的新技術(shù)、新觀點、新風向。



編者按:人工智能能完成諸多任務(wù),但它永遠成不了真正的“人”。本文經(jīng)編譯而來,希望能給您帶來啟發(fā)。



布萊克·萊莫因事件如今被視為AI炒作浪潮里的標志性事件。它讓“有意識的AI”這一概念借由幾波新聞熱度進入公眾視野,也在計算機科學家和意識研究者之間引發(fā)了一場討論,且在之后幾年愈演愈烈。盡管科技界仍公開貶低這一想法,但私下里已開始認真對待這種可能性。


擁有意識的AI或許沒有清晰的商業(yè)邏輯(靠它怎么賺錢?),還會帶來棘手的道德困境(該如何對待能感受痛苦的機器?)。但部分AI工程師認為,實現(xiàn)通用人工智能這一終極目標(一臺不僅超級智能,還具備人類水平的理解力、創(chuàng)造力和常識的機器),或許需要某種類似意識的東西才能達成。


在科技界,曾經(jīng)圍繞“有意識AI”的不成文禁忌突然開始瓦解。


轉(zhuǎn)折點出現(xiàn)在2023年夏天,19位頂尖計算機科學家與哲學家發(fā)布了一份88頁的報告《人工智能中的意識》,業(yè)內(nèi)俗稱巴特林報告。短短幾天內(nèi),AI與意識科學領(lǐng)域幾乎人人都讀過這份報告。報告摘要里有句驚人的話:


我們的分析顯示,當前沒有任何AI系統(tǒng)具備意識,但同時也表明,建造有意識的AI系統(tǒng)不存在明顯障礙。


作者們承認,召集團隊撰寫這份報告的部分靈感正是“布萊克·萊莫因事件”。一位合著者對《科學》雜志表示:“如果AI能表現(xiàn)出意識的假象,那么科學家與哲學家就必須緊急介入?!?/p>


但真正吸引所有人注意的,是摘要里的那句話:“建造有意識的AI系統(tǒng)不存在明顯障礙”。我第一次讀到這些文字時,感覺某個重要的界限被跨越了,而且不只是技術(shù)層面的界限,這關(guān)乎我們作為一個物種的身份認同。


如果在不遠的將來,人類某天發(fā)現(xiàn)一臺完全有意識的機器誕生了,這意味著什么?我想,那會是一個哥白尼式時刻,驟然打破人類自視中心、獨一無二的優(yōu)越感。


幾千年來,人類一直通過與“低等”動物對立來定義自己。我們否認動物擁有那些被認為是人類獨有的特質(zhì),比如情感、語言、理性與意識。而近幾年,這些界限大多已崩塌:科學家證明,大量物種擁有智能與意識,有情感,會使用語言與工具,挑戰(zhàn)了長達數(shù)世紀的人類例外論。這場仍在進行的轉(zhuǎn)變,引發(fā)了關(guān)于人類身份以及我們對其他物種道德義務(wù)的棘手問題。


而AI,從一個全新的方向威脅著我們高高在上的自我認知。如今,人類必須相對于AI來定義自己,而不再只是相對于動物。


當計算機算法在純粹算力上超越我們,輕松擊敗國際象棋、圍棋,乃至數(shù)學等各種“高級”思維時,我們至少還能安慰自己:人類(以及許多其他動物物種)仍然獨占著意識的饋贈,擁有感受與主觀體驗的能力。


從這個角度看,AI或許可以成為一個共同的敵人,讓人類與其他動物走得更近:我們對抗它就像生命對抗機器。這種新的團結(jié)本可以成為一個暖心故事,對那些被邀請加入“意識陣營”的動物來說或許是好消息。可如果AI開始挑戰(zhàn)人類,或者說挑戰(zhàn)動物對意識的壟斷呢?


到那時,我們又將是誰?


我覺得這個設(shè)想令人極度不安,盡管我不完全確定其原因。我已經(jīng)慢慢接受與其他動物(甚至可能包括植物)共享意識的想法,也愿意承認它們進入更廣泛的道德關(guān)懷圈。但機器?


我的不安或許來自自己的教育背景。我長期浸潤在人文學科中,尤其是文學、歷史與藝術(shù),這些領(lǐng)域始終將人類意識視為某種非凡、值得捍衛(wèi)的東西。我們所珍視的文明幾乎一切成果,都是人類意識的產(chǎn)物:藝術(shù)與科學、高雅與通俗文化、建筑、哲學、宗教、政府、法律、倫理與道德,更不用說“價值”本身這個概念。


我猜想,有意識的計算機或許能為這些輝煌成就增添某種全新、尚未被想象過的東西。我們可以如此期待。但到目前為止,AI寫的詩并不比打油詩好多少。缺乏意識,或許正是它連一絲原創(chuàng)性或新鮮洞見都沒有的原因。可如果當有意識的AI開始寫出真正優(yōu)秀的詩歌,我們又會作何感想?


作為一名人文主義者,我很難接受“動物對意識的壟斷可能被打破”這一可能。但我遇到過另一類人(其中一些自稱超人類主義者),他們對這種未來更為樂觀。


一些AI研究者支持建造有意識的機器,因為作為擁有自身情感的實體,有意識的機器比僅僅聰明的計算機更有可能產(chǎn)生共情。一位神經(jīng)科學家與一位AI研究者都試圖說服我:建造有意識AI是一項道德責任。


為什么?


因為另一種選擇是:極度聰明卻毫無情感的AI,會為了達成目標冷酷無情,因為它缺乏所有源于意識與共同脆弱性的道德約束。只有有意識的AI才有可能發(fā)展出共情,從而放過我們?nèi)祟悺?/p>


我沒有夸大;這就是他們的論點。


人們不禁要問:這些人真的讀過《弗蘭肯斯坦》嗎?弗蘭肯斯坦博士賦予了他的創(chuàng)造物生命,還有意識,而問題恰恰出在這里?,旣悺ぱ┤R的小說記錄了“一個有感知、有理性的怪物的誕生”,正是這兩種特質(zhì)的結(jié)合,決定了怪物的命運。促使他復仇、殺人的不是理性,而是情感創(chuàng)傷。


“目之所及皆是幸福,唯獨我被永久排斥在外,”怪物被人類社會驅(qū)逐后對弗蘭肯斯坦抱怨道,“我本仁慈善良,是苦難把我變成了惡魔?!惫治锏睦硇源_實幫他實現(xiàn)了邪惡計劃,但動機來自他的意識,他的情感。


我們憑什么假設(shè),有意識的機器會比有意識的人類更善良?



值得注意的是,這份關(guān)于人工意識的巴特林報告,代表了該領(lǐng)域某種程度上的共識;我采訪的大多數(shù)計算機科學家都認可其結(jié)論。然而,我越是反復閱讀這份報告(并采訪其中一位合著者),就越開始質(zhì)疑它“AI意識即將到來”的結(jié)論。


值得肯定的是,作者們嚴謹?shù)亓谐隽俗约旱募僭O(shè)與研究方法,而正是這些前提讓我懷疑,他們是否把大膽的結(jié)論建立在了可疑的基礎(chǔ)之上。


就在第一頁,這些計算機科學家與哲學家提出了他們的指導性假設(shè):我們采用計算功能主義作為假說,即執(zhí)行恰當類型的計算對意識而言既必要又充分。


計算功能主義的出發(fā)點是:意識本質(zhì)上是一套運行在硬件上的軟件,硬件可以是大腦,也可以是計算機,該理論對此完全中立。


但計算功能主義是正確的嗎?作者們并沒有完全準備好篤定這一點,只說它是“主流觀點,盡管存在爭議”。即便如此,他們?nèi)詴鲇凇皩嵱迷颉痹诩僭O(shè)其為真的前提下繼續(xù)研究。


這種坦誠令人敬佩,但這一思路需要一次巨大的信念飛躍,而我不確定我們是否應(yīng)該邁出這一步。為了報告的研究目的,系統(tǒng)的“物質(zhì)基質(zhì)”(即它是大腦還是計算機)“對意識而言并不重要……它可以存在于多種基質(zhì)中,而不僅限于生物大腦?!比魏文苓\行必要算法的基質(zhì)都可以。


作者們寫道:“我們暫時假定,我們所知的計算機原則上能夠?qū)崿F(xiàn)足以產(chǎn)生意識的算法,但我們并不能說這是確定無疑的?!?/p>


這種對不確定性的承認遠遠不夠。


報告中從未被質(zhì)疑的,是“大腦就是計算機”這一比喻。意識作為軟件,運行在硬件之上。在這里,我們看到一個比喻被當作了事實。事實上,整篇論文及其結(jié)論,都依賴于這個比喻的有效性。


比喻可以是強大的思考工具,但前提是我們不能忘記它們只是比喻,是一種不完美、局部的類比。兩者之間的差異與相似同樣重要,而在對AI的狂熱中,這些差異似乎被忽略了。正如控制論專家阿圖羅·羅森布盧埃斯與諾伯特·維納多年前所言:比喻的代價是永恒的警惕。


除了報告作者之外,整個AI領(lǐng)域似乎都在這一點上放松了警惕。


想想硬件與軟件之間的清晰劃分。


計算機中將硬件與軟件分離的好處在于,無數(shù)不同的程序可以在同一臺機器上運行;軟件及其編碼的知識不會隨硬件“消亡”而消失。這種劃分也契合我們樸素的直覺:二元論是正確的,我們可以在精神與物質(zhì)之間劃出清晰界限。


但大腦中根本不存在硬件與軟件的區(qū)分;在大腦里,軟件就是硬件,硬件就是軟件。一段記憶是大腦神經(jīng)元之間連接的物理模式,既不是硬件也不是軟件,而是兩者皆是。


事實上,發(fā)生在你身上的一切,你所經(jīng)歷、學習、記住的一切,都會改變你大腦的物理結(jié)構(gòu),永久重塑其連接。從這個意義上說,大腦中不存在二元論;精神永遠無法完全脫離物質(zhì)。


如果所謂的基質(zhì),也就是大腦,會被運行其上的任何信息(或“意識算法”)持續(xù)物理重構(gòu),那么“同一套意識算法可以在多種不同基質(zhì)上運行”的想法就毫無道理。你的大腦與我的大腦在物質(zhì)上不同,正是因為它被不同的人生經(jīng)歷,也就是意識本身,實實在在地塑造。大腦根本不可互換,既不能與計算機互換,也不能與其他大腦互換。


無論從哪個角度推敲,“計算機即大腦”的比喻都會崩塌。


計算機科學家把大腦中的神經(jīng)元看作芯片上的晶體管,由電脈沖開啟或關(guān)閉。這個類比有一定道理,但實際問題復雜得多:電并不是影響神經(jīng)元放電的唯一因素。


大腦中還充滿各種化學物質(zhì),包括神經(jīng)調(diào)質(zhì)與激素,它們強烈影響神經(jīng)元的活動,不僅影響是否放電,還影響放電強度。這就是為什么精神藥物能深刻改變意識,卻對計算機沒有明顯作用。神經(jīng)元的活動還受以波狀形式穿過大腦的振蕩影響;這些振蕩的不同頻率與不同心理活動相關(guān),比如有意識與無意識、專注注意力與做夢。


把神經(jīng)元比作晶體管,是嚴重低估了它們的復雜性。與芯片上的晶體管相比,大腦中的神經(jīng)元連接極其密集,每個神經(jīng)元直接與多達一萬個其他神經(jīng)元通信,其網(wǎng)絡(luò)復雜到我們還要幾十年才能畫出哪怕最粗糙的連接圖譜。


計算機科學界大肆宣揚“深度人工神經(jīng)網(wǎng)絡(luò)”的到來(一種據(jù)稱模仿大腦結(jié)構(gòu)的機器學習架構(gòu),通過堆疊數(shù)量驚人的處理器,讓網(wǎng)絡(luò)能夠處理海量數(shù)據(jù)并從中學習),這當然很厲害,但最近一項研究表明:單個皮層神經(jīng)元就能完成一整個深度人工神經(jīng)網(wǎng)絡(luò)能做的所有事情。


的確,計算機在很多方面與大腦相似,計算機科學也通過模擬大腦的各種功能取得了巨大進步。但“大腦與計算機在某種程度上可以互換”絕對是牽強的。然而,不僅巴特林報告,該領(lǐng)域大多數(shù)研究都建立在這一前提之上。


原因不難理解:如果大腦是計算機,那么足夠強大的計算機就應(yīng)該能做到大腦能做的一切,包括產(chǎn)生意識。


這個前提幾乎直接保證了結(jié)論。換句話說,是作者們自己移除了建造有意識AI最大的“障礙”,那個認為大腦與計算機在關(guān)鍵層面存在差異的障礙。


將神經(jīng)元比作晶體管是嚴重低估了大腦的復雜性。


讓我質(zhì)疑這份報告結(jié)論可信度的第二個方面,是它提出的判斷AI是否真正有意識的標準。這是一個嚴峻的挑戰(zhàn)。


報告引用萊莫因事件指出,AI可以輕易欺騙人類,讓我們相信它們有意識,而實際上并沒有。更準確地說,是我們因為擬人化與對奇跡的偏愛而欺騙了自己。


如果AI已經(jīng)在所有關(guān)于意識的言論與文字上接受過訓練,那么“可報告性”(即直接問AI本身)就不可靠。解決這一困境的一種方法是:從AI的訓練數(shù)據(jù)中移除所有關(guān)于意識的內(nèi)容,然后看它是否還能令人信服地談?wù)撟约河幸庾R。


但作者們轉(zhuǎn)而提議:尋找與現(xiàn)有各種意識理論預測相符的AI意識“指標”。例如,如果AI的設(shè)計包含一個工作空間,能將多條信息流整合在一起,且這些信息流需要經(jīng)過競爭才能進入該空間,這就很像全局工作空間理論,因此可能被視作具備意識。


報告回顧了近六種意識理論,確定了AI必須表現(xiàn)出哪些“指標”才能滿足每種理論,并據(jù)此被認定為可能有意識。


問題在于(這只是其中之一):報告用來衡量AI的這些意識理論,沒有一個被令人信服地證實。


那這算什么樣的證明標準?更重要的是,這些理論中的許多都可以在AI設(shè)計中被模擬出來。我們就這樣陷入了循環(huán)論證。


當我徹底消化完巴特林報告后,我之前擔心的哥白尼式時刻,似乎遠沒有報告大膽結(jié)論所暗示的那么近。在回顧報告涵蓋的近六種意識理論后,一個顯而易見的事實是:它們?nèi)碱A設(shè)了立場,想當然地認為意識可以被還原為某種算法。


同樣讓我震驚的是這些理論所缺失的內(nèi)容。它們沒有一個談及具身性(即意識可能同時依賴身體與大腦的觀點)或者任何與生物學相關(guān)的內(nèi)容。這些理論也完全沒有提及意識主體。


在全局工作空間中被廣播的信息,其接收者究竟是誰或什么?在整合信息理論中被整合的信息又是為誰而整合?情感在讓體驗成為有意識體驗的過程中又扮演著什么角色?


最后一點并沒有被作者們忽視。他們指出,當前大多數(shù)理論都缺乏“情感”維度,并建議該領(lǐng)域更多關(guān)注有意識的機器是否會擁有“真實”情感這一問題。因為如果事實證明它們會,我們就將面臨一場道德與倫理危機。


報告寫道:


任何能夠有意識地感受痛苦的實體都應(yīng)得到道德關(guān)懷。這意味著,如果我們未能識別出有意識AI系統(tǒng)的意識,我們就有可能造成或放任具有重大道德意義的傷害。


我們該對能感受痛苦的機器負什么責任?我們真的想給這個世界再帶來更多痛苦嗎?


除了這類高度思辨的情感討論之外,AI界關(guān)于意識的討論,一如既往地冷酷、抽象、脫離血肉、完全無視生物學。


當我向一位致力于建造有意識AI的研究者提出“會痛苦的計算機”這一難題時,他對此不屑一顧,解釋說只要簡單調(diào)整算法就能抵消:我們完全可以把快樂旋鈕調(diào)高,沒理由做不到。


譯者:Teresa


本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com