與郭毅可對話:AI趨近“全知”,人類會陷入精神荒蕪嗎?
1944年,阿根廷作家豪爾赫·路易斯·博爾赫斯在《巴別圖書館》里,為人類構(gòu)建了一個由無數(shù)六角形回廊組成的“全書圖書館”。
一開始,它是神諭的象征。人們沉浸在“萬物皆已寫就”的興奮中,耗盡一生去尋找那本能解釋宇宙真相、甚至個人命運(yùn)的“辯護(hù)狀”。
可當(dāng)狂歡結(jié)束,真相浮現(xiàn):在幾乎無窮無盡、由亂碼構(gòu)成的廢紙堆里,找一行有意義的文字,概率小到幾乎不存在。
信息的極度過剩,不僅沒點(diǎn)亮智慧,反而用噪聲淹沒了意義。
博爾赫斯筆下的旅行者在循環(huán)往復(fù)的卷冊間穿梭,看穿了那令人絕望的循環(huán)。他預(yù)言人類終會滅絕,而圖書館永存——“青燈孤照,無限不動,藏有珍本,默默無聞。”
八十多年后的今天,這個隱喻跨越時空,精準(zhǔn)觸動了生成式AI時代的神經(jīng)。
我們正處在知識飽和的臨界點(diǎn):當(dāng)算法能瞬間窮盡文字的所有組合,我們是在挖掘通往真理的沃土,還是在加速走進(jìn)一片精神荒原?當(dāng)一切都能生成,是否意味著一切都沒意義?人類智慧的護(hù)城河在哪里?我們該如何與AI共存,并用它創(chuàng)造真正有價值的內(nèi)容?那些記錄人類“不完美靈魂”的文學(xué)與藝術(shù),會不會成為我們最后的精神庇護(hù)所?

圖片由AI生成
帶著這些關(guān)于創(chuàng)造、教育與存在的疑問,在高山書院十周年活動現(xiàn)場,我們和香港科技大學(xué)首席副校長、英國皇家工程院院士、中國工程院外籍院士郭毅可深入交流了近兩小時。他不只是人工智能與計算機(jī)科學(xué)領(lǐng)域的學(xué)者,從事人工智能、數(shù)據(jù)科學(xué)及其在科研與教育體系應(yīng)用的研究,還長期推動AI與跨學(xué)科創(chuàng)新的融合。
在郭毅可看來,AI不會簡單“淘汰人”,而是重塑工作結(jié)構(gòu)與分工方式,很多職業(yè)會轉(zhuǎn)向更高層次的人機(jī)協(xié)作與復(fù)雜決策。
談到人工智能的社會意義時,郭毅可進(jìn)一步提出,人工智能的價值不只是提高效率,還可能重塑組織結(jié)構(gòu)和社會結(jié)構(gòu)本身。所以,他一直反對把AI僅僅當(dāng)作工具或工程問題,強(qiáng)調(diào)它對教育體系、人才培養(yǎng)模式以及制度設(shè)計的長期影響。他也多次指出,人工智能不應(yīng)被視為計算機(jī)學(xué)科的簡單延伸,而是一門天生需要跨學(xué)科融合的新型學(xué)科。

以下是本次采訪的實(shí)錄,希望能給您帶來啟發(fā):
Q:近年來,大模型的發(fā)展讓人想到博爾赫斯小說《巴別圖書館》里描述的場景,一個包含所有知識的無限圖書館。在這樣的時代背景下,如果人類獲取任何答案都只需0.1秒,“提問的能力”會不會成為我們最關(guān)鍵的智力護(hù)城河?
郭毅可:要是人工智能的發(fā)展能把世界上所有文字記載的事實(shí)或知識壓縮成一個模型,提問時生成它認(rèn)為正確的回答,這就是你說的“0.1秒獲得知識”。
這里我們得先明確知識的定義。知識是有共識性的認(rèn)知,而“共識”本身是統(tǒng)計學(xué)概念,也就是大多數(shù)人同意。
大模型的“壓縮”過程,本質(zhì)就是尋找統(tǒng)計意義上的共識。從這個角度說,大模型在很大程度上生成了和我們定義的“知識”相符的內(nèi)容。
所以,費(fèi)力記憶和構(gòu)建個人知識體系的重要性似乎在降低,因為我們有了“副腦”。現(xiàn)在,關(guān)鍵問題變成了“retrieval”——怎么獲取你想要的東西。這取決于“你想要什么”以及“你為什么想要它”。
學(xué)會提問變得很重要,但這并不容易。淺顯的問題只能得到淺顯的答案。只有問題提得有特色,得到的答案才可能更有價值。
但比提問能力更重要的,是和機(jī)器的“交流能力”。你問機(jī)器十次,它可能給出十個不同的回答。
你得從中判斷哪個是對的,它們之間有什么異同,以及為什么不同。最精彩的不是一次性的問題,而是在多輪對話中,不斷提高對信息和知識的精度要求。
因此,我覺得和機(jī)器的交流能力,才是未來最重要的能力。
Q:和AI提問與和人類提問,方式上有本質(zhì)區(qū)別嗎?如果人類越來越習(xí)慣從AI那里得到加工好的結(jié)論,思維會不會因此萎縮?
郭毅可:沒有太大的本質(zhì)區(qū)別。唯一的不同可能是,和你交流的AI知識量非常豐富。和人聊天可能會沒話說,但AI總能繼續(xù)對話。關(guān)鍵是,你要判斷AI生成內(nèi)容的穩(wěn)定性和內(nèi)涵。人是主觀存在,AI是客觀存在,你怎么認(rèn)知它的回答,會帶來不同的感受。
至于思維會不會萎縮,這取決于使用者自己。
為什么你覺得去圖書館做很多功課不算“偷懶”,用AI獲取知識就是“偷懶”呢?這只是獲取知識的途徑和能力變了。恰恰相反,這對你提出了更高的要求——你必須時刻對AI給出的內(nèi)容做出反應(yīng),這是真正的“對話”,不是被動的“被教育”。
所謂的“AI幻覺”,其實(shí)人類的“幻覺”,也就是主觀臆斷,要多得多。正因為知道對方是機(jī)器,我們反而更能產(chǎn)生懷疑和批判精神,這會讓人更聰明,而不是更懶。那種認(rèn)為“更容易獲取知識會導(dǎo)致大腦萎縮”的觀點(diǎn)很天真,因為它還是用人與人交往的邏輯來想象人與機(jī)器的交往。
功能的轉(zhuǎn)移是必然的。比如,我們現(xiàn)在記不住電話號碼,但把記憶的精力轉(zhuǎn)移到了推理等其他能力上。我們打字快了,認(rèn)識的單詞量可能更大了。我不會打算盤了,但會編程序了。這不是萎縮,而是能力的進(jìn)化和遷移。
Q:現(xiàn)在網(wǎng)絡(luò)上有很多“不是……而是……”這類明顯有AI痕跡的句式,您覺得這是好事嗎?當(dāng)AI能寫出比普通詩人更“像”詩的文字,人類文明中哪些文學(xué)作品是AI永遠(yuǎn)達(dá)不到的?
郭毅可:AI寫的和AI與人共創(chuàng)的,是兩個完全不同的概念。如果一個人知道怎么和AI協(xié)作,他們一起創(chuàng)作出的文章可以很有深度。AI知識量豐富,如果使用者有判斷力和被啟迪的能力,就能創(chuàng)作出很好的文章。
我最近看到一個微信號,作者的文章就是和AI共創(chuàng)的,寫得非常好。比如,她可以提出“意識的物理性原理”這樣的命題,這是個很寬泛且很難找到人類對話者的話題。
但AI能根據(jù)這個命題和她展開對話,最后形成一篇很棒的文章和觀點(diǎn)。這才是正確使用人工智能的方式。AI對人的智力、意識、行為有沒有幫助,歸根結(jié)底是人的問題,不是機(jī)器的問題。
所以,我非常提倡和鼓勵學(xué)生正確使用AI。當(dāng)然,像寫歡迎詞這類格式化的內(nèi)容,完全可以交給AI,它甚至?xí)让貢龅酶?,因為能自動搜索相關(guān)信息,寫得更全面。
Q:您能總結(jié)一下什么是“正確使用AI”嗎?
郭毅可:正確的使用方式,是把AI當(dāng)作知識淵博的討論伙伴。你既要尊重它,也要懷疑它。你要向它提出真正有意義的問題,比如“意識的物理性本質(zhì)是什么?”或“你怎么看待意識的量子性”。
AI會為你總結(jié)相關(guān)觀點(diǎn),然后你要基于它的回答分析:哪些是正確的,哪些有啟發(fā)性,哪些完全有問題。對于你認(rèn)同的,可以當(dāng)作知識的補(bǔ)充;對于有問題的,可以繼續(xù)探討、否定,甚至和它爭論。
目前AI的難點(diǎn)在于它還不太會“爭論”,因為沒有自己的觀點(diǎn)和價值觀。但隨著技術(shù)發(fā)展,我相信AI會逐漸具備爭論的特性。
Q:按照目前主流的Transformer技術(shù)路徑,AI能進(jìn)化出自己的觀點(diǎn)甚至情感嗎?很多人認(rèn)為它只是“數(shù)據(jù)的壓縮”,無法擁有真正的情感。
郭毅可:當(dāng)然可以。當(dāng)AI的推理能力越來越強(qiáng),它就開始形成自己的觀點(diǎn)了。通過強(qiáng)化學(xué)習(xí),我們告訴它哪些推理結(jié)果值得欣賞,它就會慢慢形成一種觀點(diǎn)。這觀點(diǎn)一開始是你教給它的,但如果機(jī)器開始“自己教自己”,就會慢慢形成自己的觀點(diǎn)。
至于情感,為什么AI不能有情感?情感是被感知的。當(dāng)你覺得和它說話舒服了,情感不就產(chǎn)生了嗎?羅永浩和“豆包”吵架,就證明AI可以進(jìn)行情感對話。
我們不應(yīng)該先入為主地認(rèn)為“機(jī)器沒有情感”,而應(yīng)該思考如何讓機(jī)器做得更好,讓它的情感能被我們感知到。這在技術(shù)上不難,本質(zhì)上就是把語言的語義通過學(xué)習(xí)映射到語音的頻率上。
我們?nèi)祟惪傁矚g把自己放在第一位。假設(shè)如果有造物主,他造了我們,我們現(xiàn)在也在造機(jī)器。憑什么我們有的東西,機(jī)器就不能有呢?
Q:那么,對于像新聞這類對客觀事實(shí)記錄要求很高的職業(yè),AI的出現(xiàn)是否意味著職業(yè)意義的消失?
郭毅可:新聞記者的素質(zhì)要求會越來越高,而不是消失。因為有了AI這個工具,你的知識面會更廣,能問出更精彩的問題,報道也會有更深刻的視角。你的能力被增強(qiáng)了。但如果你堅持用現(xiàn)在的方式工作,就會被淘汰。這就像你原來是開馬車的,現(xiàn)在有了汽車、飛機(jī)。你如果只堅持開馬車,自然會失業(yè)。但如果你能轉(zhuǎn)換技能,去開汽車、飛機(jī),能力就提升了。這是技能變化的問題。
Q:您對AI技術(shù)的發(fā)展一直很積極樂觀。您認(rèn)為它有負(fù)面影響嗎?我們需要防范它對人類產(chǎn)生“敵意”嗎?
郭毅可:悲觀有用嗎?沒用。它一定會繼續(xù)進(jìn)化。所以我們不需要悲觀,而是要“進(jìn)化你自己”。這不是樂觀或悲觀的問題,而是清醒地認(rèn)識現(xiàn)實(shí)。
人類自身之間也有敵意。AI的敵意,本質(zhì)也來自人類。如果我們都充滿敵意,教出來的AI有敵意也很正常。但反過來想,如果人類意識到,我們之間的敵意可能會被第三方(AI)利用,最終導(dǎo)致共同毀滅,那么我們或許會因此學(xué)會消除彼此的敵意,這也不是壞事。
作為科學(xué)家,我認(rèn)為技術(shù)上沒有“很難”的事,只有我們自己不夠聰明,或者不愿去做。只要想得到,并且愿意去做,就沒有做不到的。
Q:在您看來,下一步AI最值得期待的進(jìn)化是什么?您對AI發(fā)展很樂觀,是否認(rèn)為AI行業(yè)過熱或有泡沫?
郭毅可:我期待它能像聰明的人一樣,越來越聰明。我們變得更聰明,然后再帶著它一起迭代。
至于預(yù)判它的迭代速度,取決于你的目的。如果你想賺錢,那是另一種預(yù)判方法。訓(xùn)練大模型是極少數(shù)公司的事,而且每次訓(xùn)練都應(yīng)該有明確目的,比如降低推理成本、讓模型更緊致、或知識更豐富。過去那種為了“打分”而訓(xùn)練模型的模式,是巨大的資源浪費(fèi),現(xiàn)在不會這樣了。大部分人是在應(yīng)用模型,在模型基礎(chǔ)上創(chuàng)造價值,比如提升模型的質(zhì)檢能力、推理能力或自我進(jìn)化能力。研究、制造和應(yīng)用會慢慢分開,像“百模大戰(zhàn)”這種愚蠢的事情不會再發(fā)生了。
任何事情都從泡沫開始,既然是泡沫,就說明它有意義。但泡沫破裂是正常的。我認(rèn)為泡沫可能不是一下全破。戳破一類泡沫很容易,比如DeepSeek一出來,就沒人再做那種純粹堆參數(shù)的大模型了。技術(shù)道路一旦準(zhǔn)確,接下來就是效率的迭代,就像摩爾定律一樣。
感謝高山書院對本文的貢獻(xiàn)
本文來自微信公眾號“騰訊科技”,作者:郭曉靜,編輯:徐青陽,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



