版權(quán)紅線與Sora的退場:技術(shù)狂奔下的人為邊界
3月24日,OpenAI正式宣布關(guān)停Sora。這個曾讓大眾驚呼“現(xiàn)實感被顛覆”的AI視頻生成平臺,在推出僅半年后便悄然落幕。
外界對其退場原因眾說紛紜,有人歸結(jié)為商業(yè)戰(zhàn)略調(diào)整,也有人認為是高昂的算力成本所致。但一個關(guān)鍵的“死因”卻鮮少被深入探討:版權(quán)爭議。

Sora采用黑盒式訓(xùn)練模式,訓(xùn)練過程中可能使用了大量未獲明確授權(quán)的網(wǎng)絡(luò)視頻數(shù)據(jù)。自推出以來,迪士尼等版權(quán)方就對其提出強烈抗議,甚至將OpenAI訴諸法庭。任天堂社長也曾在股東大會上明確指出生成式AI存在知識產(chǎn)權(quán)問題。
任何選擇都對應(yīng)著相應(yīng)的后果,OpenAI關(guān)停Sora的決定,或許給所有AI視頻生成工具敲響了警鐘:在當前的法律框架與產(chǎn)業(yè)環(huán)境下,若不能妥善解決版權(quán)問題,這類技術(shù)的失敗幾乎是必然的。
01 巨頭的普遍選擇
Sora的版權(quán)爭議更像是一個被聚焦的靶子,所謂“槍打出頭鳥”。實際上,黑箱式訓(xùn)練并非Sora獨有,而是行業(yè)內(nèi)的常見做法,其他視頻生成模型也或多或少存在版權(quán)問題。只是它們要么采取有限開放策略,主攻B端商業(yè)客戶,曝光度較低,版權(quán)問題未完全暴露;要么刻意避開迪士尼角色這類高風險IP,避免被“全球最強法務(wù)部”盯上。
一旦被版權(quán)方鎖定,都可能面臨與OpenAI類似的訴訟風險。例如,某國產(chǎn)AI視頻工具就因生成未經(jīng)授權(quán)的《星球大戰(zhàn)》《小黃人》等角色,在北美加州被迪士尼、華納、環(huán)球等好萊塢三大巨頭起訴。
可以說,AI巨頭們應(yīng)對版權(quán)問題的普遍策略是“先上車后補票”。
他們先利用免費抓取的公開網(wǎng)絡(luò)數(shù)據(jù)集進行訓(xùn)練,其中包含大量受版權(quán)保護的內(nèi)容。直到產(chǎn)品上線后,被《紐約時報》或個人創(chuàng)作者投訴,才開始談合作、支付費用,以“洗白”數(shù)據(jù)來源。
OpenAI前CTO米拉·穆拉蒂曾公開表示,對于Sora是否使用了受版權(quán)保護的視頻進行訓(xùn)練,自己“不太確定”。

與之形成對比的是,那些擁有嚴格反爬蟲機制和付費墻的內(nèi)容平臺,如科學(xué)期刊和付費數(shù)據(jù)庫,能更好地控制被AI侵權(quán)的風險。即使AI能聯(lián)網(wǎng)搜索到部分論文,也只能獲取公開頁面內(nèi)容,無法繞過登錄或付費驗證。
對版權(quán)的嚴格保護,讓科學(xué)內(nèi)容成為少數(shù)未被大規(guī)模侵權(quán)的領(lǐng)域,以至于很多通用AI在回答科學(xué)問題時,只能基于不完整信息進行推斷。但這種版權(quán)保護方式,卻難以被影視、動漫等文娛機構(gòu)和創(chuàng)作者借鑒。
原因之一是付費墻難以奏效。科研論文可以精確控制訪問權(quán)限,只有訂閱者能查看全文,AI也只能在封閉系統(tǒng)內(nèi)運行。但視頻屬于大眾文化消費品,YouTuber主要靠廣告和社群盈利,視頻內(nèi)容大多公開,AI可以輕易獲取。

其次是灰色地帶的權(quán)屬認定難度大。科學(xué)內(nèi)容有明確的數(shù)據(jù)和條文,侵權(quán)容易被認定。而視頻的視覺風格、角色形象、敘事邏輯等被AI學(xué)習后,可進行抽象、重組和泛化,AI作品可用“撞靈感”“撞?!钡壤碛商氯?,創(chuàng)作者維權(quán)的舉證難度極大。
因此,“先上車后補票”,即“請求原諒而非請求許可”,成為AI巨頭在視頻生成領(lǐng)域的普遍選擇。既然版權(quán)機制已難以保護創(chuàng)作者,那它還有存在的必要嗎?
02 版權(quán)制度的困境
一方面,公開的文娛內(nèi)容在AI訓(xùn)練中被大規(guī)模抓取,個體創(chuàng)作者幾乎無力阻止;另一方面,嚴格限制的科學(xué)內(nèi)容又會拖慢AI在科研領(lǐng)域的進步。
于是,一些技術(shù)先鋒、未來主義者和激進派認為,版權(quán)制度本是工業(yè)時代的產(chǎn)物,早已淪為大資本的壟斷工具,不僅未讓普通創(chuàng)作者受益,反而阻礙了技術(shù)普惠,不如徹底廢除,全面開放。

也有人認為,Sora這類AI工具讓許多普通人實現(xiàn)了“導(dǎo)演夢”,帶來了切實的利好,讓更多用戶加入創(chuàng)作行列,也能激發(fā)創(chuàng)新,應(yīng)保障多數(shù)人的福祉。
但問題真的如此簡單嗎?
這其實是典型的“電車困境”,要求大眾在大企業(yè)與少數(shù)創(chuàng)作者、多數(shù)用戶與少數(shù)創(chuàng)作者之間做出非此即彼的選擇,卻忽略了一個事實:今天被無償學(xué)習的視頻創(chuàng)作者,明天可能就是你我。
AI最初學(xué)習的是插畫師、作家、攝影師、音樂制作人等邊緣創(chuàng)作者的作品,文藝界抗議AI侵權(quán);隨后擴展到白領(lǐng)、藝術(shù)家、碼農(nóng)等更廣泛群體,一些高級打工人的技能被AI無償學(xué)習、提煉成“技能模型”,這何嘗不是另一種“風格學(xué)習”?

創(chuàng)作者可以是每一個靠獨特技能謀生的普通人。或許直到AI威脅到自身飯碗,人們才能理解編導(dǎo)、UP主、YouTuber等視頻創(chuàng)作者的憤怒。
版權(quán)制度的核心作用,并非在人類中劃分陣營——保護大企業(yè)還是小個體,也不只關(guān)乎利益分配。它的價值在于承認創(chuàng)作者權(quán)利的合法性。
1710年的《安妮女王法》首次明確作者是作品的版權(quán)所有者,徹底顛覆了以往以印刷商為中心的壟斷體系。三百年來,正是這套制度激勵了無數(shù)個體的創(chuàng)造。如今,我們或許需要改革版權(quán)制度以適配AI的發(fā)展需求,但不能用“版權(quán)資本化”來掩蓋版權(quán)制度對個體權(quán)利的認可。
它就像勞動者權(quán)益保護法,雖然現(xiàn)實中難以嚴格執(zhí)行八小時工作制,但它的存在本身就確立了創(chuàng)作者權(quán)益的正當性。
03 創(chuàng)作者的反擊路徑
面對Sora等AI視頻生成工具對原創(chuàng)內(nèi)容的無償使用,創(chuàng)作者群體開始反擊??傮w而言,制度性力量和行業(yè)巨頭的反擊更有成效,而個體的口頭抵抗大多微弱無力。
能對Sora這類工具產(chǎn)生約束力的,主要是立法部門和內(nèi)容巨頭的雙重施壓。
美國版權(quán)局此前的判例要求,AI生成內(nèi)容必須標注AI標識;若使用特定風格,需自動添加版權(quán)方logo。
針對AI“融?!笔降摹帮L格學(xué)習”,版權(quán)巨頭們采取了強硬的反對措施。好萊塢三大經(jīng)紀公司及迪士尼、華納、環(huán)球等影視巨頭,曾向OpenAI發(fā)出法律警告,要求停止默認使用藝人形象與作品訓(xùn)練Sora。這倒逼OpenAI在推出Sora 2時采用“選擇退出”機制,允許版權(quán)方申請從訓(xùn)練集中刪除其作品。

一些創(chuàng)作者采用技術(shù)手段,在視頻或圖片中嵌入人眼不可見的擾動像素或水印,干擾AI對風格的學(xué)習,也能起到一定作用。
而徹底無效的反擊方式有兩種:一是利益協(xié)商失敗。例如行業(yè)企業(yè)推動的授權(quán)付費+分成制,隨著Sora的下線宣告破產(chǎn)。二是“語言魔法攻擊”,一些導(dǎo)演、攝影師公開聲明“不使用Sora”并呼吁同行抵制,但無法阻擋廣大用戶用AI視頻玩梗,現(xiàn)實中毫無約束力。
只有立法機構(gòu)、行業(yè)巨頭這樣的組織力量,才能與技術(shù)資本抗衡,這就是AI時代人類創(chuàng)作面臨的殘酷現(xiàn)實。我們該如何應(yīng)對?又能做些什么?
04 亟待明確的紅線
人類與AI巨頭的版權(quán)拉鋸戰(zhàn),最終以Sora的主動關(guān)停收尾,但這并非人類的勝利,只是AI巨頭在持續(xù)的版權(quán)訴訟、創(chuàng)作者集體抵制和倫理爭議中,選擇放棄泥潭掙扎、鳴金收兵。
Sora的退場,宛如一則醒世寓言,提醒我們AI發(fā)展仍缺乏明確的紅線。
政治學(xué)家福山曾提出:面對技術(shù)進步,我們必須人為地、甚至武斷地劃定紅線。即使81公里/小時并不比79公里/小時更危險,也必須設(shè)定80公里/小時這道明確的界限。
放到AI領(lǐng)域,這道紅線就是AI發(fā)展的前提——尊重人類的勞動成果與創(chuàng)作主權(quán)。缺乏這道不可逾越的紅線,就會出現(xiàn)模糊地帶,滋生無序與反噬,無法真正獲得社會的接納與認同。提前設(shè)定明確的原則性禁令,禁止AI無償使用和“融梗”人類作品,這道紅線保護的不僅是人類創(chuàng)作者,也是AI技術(shù)開發(fā)者與企業(yè)。來自創(chuàng)作者的抵抗加速了Sora的下線,這何嘗不是OpenAI及其用戶的損失?

福山指出,立法者必須采取行動,設(shè)立相關(guān)規(guī)則與機制,在快速的科技變遷中有所作為。如果立法者不正面承擔這些責任,其他社會機構(gòu)與行為主體將替代他們做出決定。
顯然,這一次是人類創(chuàng)作者做出了決定——抵制AI、抵抗Sora。Sora的下線暫時回避了紅線缺失的矛盾,但市面上仍有眾多AI視頻生成工具,它們將一次次觸碰人們心中的隱形紅線,直到它清晰、明確地寫入版權(quán)法。
那時,人類創(chuàng)作者與AIGC技術(shù)才能真正握手言和。希望這道紅線不會來得太晚。
本文來自微信公眾號 “腦極體”(ID:unity007),作者:藏狐,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



