導語:AI的狂飆突進,背后站著“數(shù)據(jù)原罪”的幽靈。
為了訓練大型語言模型,OpenAI、Meta、谷歌、微軟等公司未經(jīng)許可,從互聯(lián)網(wǎng)上收割了數(shù)百萬受版權(quán)保護的作品,在版權(quán)法的灰色地帶中游弋。
如今,OpenAI目前正面臨大量的官司,原告稱該公司訓練數(shù)據(jù)集中的大多數(shù)書籍來自盜版來源和非授權(quán)網(wǎng)站。一旦被判侵權(quán),公司有可能將面臨巨額罰款或重構(gòu)算法的局面。這也導致,如今AI公司越來越不愿意分享AI訓練數(shù)據(jù)的詳細信息。
但一些公開的盜版語料庫已經(jīng)被盯上。
近日,有人發(fā)現(xiàn)一個叫Books3的數(shù)據(jù)集,包含近20萬本書籍,囊括村上春樹、史蒂芬·金等暢銷書作家的著作,這個數(shù)據(jù)集被用在了訓練AI模型上,最近遭到反盜版組織的反復攻擊。
版權(quán)問題這把利刃,正懸在AI公司們的頭上,有搖搖欲墜之勢。
Books3,AI公司的秘密
一直以來,對于AI模型的訓練數(shù)據(jù)并不完全透明。今年,多名美國作家針對OpenAI提起了集體訴訟,指控其使用盜版書籍來訓練其語言模型,侵犯版權(quán)并違反了多項法律。
這些作家主張的證據(jù)很簡單,因為些他們從未同意OpenAI使用他們的作品,然而ChatGPT卻能提供他們作品的準確摘要,這讓他們認為這些信息肯定是從某個地方獲取的。
根據(jù)早期GPT版本的研究論文,其訓練數(shù)據(jù)集有部分來自于“兩個基于互聯(lián)網(wǎng)的書籍語料庫”,它們被簡單地稱為“Books1”和“Books2”,這些數(shù)據(jù)集具體包含哪些作品比較含糊。
Books1似乎是bookcorpus,里面有數(shù)百本書明確聲明“不得以商業(yè)或非商業(yè)目的復制和分發(fā)”。Books2則成為一個謎團,大多人猜測它們來自于“臭名昭著的影子圖書館網(wǎng)站”,如Library Genesis、Z-Library、Sci-Hub和Bibliotik。
其中,Z-Library成立于2008年,是互聯(lián)網(wǎng)最大的盜版電子書庫之一。2022年11月,美國政府起訴兩名運營該網(wǎng)站的俄羅斯公民,這兩人在阿根廷被逮捕。
至于GPT-4的45TB訓練數(shù)據(jù),其中包含什么內(nèi)容的信息更加有限,OpenAI多年來逐漸減少了其訓練數(shù)據(jù)的披露。
盡管目前沒有直接證據(jù)表明OpenAI使用盜版網(wǎng)站來培訓ChatGPT,但一些AI模型此前已經(jīng)明確在盜版書籍上進行了訓練,包括使用“Books3”數(shù)據(jù)集的AI模型。
EleutherAI的Pythia研究論文中提到,Pythia是使用Pile數(shù)據(jù)集進行訓練的,而Pile數(shù)據(jù)集包含多個英語文本集,其中之一就是名為“Books3”的數(shù)據(jù)集。
Books3是用于訓練AI的最著名的盜版書籍庫之一,最初是由AI開發(fā)人員和知名開源AI支持者Shawn Presser于2020年上傳。它包含37 GB的文本,包括196640本純文本格式的書籍,并在盜版網(wǎng)站bibliotik上托管。
“假設你想訓練一個世界級的GPT模型,就像OpenAI一樣。怎么做?你沒有數(shù)據(jù)。現(xiàn)在你可以做到,現(xiàn)在每個人都這樣做。為你呈現(xiàn)‘books3’,又名‘a(chǎn)ll of bibliotik’。”Shawn Presser最早在社交平臺上寫道。
開源AI支持者Shawn Presser于2020年上傳“books3”,圖片來源:X
然而,反盜版組織也在采取行動,代表相關利益群體,試圖限制未經(jīng)授權(quán)的AI訓練數(shù)據(jù)的使用。
這段時間,反盜版組織Rights Alliance向相關站點發(fā)送刪除通知后,相關站點已將Books3數(shù)據(jù)集下線,導致嘗試訪問該數(shù)據(jù)集的用戶會看到404錯誤。
Rights Alliance還聯(lián)系了AI模型托管平臺Hugging Face(該站點托管了Books3下載鏈接)以及EleutherAI。然而,盡管一些鏈接被下架,該數(shù)據(jù)集的副本并未消失,仍然在其他地方出現(xiàn)。
遭到針對后,Shawn Presser繼續(xù)發(fā)布新的下載鏈接,他稱,除非反對者打算讓ChatGPT下線,或者通過訴訟將其告到滅亡,否則,他希望每個人都能夠制作自己的ChatGPT,他還稱自己“很樂意入獄10個月(海盜灣創(chuàng)始人服過的最高刑期),因為我推動了科學進步并賦予了你們復制ChatGPT的能力。”
“復制ChatGPT這樣的模型的唯一方法,是創(chuàng)建像Books3這樣的數(shù)據(jù)集。”Shawn Presser稱:“每個營利性公司都會秘密地這樣做,不會將數(shù)據(jù)集發(fā)布給公眾。”
“沒有Books3,我們就生活在一個只有OpenAI和其他億萬美元公司才能訪問這些書籍的世界中,這意味著你不能制作自己的ChatGPT。沒有人能。只有億萬美元的公司才有資源做到這一點。”
包括Meta在內(nèi)的一些公司曾經(jīng)使用過Books3,另外,Meta、谷歌都使用過的C4訓練數(shù)據(jù)集也被詬病過,現(xiàn)在這些公司對其語言模型中的內(nèi)容更為保密。
Meta的Llama 2增加了40%的數(shù)據(jù),但在其白皮書中,該公司對其最新的 大語言模型使用了什么數(shù)據(jù)更為猶豫,唯一提到的是“一個新的混合的公開可用在線數(shù)據(jù)”。隨著AI和版權(quán)之間的摩擦升溫,公司越來越不愿意分享AI訓練數(shù)據(jù)的詳細信息。
萬名作家聯(lián)名反對
超一萬名作家敦促AI公司停止使用其作品。他們不希望AI模仿其作品并學會寫作,除非科技公司為此付費。
美國的作家協(xié)會已經(jīng)向巨頭們發(fā)了一封公開信,包括OpenAI、谷歌、Meta、Stability AI、IBM和微軟公司的各大CEO,要求他們停止未經(jīng)許可使用他們的作品,或?qū)κ褂米髌愤M行補償。
其中包括《達芬奇密碼》作者丹·布朗、《饑餓游戲》作者蘇珊·柯林斯、《使女的故事》作者瑪格麗特·阿特伍德、《自由》作者喬納森·弗蘭岑等人都簽署了這封公開信,簽署的作家名單長達100多頁。
一萬名作家簽署公開信 ,圖片來源:美國作家協(xié)會
目前,該作家協(xié)會正嘗試先在不提起訴訟的情況下解決爭端,因為“訴訟需要大量的資金,而且需要很長時間。”
但也有一些文學界人士愿意直接在法庭上與科技公司對抗,控訴Meta或OpenAI等使用盜版來訓練他們的AI。此外,文學經(jīng)紀人們正在與出版商商討,要更新出版合同條款,禁止未經(jīng)授權(quán)的AI訓練用途,大部分出版商都愿意限制AI使用他們的出版物。
根據(jù)美國作家協(xié)會的調(diào)查,90%的作家認為,作家應該獲得對其作品用于訓練生成式人工智能的補償,65%的作家支持建立一個集體授權(quán)制度,以補償作者的作品被用于訓練生成式AI。
此外,69%的作家認為他們的職業(yè)受到生成式AI的威脅,70%的作家認為出版商將開始使用AI來完全或部分生成書籍,取代人類作者。
除了發(fā)公開信、打官司、完善合同,出版業(yè)還在進一步尋求立法。
美國作家協(xié)會的人正在游說制定相關法律、法規(guī)和政策:在同意方面,要求在生成式人工智能中使用作家作品時獲得許可;在補償方面,為那些希望允許其作品用于生成式人工智能培訓的作家提供補償;在透明度方面,要求人工智能開發(fā)者透明披露他們用于培訓其人工智能的作品。
他們也期望,生成式AI的輸出使用到作家的作品時,要獲得許可并建立相應的補償機制,或者當在提示中使用作家的姓名、身份或作品標題時,也應獲得許可。此外,他們要求作者、出版商、平臺和市場標明AI生成的作品,并在作品很大一部分(例如超過10-20%)由AI生成時進行標識。
“我們需要確保人類創(chuàng)作者得到補償,這不僅是為了創(chuàng)作者本身,而是為了確保我們的書籍和藝術(shù)繼續(xù)反映出我們的真實和想象的經(jīng)驗,開拓我們的思維方式,教導我們新的思維方式,并推動我們社會的發(fā)展,而不是重復舊觀念。”該作家協(xié)會在官方聲明中稱。
NYT VS OpenAI
除了作家和藝術(shù)家,其他類型的內(nèi)容創(chuàng)作者,也紛紛加入起訴 AI 公司的行列,一些新聞機構(gòu)批評科技公司未經(jīng)授權(quán)或補償就使用他們的內(nèi)容。
比如,紐約時報正在考慮對OpenAI提起訴訟,稱OpenAI的ChatGPT使用了該報的數(shù)據(jù)進行訓練,而未經(jīng)紐約時報許可。在過去的幾個月里,OpenAI和紐約時報一直在試圖達成一項有關紐約時報內(nèi)容的許可協(xié)議。但談判還未有結(jié)果,存在破裂的可能。
在最近對其服務條款政策的更改中,紐約時報明確禁止將其龐大的媒體檔案用于訓練“任何軟件程序,包括但不限于訓練機器學習或人工智能(AI)系統(tǒng)”的目的。該政策適用于紐約時報的文本內(nèi)容、照片、視頻和元數(shù)據(jù),并明確禁止網(wǎng)絡爬蟲訪問這些數(shù)據(jù)來訓練專有產(chǎn)品。
這里做一個假設,如果法院判定OpenAI等AI公司的訓練行為屬于侵權(quán),OpenAI可能會被迫停止使用受版權(quán)保護的數(shù)據(jù),并在不使用受版權(quán)保護的數(shù)據(jù)的前提下,重新構(gòu)建其算法,這會引發(fā)多大的麻煩?
科技公司也試圖與新聞媒體建立關系。谷歌曾試圖爭取像紐約時報、華盛頓郵報等新聞機構(gòu)的支持,試圖向他們推銷AI工具。還有AI公司向新聞非營利機構(gòu)提供微薄的慈善捐款。
期間,也有新聞機構(gòu)不那么強硬。美聯(lián)社今年就與OpenAI達成了一項為期兩年的許可協(xié)議,同意將美聯(lián)社的內(nèi)容授權(quán)給OpenAI使用訓練。作為回報,OpenAI提供了美聯(lián)社訪問“OpenAI的技術(shù)和產(chǎn)品專業(yè)知識”的權(quán)利。
懸在AI公司頭上的“達摩克利斯之劍”
AI公司抓取海量互聯(lián)網(wǎng)數(shù)據(jù),已經(jīng)導致法律問題的出現(xiàn),起訴AI公司的人正在變得越來越多。
今年,美國一律所相繼對OpenAI、Meta等巨頭提起訴訟,指控他們未經(jīng)同意、未經(jīng)授權(quán)或未經(jīng)補償?shù)卣加贸汕先f名作家的作品,來訓練他們的大語言模型。行業(yè)預計訴訟規(guī)模將很龐大,因為其他內(nèi)容創(chuàng)作者也有可能受此啟發(fā)采取法律行動。
其他生成AI公司,如AI圖像生成工具Stable Diffusion背后的Stability AI,也惹上版權(quán)官司。Stable Diffusion是在LAION-5B數(shù)據(jù)集上進行訓練的,數(shù)據(jù)集包含58.5億個圖像文本對,大多數(shù)都受版權(quán)保護。Getty Images正在起訴Stability AI,指控其未經(jīng)授權(quán)在超過1200萬張Getty Images上訓練AI圖像生成模型。
許多藝術(shù)家和利益相關者也表示不滿,對Stability AI、DeviantArt和Midjourney等公司提起訴訟,指控他們侵犯版權(quán)、侵犯肖像權(quán)、不正當競爭和不正當獲利,尋求賠償和禁令。
微軟推出的編程工具Copilot也面臨集體訴訟。Copilot是GitHub與OpenAI合作開發(fā)的基于人工智能的自動編程產(chǎn)品,主要利用GitHub上的公共代碼庫,在數(shù)十億行公開可用的代碼上進行了訓練,能通過簡單提示替用戶編寫代碼。開源程序員和律師指控他們從事開源軟件盜版,被告包括GitHub、微軟及其人工智能技術(shù)合作伙伴OpenAI。
如果要打官司,AI公司可能會援引所謂的“公平使用原則”來為其辯護,該原則允許在某些情況下無需許可即可使用作品,包括教學、批評、研究和新聞報道。問題是,AI訓練是否適用“公平使用原則”。
幾年前,美國作家協(xié)會也曾起訴谷歌,理由是谷歌未購買其圖書館項目中收錄的書籍,當時,聯(lián)邦上訴法院判決認為,谷歌為其圖書館項目掃描了數(shù)百萬本書的數(shù)字副本是合法的“公平使用”,而非侵犯版權(quán)。關鍵在于,谷歌的數(shù)字圖書館并沒有為這些書創(chuàng)造出“重大市場替代品”,這意味著它與原作并無競爭關系。
目前,各國政府正努力將生成式AI納入立法范疇。歐盟也在制定一項AI法案,該法案將迫使公司將訓練模型信息透明化。上半年,美國作家協(xié)會已兩次訪問國會山,討論生成式AI和作家保護措施的問題,涉及的問題包括集體授權(quán)和版權(quán)保護、反壟斷豁免權(quán)以及AI標簽和透明度要求。
“除非國會采取干預措施,以確保生成式人工智能技術(shù)的開發(fā)和使用受到監(jiān)管,否則驅(qū)動原創(chuàng)表達并豐富我們文化交流的重要版權(quán)激勵將變得毫無意義。”該作家協(xié)會在官方聲明中稱。
從現(xiàn)有輿論看,雖然一些人擔心訓練AI可能會引發(fā)版權(quán)問題,但也有人認為,OpenAI等AI公司不需要特別的許可協(xié)議來訓練模型,版權(quán)擔憂不利于AI發(fā)展進步;有人則認為,取得作者的同意是至關重要的,創(chuàng)作者應該有拒絕的權(quán)利,或者,AI公司至少應該購買訓練數(shù)據(jù)的書籍。
技術(shù)正在做人類歷史上從未發(fā)生過的事情,AI訓練數(shù)據(jù)方面的開源精神應該有底線嗎?未來的法律是掣肘還是保護?如何平衡AI的發(fā)展與尊重人類創(chuàng)作權(quán)益,可能是和“通用人工智能何時到來”同樣重要的問題。
-
人工智能
+關注
關注
1796文章
47867瀏覽量
240746 -
模型
+關注
關注
1文章
3372瀏覽量
49298 -
數(shù)據(jù)集
+關注
關注
4文章
1210瀏覽量
24860
原文標題:學習村上春樹、史蒂芬·金盜版書,AI巨頭的數(shù)據(jù)訓練能否被信任?
文章出處:【微信號:alpworks,微信公眾號:阿爾法工場研究院】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關推薦
GPU是如何訓練AI大模型的
AI大模型的訓練數(shù)據(jù)來源分析
AI大模型與深度學習的關系
如何訓練自己的AI大模型
《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術(shù)支撐學習心得
AI訓練的基本步驟
平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平
預訓練和遷移學習的區(qū)別和聯(lián)系
巴西禁止Meta使用用戶數(shù)據(jù)訓練AI
PyTorch如何訓練自己的數(shù)據(jù)集
深度學習模型訓練過程詳解
定制化、精細化、場景化AI訓練數(shù)據(jù)趨于基礎數(shù)據(jù)服務市場主流
![定制化、精細化、場景化<b class='flag-5'>AI</b><b class='flag-5'>訓練</b><b class='flag-5'>數(shù)據(jù)</b>趨于基礎<b class='flag-5'>數(shù)據(jù)</b>服務市場主流](https://file1.elecfans.com/web2/M00/E6/CD/wKgaomZFbauAGHl1AAAzh3hGv1M833.png)
AI推理,和訓練有什么不同?
![<b class='flag-5'>AI</b>推理,和<b class='flag-5'>訓練</b>有什么不同?](https://file.elecfans.com/web2/M00/43/7B/pYYBAGJ-B6aAHuNPAAAf8J1Ebk4778.jpg)
AI訓練,為什么需要GPU?
![<b class='flag-5'>AI</b><b class='flag-5'>訓練</b>,為什么需要GPU?](https://file.elecfans.com/web2/M00/43/7B/pYYBAGJ-B6aAHuNPAAAf8J1Ebk4778.jpg)
評論