在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出1.6萬億參數(shù)的人工智能語言模型,打破GPT-3記錄

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-18 17:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

古諺道:“熟讀唐詩三百首,不會作詩也會吟。” 這句話放在目前的人工智能語言模型中也非常適用。

此前,OpenAI 的研究人員開發(fā)出 “GPT-3”,這是一個由 1750 億個參數(shù)組成的 AI 語言模型,堪稱有史以來訓(xùn)練過的最大的語言模型,可以進行原始類比、生成配方、甚至完成基本代碼編寫。

如今,這一記錄被打破了。近日,谷歌研究人員開發(fā)出一個新的語言模型,它包含了超過 1.6 萬億個參數(shù),這是迄今為止最大規(guī)模的人工智能語言模型,比之前谷歌開發(fā)的語言模型 T5-XXL 的規(guī)模大了 4 倍。

6735ad0e-584e-11eb-8b86-12bb97331649.png

參數(shù)是機器學(xué)習(xí)算法的關(guān)鍵所在,它們是從歷史訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的模型的一部分。一般而言,在語言領(lǐng)域中參數(shù)的數(shù)量和復(fù)雜度之間的相關(guān)性非常好。這一點類似于 GPU晶體管的數(shù)量,在同樣的制程工藝下,晶體管越多其算力便越強,而語言模型包含的參數(shù)愈多就愈接近人類自然語言。

正如研究人員在一篇論文中指出的那樣,大規(guī)模的訓(xùn)練是通向強大模型的有效途徑,在大數(shù)據(jù)集和參數(shù)計數(shù)的支持下,簡單的體系結(jié)構(gòu)遠遠超過了更復(fù)雜的算法。但是,有效的大規(guī)模培訓(xùn)在計算上非常密集。這就是為什么研究人員熱衷于他們所說的 “開關(guān)變壓器”,這是一種 “稀疏激活” 技術(shù),它只使用模型權(quán)重的一個子集或者在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù)。

“開關(guān)變壓器” 是早在 90 年代初首次提出的一種人工智能模型范例,大體意思是將多個專家或?qū)iT處理不同任務(wù)的模型放在一個更大的模型中,并有一個 “門控網(wǎng)絡(luò)” 來選擇為任何給定數(shù)據(jù)咨詢哪些專家。

在一項實驗中,研究人員使用 32 個 TPU 內(nèi)核對幾個不同的 “開關(guān)變壓器” 模型進行了預(yù)訓(xùn)練,這些 TPU 內(nèi)核位于一個從 Reddit、Wikipedia 和其他網(wǎng)絡(luò)資源中搜集的 750GB 大小的文本數(shù)據(jù)語料庫中,任務(wù)則是讓這些模型預(yù)測段落中 15% 的單詞被遮住的缺失單詞,以及其他挑戰(zhàn),比如檢索文本來回答一系列越來越難的問題。

研究人員稱,包含了 1.6 萬億參數(shù)和 2048 名專家的模型 Switch-C 顯示 “完全沒有訓(xùn)練不穩(wěn)定性”。然而,在桑福德問答數(shù)據(jù)集的基準測試中,Switch-C 的得分居然比僅包含 3950 億個參數(shù)和 64 名專家的模型 Switch-XXL 還要低一點,對此,研究人員認為是因為微調(diào)質(zhì)量、計算要求和參數(shù)數(shù)量之間的不透明關(guān)系所致。

在這種情況下,“開關(guān)變壓器” 導(dǎo)致了一些下游任務(wù)的收益。例如,研究人員稱在使用相同數(shù)量的計算資源的情況下,它可以使訓(xùn)練前的加速速度提高 7 倍以上。他們還證明 “稀疏激活” 技術(shù)可以用來創(chuàng)建更小、更密集的模型,這些模型可以對任務(wù)進行微調(diào),其質(zhì)量增益為大型模型的 30%。

對此他們表示:雖然這項工作主要集中在超大模型上,但我們也發(fā)現(xiàn)只有兩名專家的模型可以提高性能,同時很容易適應(yīng)通用 GPU 或 TPU 的內(nèi)存限制。另外,通過將稀疏模型提取為稠密模型,可以實現(xiàn) 10 到 100 倍的壓縮率,同時獲得專家模型約 30% 的質(zhì)量增益。

在另一個測試中,“開關(guān)變壓器” 模型被訓(xùn)練在 100 多種不同語言之間進行翻譯,研究人員觀察到 101 種語言的 “普遍改善”,91% 的語言受益于比基線模型快 4 倍以上的速度。未來,研究人員還計劃將 “開關(guān)變壓器” 應(yīng)用于新的領(lǐng)域,比如圖像和文本。他們認為,模型稀疏性可以賦予優(yōu)勢,在一系列不同的媒體以及多模態(tài)模型。

美中不足的是,研究人員的工作沒有考慮到這些語言模型在現(xiàn)實世界中的影響,比如模型通常會放大一些公開數(shù)據(jù)中的偏見。對此,OpenAI 公司指出,這可能導(dǎo)致在女性代詞附近放置 “淘氣”;而在 “恐怖主義” 等詞附近放置 “伊斯蘭” 等。根據(jù)米德爾伯里國際研究所的說法,這種偏見可能被惡意行為者利用,通過散布錯誤信息、造謠和謊言來煽動不和。

而路透社也曾報道稱,谷歌的研究人員現(xiàn)在被要求在研究人臉和情緒分析以及種族分類等話題之前,先咨詢法律、政策和公關(guān)團隊,性別或政治派別。

綜上所述,盡管谷歌訓(xùn)練的 1.6 萬億參數(shù)的人工智能語言模型還沒辦法做到真正意義上的人工智能,存在一些不足之處需要完善和優(yōu)化,但隨著在摩爾定律下電子設(shè)備算力的不斷提升,近些年 AI 語言模型參數(shù)量級呈指數(shù)倍發(fā)展,相信在不久的將來,或許真的會出現(xiàn)一個無限接近熟讀人類歷史所有文明記錄的超級模型,能夠和人類完全實現(xiàn)自然語言交流,不妨讓我們好好期待一下吧!

原文標(biāo)題:GPT-3記錄被打破!谷歌推出1.6萬億參數(shù)的人工智能語言模型

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6230

    瀏覽量

    107798
  • 人工智能
    +關(guān)注

    關(guān)注

    1805

    文章

    48871

    瀏覽量

    247671

原文標(biāo)題:GPT-3記錄被打破!谷歌推出1.6萬億參數(shù)的人工智能語言模型

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何借助大語言模型打造人工智能生態(tài)系統(tǒng)

    、硬件需求以及所涉及的財務(wù)影響這三者之間的內(nèi)在聯(lián)系。我們將深入探究現(xiàn)實中大語言模型的發(fā)展趨勢,并共同探討如何借助規(guī)模更小、效能更高的模型,打造一個更具可持續(xù)性的人工智能生態(tài)系統(tǒng)。
    的頭像 發(fā)表于 04-27 09:19 ?500次閱讀
    如何借助大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>打造<b class='flag-5'>人工智能</b>生態(tài)系統(tǒng)

    OpenAI即將推出GPT-5模型

    先進技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù),GPT-5模型將實現(xiàn)更加強大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用
    的頭像 發(fā)表于 02-13 11:21 ?555次閱讀

    人工智能模型年度發(fā)展趨勢報告

    2024年12月的中央經(jīng)濟工作會議明確把開展“人工智能+”行動作為2025年要抓好的重點任務(wù)。當(dāng)前,以大模型為代表的人工智能正快速演進,激發(fā)全球科技之變、產(chǎn)業(yè)之變、時代之變,人工智能發(fā)
    的頭像 發(fā)表于 02-13 10:57 ?732次閱讀
    <b class='flag-5'>人工智能</b>大<b class='flag-5'>模型</b>年度發(fā)展趨勢報告

    嵌入式和人工智能究竟是什么關(guān)系?

    、連接主義和深度學(xué)習(xí)等不同的階段。目前,人工智能已經(jīng)廣泛應(yīng)用于各種領(lǐng)域,如自然語言處理、計算機視覺、智能推薦等。 嵌入式系統(tǒng)和人工智能在許多方面都存在密切的關(guān)聯(lián)性。首先,嵌入式系統(tǒng)可
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,還促進了新理論、新技術(shù)的誕生。 3. 挑戰(zhàn)與機遇并存 盡管人工智能為科學(xué)創(chuàng)新帶來了巨大潛力,但第一章也誠實地討論了伴隨而來的挑戰(zhàn)。數(shù)據(jù)隱私、算法偏見、倫理道德等問題不容忽視。如何在利用AI提升科研效率
    發(fā)表于 10-14 09:12

    英偉達預(yù)測機器人領(lǐng)域或迎“GPT-3時刻”

    未來2-3年內(nèi),機器人基礎(chǔ)模型的研究將迎來重大突破,這一時刻被形象地比喻為機器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-20 17:05 ?1046次閱讀

    Jim Fan展望:機器人領(lǐng)域即將迎來GPT-3式突破

    英偉達科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報道,英偉達高級科學(xué)家Jim Fan在近期預(yù)測,機器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3語言處理領(lǐng)域的革命性突破,他稱之為機器人領(lǐng)域的“GPT-3
    的頭像 發(fā)表于 09-19 15:13 ?899次閱讀

    Kiwi Talks | 傳統(tǒng)以太網(wǎng)、UEC超以太網(wǎng)、超節(jié)點-Ethernet RDMA 打響進階賽

    推進下一代低延遲以太網(wǎng) 今天的人工智能應(yīng)用是由大型語言模型(llm)驅(qū)動的,這些模型是在大量非結(jié)構(gòu)化數(shù)據(jù)上訓(xùn)練的。llm的有效性與訓(xùn)練中使用的參數(shù)
    發(fā)表于 07-30 09:16 ?2850次閱讀
    Kiwi Talks | 傳統(tǒng)以太網(wǎng)、UEC超以太網(wǎng)、超節(jié)點-Ethernet RDMA 打響進階賽

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    今天開始學(xué)習(xí)《大語言模型應(yīng)用指南》第一篇——基礎(chǔ)篇,對于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對于我還是有許多的知識點、專業(yè)術(shù)語比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書中
    發(fā)表于 07-25 14:33

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國際媒體報道,OpenAI 在周四震撼發(fā)布了其最新的人工智能模型——GPT-4o mini,此舉標(biāo)志著這家領(lǐng)先的AI初創(chuàng)公司在拓寬其廣受歡迎的聊天機器人應(yīng)用領(lǐng)域方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:24 ?1468次閱讀

    Python中的人工智能框架與實例

    人工智能(AI)領(lǐng)域,Python因其簡潔的語法、豐富的庫和強大的社區(qū)支持,成為了最受歡迎的編程語言之一。本文將詳細介紹Python中的人工智能框架,并通過具體實例展示如何使用這些框架來實現(xiàn)不同
    的頭像 發(fā)表于 07-15 14:54 ?2539次閱讀

    人工智能模型有哪些

    行為的關(guān)鍵。這些模型基于不同的算法、架構(gòu)和設(shè)計理念,旨在模擬、延伸和擴展人類智能的某些方面。下面,我們將深入探討幾種主流的人工智能模型,涵蓋其基本原理、應(yīng)用領(lǐng)域、發(fā)展現(xiàn)狀及未來趨勢。
    的頭像 發(fā)表于 07-04 17:28 ?1990次閱讀

    人工智能與大模型的關(guān)系與區(qū)別

    在科技日新月異的今天,人工智能(AI)已成為推動社會進步的重要力量。而在人工智能的眾多分支中,大模型(Large Models)作為近年來興起的概念,以其巨大的參數(shù)數(shù)量和強大的計算能力
    的頭像 發(fā)表于 07-04 16:07 ?5397次閱讀

    谷歌Gemma 2大語言模型升級發(fā)布,性能與安全性雙重飛躍

    近日,谷歌面向全球科研界與開發(fā)者群體隆重推出了全新升級的Gemma 2大語言模型,標(biāo)志著人工智能技術(shù)在
    的頭像 發(fā)表于 07-02 10:20 ?713次閱讀

    谷歌發(fā)布新型大語言模型Gemma 2

    人工智能領(lǐng)域,大語言模型一直是研究的熱點。近日,全球科技巨頭谷歌宣布,面向全球研究人員和開發(fā)人員,正式發(fā)布了其最新研發(fā)的大語言
    的頭像 發(fā)表于 06-29 09:48 ?711次閱讀
    主站蜘蛛池模板: 一级一片免费视频播放 | 全免费一级午夜毛片 | 在线视频久久 | 你懂得视频在线 | 久草视频在线免费看 | 末发育娇小性色xxxxx视频 | 色天使在线播放 | 日日拍拍| 很黄很黄叫声床戏免费视频 | 日本动漫天堂 | 天天干天天弄 | 国产午夜视频在线观看 | 四虎影院精品在线观看 | 色视频亚洲 | 女人张腿让男桶免费视频网站 | 国模在线观看 | 免费一日本一级裸片在线观看 | 亚洲狠狠色丁香婷婷综合 | 明星三级国产免费播放 | 黄色高清视频网站 | 特黄色毛片 | 污女网站 | 久久三级网站 | 国产伦精品一区二区三区网站 | 天天操天天搞 | 天堂最新版在线www在线 | 午夜爽爽 | 97超在线| 男男失禁play 把尿bl | 九九视频这里只有精品 | 欧美freesex交| 国产美女被艹 | 九九热在线观看 | 最近最新中文字幕6页 | 黑粗硬大欧美视频 | 李老汉和小花的性生生活 | 夜夜橹橹网站夜夜橹橹 | 欧美性69 | 天天操人人爱 | 成人网18免费下 | 亚洲男人a天堂在线2184 |