在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基因組學(xué)大型語言模型在多項任務(wù)中均展現(xiàn)出卓越的性能和應(yīng)用擴(kuò)展空間

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-01-17 01:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

InstaDeep、慕尼黑工業(yè)大學(xué)(TUM)和 NVIDIA 之間的合作推動了面向基因組學(xué)的多超級計算規(guī)模的基礎(chǔ)模型開發(fā)進(jìn)程。這些模型在大量預(yù)測任務(wù)(例如啟動子和增強(qiáng)子位點預(yù)測)中展示了最先進(jìn)的性能。

f0209c2e-95bd-11ed-bfe3-dac502259ad0.jpg

這一聯(lián)合團(tuán)隊的研究指出,經(jīng)過基因組學(xué)訓(xùn)練的大型語言模型(LLM)可將應(yīng)用擴(kuò)展到大量基因組學(xué)任務(wù)。

該團(tuán)隊使用 NVIDIA 的超級計算機(jī) Cambridge-1 來訓(xùn)練參數(shù)規(guī)模從 500M 到 2.5B 不等的各種大型語言模型(LLM)。這些模型在各種基因組數(shù)據(jù)集上進(jìn)行了訓(xùn)練,以探索模型規(guī)模和數(shù)據(jù)多樣性對下游任務(wù)性能的影響。

分類任務(wù)包括預(yù)測增強(qiáng)子和啟動子序列以及轉(zhuǎn)錄因子結(jié)合位點。這些任務(wù)有助于了解 DNA 如何轉(zhuǎn)錄生成 RNA 和蛋白質(zhì),從而開啟新的臨床應(yīng)用。

研究中明確了 20 項任務(wù)。對于每一項任務(wù),性能都隨著模型規(guī)模和數(shù)據(jù)集多樣性的增加而單調(diào)遞增。參照專門的最新模型基線,在多物種數(shù)據(jù)集上訓(xùn)練的具有最大參數(shù)規(guī)模(2.5B 參數(shù))的大型語言模型在 19 項任務(wù)中的 15 項中取得了同等或更高的性能。

這些結(jié)果是通過利用參數(shù)輕量化微調(diào)實現(xiàn)的。然而,即使依靠從 Transformer 模型各層提取的預(yù)訓(xùn)練嵌入以及簡單的淺層感知器(MLP)或邏輯回歸,也足以在 11 個任務(wù)中實現(xiàn)同等乃至更高的性能。

在每個模型檢查點和每個任務(wù)的所有層上應(yīng)用這種探測策略,訓(xùn)練出了 120 萬個 MLP 模型。該研究對大型語言模型的訓(xùn)練和使用等各方面進(jìn)行了詳細(xì)分析,例如不同層對下游任務(wù)性能的影響。

在固定模型規(guī)模下直接比較序列多樣性,顯示出具有重要意義的性能提升,增加模型規(guī)模也是如此。例如,對于一個 500M 參數(shù)模型,僅在人類參考基因組上訓(xùn)練的性能不如在 1000 基因組數(shù)據(jù)集上訓(xùn)練的性能。

同樣,在 1000 基因組數(shù)據(jù)集上訓(xùn)練的 2.5B 參數(shù)模型的性能優(yōu)于任何 500M 參數(shù)模型。而對于相同的模型,性能會遜于在自定義多物種數(shù)據(jù)集上訓(xùn)練的結(jié)果,即使下游性能是在僅涉及人類基因組的任務(wù)上測量的。

研究人員觀察到,并非所有嵌入都是平等創(chuàng)建的。雖然通常的做法建議使用大型語言模型的最后一層進(jìn)行下游預(yù)測。但耐人尋味的是,中間層產(chǎn)生的表征在下游任務(wù)中顯示出明顯更高的性能。研究人員發(fā)現(xiàn),最佳層的選擇取決于任務(wù),表明不同類型的 DNA 特征被不同層的模型所捕獲。

InstaDeep 首席執(zhí)行官 Karim Beguir 表示:“我們相信這些結(jié)果首次清楚地證明了基因組學(xué)基礎(chǔ)模型的可行性,這些模型能夠真正地推廣到多項任務(wù)中。這些結(jié)果從很多方面反映出了過去幾年內(nèi)適應(yīng)性基礎(chǔ)模型在自然語言處理方面的發(fā)展進(jìn)程。如今,其應(yīng)用于藥物研發(fā)和人類健康等如此具有挑戰(zhàn)性的問題,著實令人難以置信的興奮。”

NVIDIA 的 Cambridge-1 對該項目的成功至關(guān)重要。該項目需要高性能計算基礎(chǔ)設(shè)施來訓(xùn)練具有捕獲基因組中遠(yuǎn)程相互作用所需感受域的大型模型。

研究人員嘗試了多種方法、數(shù)據(jù)集大小、模型規(guī)模和分詞器方案,最終使用在 16 個 NVIDIA DGX A100 節(jié)點(128 個 A100 80GB GPU)上訓(xùn)練的 2.5B 參數(shù)稀疏注意力模型,在多任務(wù)上實現(xiàn)了迄今公開發(fā)表的最佳性能。

在未來的研究工作中,該團(tuán)隊計劃通過直接微調(diào)模型,探索進(jìn)一步的下游任務(wù)性能改進(jìn),并將繼續(xù)在應(yīng)用于基因組學(xué)的大型語言模型的架構(gòu)創(chuàng)新方面展開合作。InstaDeep 是首批使用 Cambridge-1 的 NVIDIA 初創(chuàng)加速計劃成員之一。

掃描下方海報二維碼,即可免費注冊 GTC 23,切莫錯過這場 AI 和元宇宙時代的技術(shù)大會


原文標(biāo)題:基因組學(xué)大型語言模型在多項任務(wù)中均展現(xiàn)出卓越的性能和應(yīng)用擴(kuò)展空間

文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3933

    瀏覽量

    93383

原文標(biāo)題:基因組學(xué)大型語言模型在多項任務(wù)中均展現(xiàn)出卓越的性能和應(yīng)用擴(kuò)展空間

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    中科曙光構(gòu)建全國產(chǎn)化基因組學(xué)性能計算平臺

    近日,中科曙光承建的國內(nèi)某研究所基因組學(xué)性能計算平臺正式交付。這是國內(nèi)生物信息學(xué)領(lǐng)域首個從底層硬件到上層軟件實現(xiàn)完全自主可控,并深度融合高性能計算與人工智能算力的平臺,成功填補(bǔ)了該領(lǐng)
    的頭像 發(fā)表于 06-26 17:36 ?302次閱讀

    小白學(xué)模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的
    的頭像 發(fā)表于 04-30 18:34 ?434次閱讀
    小白<b class='flag-5'>學(xué)</b>大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    小白學(xué)模型:訓(xùn)練大語言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時代,大型語言模型(LLMs)正以其強(qiáng)大的語言理解和生成能力,改變著我們的生活和工作方式。最近的一項研究
    的頭像 發(fā)表于 03-03 11:51 ?682次閱讀
    小白<b class='flag-5'>學(xué)</b>大<b class='flag-5'>模型</b>:訓(xùn)練大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的深度指南

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    的 AI 處理效率,成為部署各類 AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開發(fā)板保持低功耗的同時,展現(xiàn)出強(qiáng)大的運(yùn)算能
    發(fā)表于 02-14 17:42

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    。通過微調(diào),模型可以學(xué)習(xí)特定領(lǐng)域的專業(yè)知識和語言特征,從而在高度專業(yè)化的領(lǐng)域中展現(xiàn)出卓越的表現(xiàn)。微調(diào)過程主要有這幾項內(nèi)容:數(shù)據(jù)清洗:消除噪聲、提高數(shù)據(jù)質(zhì)量。包括處理缺失值(如用特殊符號
    發(fā)表于 01-14 16:51

    NVIDIA 攜手行業(yè)領(lǐng)先機(jī)構(gòu)推動基因組學(xué)、藥物發(fā)現(xiàn)及醫(yī)療健康行業(yè)發(fā)展

    ——NVIDIA 今日宣布新的合作伙伴關(guān)系,旨在通過加速藥物發(fā)現(xiàn)、提升基因組研究,以及利用代理式和生成式 AI 開創(chuàng)先進(jìn)醫(yī)療服務(wù),推動規(guī)模達(dá) 10 萬億美元的醫(yī)療健康與生命科學(xué)產(chǎn)業(yè)的變革。 ? AI、加速計算與生物數(shù)據(jù)的融合,正將醫(yī)療健康產(chǎn)業(yè)轉(zhuǎn)變?yōu)榇笠?guī)模的技術(shù)產(chǎn)業(yè)。醫(yī)療健康領(lǐng)域的領(lǐng)先機(jī)構(gòu)
    發(fā)表于 01-14 13:39 ?275次閱讀
    NVIDIA 攜手行業(yè)領(lǐng)先機(jī)構(gòu)推動<b class='flag-5'>基因組學(xué)</b>、藥物發(fā)現(xiàn)及醫(yī)療健康行業(yè)發(fā)展

    Kimi發(fā)布視覺思考模型k1,展現(xiàn)卓越基礎(chǔ)科學(xué)能力

    色,其能力還成功擴(kuò)展到了物理、化學(xué)等基礎(chǔ)科學(xué)領(lǐng)域。這標(biāo)志著Kimi視覺思考模型的技術(shù)研發(fā)上取得了重大突破,為用戶多個學(xué)科領(lǐng)域提供了強(qiáng)大的支持。
    的頭像 發(fā)表于 12-17 09:59 ?758次閱讀

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學(xué)的研究人員攜手英偉達(dá),共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型機(jī)器人導(dǎo)航領(lǐng)域展現(xiàn)出了獨特的應(yīng)用潛力,為智能機(jī)
    的頭像 發(fā)表于 12-13 10:51 ?641次閱讀

    NVIDIA AI助力日本制藥公司推進(jìn)藥物研發(fā)

    制藥公司、醫(yī)療技術(shù)公司和學(xué)術(shù)研究人員正在開發(fā)主權(quán) AI 能力,以驅(qū)動藥物發(fā)現(xiàn)、加速基因組學(xué)和醫(yī)療設(shè)備。
    的頭像 發(fā)表于 11-19 15:40 ?791次閱讀

    騰訊發(fā)布開源MoE大語言模型Hunyuan-Large

    性能,標(biāo)志著騰訊自然語言處理領(lǐng)域邁出了重要的一步。 據(jù)了解,Hunyuan-Large的總參數(shù)量高達(dá)389B(即3890億),這一數(shù)字遠(yuǎn)超當(dāng)前許多主流的大語言
    的頭像 發(fā)表于 11-06 10:57 ?692次閱讀

    AI大模型自然語言處理的應(yīng)用

    海量的文本數(shù)據(jù),能夠生成結(jié)構(gòu)化、連貫的文本段落。 新聞寫作、創(chuàng)意內(nèi)容生成等場景,AI大模型展現(xiàn)出卓越的效果。例如,GPT系列
    的頭像 發(fā)表于 10-23 14:38 ?1458次閱讀

    NVIDIA Parabricks v4.3.1版本的新功能

    NVIDIA Parabricks 擴(kuò)大了 NVIDIA 利用深度學(xué)習(xí)解決基因組學(xué)挑戰(zhàn)的范圍,持續(xù)推動基因組學(xué)儀器的發(fā)展。NVIDIA Parabricks v4.3.1 歐洲人類遺傳學(xué)
    的頭像 發(fā)表于 09-10 10:22 ?758次閱讀
    NVIDIA Parabricks v4.3.1版本的新功能

    通義千問發(fā)布第二代視覺語言模型Qwen2-VL

    。Qwen2-VL系列模型多模態(tài)處理領(lǐng)域取得了突破性進(jìn)展,于多個權(quán)威測評嶄露頭角,刷新了多項最佳成績記錄,展現(xiàn)出強(qiáng)大的視覺理解與
    的頭像 發(fā)表于 09-03 16:31 ?835次閱讀

    Transformer語言模型簡介與實現(xiàn)過程

    自然語言處理(NLP)領(lǐng)域,Transformer模型以其卓越性能和廣泛的應(yīng)用前景,成為了近年來最引人注目的技術(shù)之一。Transform
    的頭像 發(fā)表于 07-10 11:48 ?2912次閱讀

    中國科技巨頭紛紛展現(xiàn)出對NVIDIA H20芯片的采購意向

    最新來自摩根士丹利的報告指出,NVIDIA專為中國市場定制的H20系列人工智能芯片,正逐漸贏得中國科技巨頭如百度、阿里巴巴、騰訊及字節(jié)跳動等企業(yè)的青睞,這些企業(yè)紛紛展現(xiàn)出對H20系列的采購意向。
    的頭像 發(fā)表于 07-05 14:30 ?1100次閱讀
    主站蜘蛛池模板: 日本成人免费观看 | 国产中文99视频在线观看 | 亚洲黄色激情网 | 在线看片成人 | 黄色毛片免费看 | 看真人一级毛多毛片 | www.色天使 | 97大香伊在人人线色 | 人人干人人澡 | 色五月婷婷成人网 | 亚洲电影一区二区三区 | 久久成人性色生活片 | 插插操操 | 福利一区在线观看 | 成人在线看片 | 国产色秀视频在线观看 | 人人爱人人艹 | 91av免费在线观看 | 毛片天天看| 亚洲欧美日本综合 | 亚洲迅雷 | 99精品国产第一福利网站 | 亚洲aaaa级特黄毛片 | 国产成人经典三级在线观看 | 在线亚洲色图 | 免费看吻胸亲嘴激烈网站 | 35pao强力打造| 你懂的手机在线 | 色婷婷久久久swag精品 | 国产主播一区二区 | 男人j进女人j的一进一出视频 | 久久夜靖品 | 511韩国理论片在线观看 | 又粗又大的机巴好爽欧美 | 2019天天操| 人人精品久久 | 羞羞影院男女午夜爽爽影视 | 天天爽夜夜爽精品免费 | 精品久久成人 | 天堂资源中文官网 | 久久国内 |