在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出效率與性能躍階的全新開放模型標(biāo)準(zhǔn)

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2024-09-09 15:43 ? 次閱讀

作者 /Google DeepMind 研究副總裁 Clement Farabet 和Google DeepMind 總監(jiān) Tris Warkentin

AI 有可能解決人類面臨的一些最緊迫的問題,但前提是每個人都擁有構(gòu)建 AI 的工具。這就是我們在今年早些時候推出 Gemma的原因,Gemma 是一系列輕量級開放模型系列,采用了與創(chuàng)建 Gemini 模型相同的研究和技術(shù)。我們還陸續(xù)推出了 CodeGemma、RecurrentGemma 和 PaliGemma,以此不斷發(fā)展我們的 Gemma 系列,上述每個模型都能為不同的 AI 任務(wù)提供獨特的功能,并且可以通過與 Hugging Face、NVIDIA 和 Ollama 等合作伙伴的集成輕松訪問。

現(xiàn)在,我們正式向全球研究人員和開發(fā)者發(fā)布 Gemma 2。Gemma 2 分為 90 億 (9B) 和 270 億 (27B) 兩種參數(shù)版本,與第一代相比,其性能更強、推理效率更高,并且在安全性方面也有顯著提升。事實上,作為一種有競爭力的替代方案,Gemma 2 27B 的性能可以與規(guī)模是其兩倍的模型相媲美,截至去年 12 月,只有專有模型才能達到此性能水準(zhǔn)。如今,這可以在單個 NVIDIA H100 Tensor Core GPU 或 TPU 的主機上實現(xiàn),從而顯著降低了部署成本。

效率與性能躍階的

全新開放模型標(biāo)準(zhǔn)

我們在重新設(shè)計的架構(gòu)上構(gòu)建了 Gemma 2,旨在提供卓越的性能和推理效率。以下是它脫穎而出的原因:

非凡性能:Gemma 2 27B 在同類規(guī)模的模型中性能最優(yōu),甚至比其規(guī)模大兩倍以上的模型更具競爭力。而 Gemma 2 9B 模型也具有一流的性能,優(yōu)于 Llama 3 8B 以及其他相同規(guī)模類別的開放模型。如需了解詳細(xì)性能分析,請查閱技術(shù)報告。

立竿見影的降本增效:Gemma 2 27B 模型旨在助您使用單個 Google Cloud TPU 主機、NVIDIA A100 80GB Tensor Core GPU 或 NVIDIA H100 Tensor Core GPU 以全精度高效運行推理,從而顯著降低成本,同時保持高效性能。這使得 AI 部署更加易于訪問且經(jīng)濟實惠。

跨硬件的極速推理:Gemma 2 經(jīng)過優(yōu)化,可以在一系列硬件上以不可思議的速度運行,包括強大的游戲本電腦、高端臺式機和云端配置等。您可以在 Google AI Studio 中以全精度體驗 Gemma 2,在 CPU 上使用 Gemma.cpp 量化版本解鎖本地性能,或者通過 Hugging Face Transformer 在配備 NVIDIA RTX 或 GeForce RTX 的家用電腦上試用。

wKgZombeqGGAMx_IAAHxD9e82Fk135.png

專為開發(fā)者和研究人員打造

Gemma 2 不僅功能更強大,并且還能夠更輕松地集成到您的工作流程中:

開放且易于訪問:就像最初的 Gemma 模型一樣,Gemma 2 可在我們商業(yè)友好型的 Gemma 許可下使用,支持開發(fā)者和研究人員分享和商業(yè)化他們的創(chuàng)新成果。

廣泛的框架兼容性:由于 Gemma 2 與 Hugging Face Transformer 等主要 AI 框架兼容,并且通過原生 Keras 3.0、vLLM、Gemma.cpp、Llama.cpp 和 Ollama 兼容 JAX、PyTorch 和 TensorFlow,因此您可以輕松地將其與您偏好的工具和工作流一起使用。此外,我們還通過 NVIDIA TensorRT-LLM 優(yōu)化了 Gemma,支持該模型在 NVIDIA 加速基礎(chǔ)架構(gòu)上運行,或作為 NVIDIA NIM 推理微服務(wù)運行,并將很快優(yōu)化支持 NVIDIA NeMo。您現(xiàn)在便可以使用 Keras 和 Hugging Face 進行微調(diào)。我們正在積極努力,以提供更多參數(shù)高效的微調(diào)選項。

輕松部署:從七月開始,Google Cloud 客戶將能夠在 Vertex AI 上輕松部署和管理 Gemma 2。

探索新的 Gemma 手冊,其中包含一系列實用示例和指南,幫助您構(gòu)建自己的應(yīng)用并針對特定任務(wù)微調(diào) Gemma 2 模型。還可了解如何輕松使用您的工具與 Gemma 集成,包括用于如檢索增強生成等常見任務(wù)。

負(fù)責(zé)任的 AI 開發(fā)

我們致力于為開發(fā)者和研究人員提供負(fù)責(zé)任地構(gòu)建和部署 AI 所需的資源,包括使用我們負(fù)責(zé)任的生成式 AI 工具包 (Responsible Generative AI Toolkit)。最近開源的 LLM Comparator 可幫助開發(fā)者和研究人員深入評估語言模型?,F(xiàn)在,您可以使用配套的 Python 庫對您的模型和數(shù)據(jù)進行比較評估,并在應(yīng)用中可視化結(jié)果。此外,我們正在積極致力于為 Gemma 模型開源文本水印技術(shù) SynthID。

在訓(xùn)練 Gemma 2 時,我們遵循穩(wěn)健的內(nèi)部安全流程和過濾預(yù)訓(xùn)練數(shù)據(jù),并根據(jù)一套全面的指標(biāo)開展嚴(yán)格的測試和評估,以識別和減輕潛在的偏見和風(fēng)險。我們在大量的與安全和代表性危害相關(guān)的公共基準(zhǔn)上發(fā)布我們的結(jié)果。

wKgaombeqJqAJUl_AAMZGB9ABWQ735.png

使用 Gemma 構(gòu)建的項目

我們首次推出 Gemma 時獲得了超過 1,000 萬次的下載量,并促成了無數(shù)鼓舞人心的項目。例如,Navarasa 利用 Gemma 創(chuàng)建了一個基于印度語言多樣性的模型。

如今,Gemma 2 將幫助開發(fā)者落地更具雄心的項目,在他們的 AI 創(chuàng)作中釋放全新的性能和潛力。我們將不懈地探索新的架構(gòu),并開發(fā)專門的 Gemma 變體,以應(yīng)對更廣泛的 AI 任務(wù)和挑戰(zhàn)。這包括即將推出的Gemma 2 2.6B 模型,旨在進一步彌合輕量級可訪問性與強大性能之間的差距。您可以參閱技術(shù)報告以詳細(xì)了解。

開始構(gòu)建

Gemma 2 現(xiàn)已在 Google AI Studio 中推出,因此您可以在無需硬件要求的情況下測試 Gemma 2 27B 的全部性能。您還可以從 Kaggle 和 Hugging Face 模型下載 Gemma 2 的模型權(quán)重,Vertex AI Model Garden 中也即將推出。

為了方便研究和開發(fā),您還可通過 Kaggle 或 Colab notebook 免費使用 Gemma 2。首次使用 Google Cloud 的用戶可能有資格獲得 300 美元積分。學(xué)術(shù)研究人員可以通過申請 Gemma 2 學(xué)術(shù)研究計劃 (Gemma 2 Academic Research Program)獲取 Google Cloud 積分,從而加速 Gemma 2 的研究。申請現(xiàn)已開放,截止日期為 8 月 9 日。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1788

    瀏覽量

    58697
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    34405

    瀏覽量

    275655
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3499

    瀏覽量

    50058

原文標(biāo)題:效率與性能提升 | 可供開發(fā)者和研究人員使用的 Gemma 2 現(xiàn)已發(fā)布

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    數(shù)據(jù)標(biāo)注與大模型的雙向賦能:效率性能的躍升

    其自動化能力,反過來推動數(shù)據(jù)標(biāo)注效率實現(xiàn)數(shù)倍增長,開啟人工智能發(fā)展的全新篇章。一、數(shù)據(jù)標(biāo)注大模型性能的基石大模型
    的頭像 發(fā)表于 06-04 17:15 ?500次閱讀
    數(shù)據(jù)標(biāo)注與大<b class='flag-5'>模型</b>的雙向賦能:<b class='flag-5'>效率</b>與<b class='flag-5'>性能</b>的躍升

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)日前,谷歌在 Cloud Next 大會上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwood。據(jù)悉,該芯片預(yù)計于今年晚些時候面向 Google
    的頭像 發(fā)表于 04-12 00:57 ?2143次閱讀

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    版震撼登場,同時在 Gemini App 中推出推理模型 Gemini 2.0 Flash Thinking 實驗版。 此次推出模型各具亮點。性能
    的頭像 發(fā)表于 02-07 15:07 ?652次閱讀

    Traco Power推出全新TXO系列開放式框架AC/DC電源

    在工業(yè)領(lǐng)域,電源設(shè)備的穩(wěn)定性和可靠性至關(guān)重要。Traco Power全新推出的TXO系列開放式框架AC/DC電源,以高效率、強化隔離和多功能性,為成本敏感型工業(yè)應(yīng)用提供了理想的解決方案
    的頭像 發(fā)表于 01-15 16:12 ?977次閱讀
    Traco Power<b class='flag-5'>推出</b><b class='flag-5'>全新</b>TXO系列<b class='flag-5'>開放</b>式框架AC/DC電源

    NVIDIA推出開放式Llama Nemotron系列模型

    作為 NVIDIA NIM 微服務(wù),開放式 Llama Nemotron 大語言模型和 Cosmos Nemotron 視覺語言模型可在任何加速系統(tǒng)上為 AI 智能體提供強效助力。
    的頭像 發(fā)表于 01-09 11:11 ?643次閱讀

    谷歌發(fā)布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名為“深度研究”的新特性,旨在為用戶提供更加全面和深入的復(fù)雜主題探索與報告撰寫輔助。 Gemini 2.0通過高級推理和長上
    的頭像 發(fā)表于 12-12 10:13 ?596次閱讀

    2024年聯(lián)想創(chuàng)新開放日盛大開啟

    近日,以“AI的向新力”為主題的2024年聯(lián)想創(chuàng)新開放日盛大開啟,匯聚行業(yè)客戶、合作伙伴、媒體記者等各界嘉賓,共同解鎖科技未來密碼。為期三天的科技盛宴,不僅將全面展示聯(lián)想在“全棧AI”產(chǎn)品、方案和服務(wù)的最新進展,更創(chuàng)造了一個圍繞創(chuàng)新科技深度交流的開放平臺。
    的頭像 發(fā)表于 12-02 17:19 ?851次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了一個全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?754次閱讀

    谷歌推出Gemini大型語言模型

    夠協(xié)助用戶完成諸如收集研究資料、購買產(chǎn)品或預(yù)訂航班等各種日常任務(wù),從而極大地提升用戶的生活便捷性和效率。通過智能分析用戶的瀏覽行為和需求,該項目將為用戶提供個性化的建議和服務(wù),使用戶能夠更加輕松地完成各種任務(wù)。 此外,知情人士還透露,谷歌計劃在
    的頭像 發(fā)表于 10-29 15:11 ?608次閱讀

    谷歌全新推出開放式視覺語言模型PaliGemma

    這種熱烈的反響非常鼓舞人心,開發(fā)者們打造了一系列多樣的項目,例如用于印度語言的多語言變體 Navarasa,以及設(shè)備端側(cè)動作模型 Octopus v2。開發(fā)者們展示了 Gemma 在打造極具影響力且易于使用的 AI 解決方案方面的巨大潛力。
    的頭像 發(fā)表于 10-15 17:37 ?689次閱讀

    澎峰科技高性能模型推理引擎PerfXLM解析

    模型的高性能推理框架,并受到廣泛關(guān)注。在歷經(jīng)數(shù)月的迭代開發(fā)后,澎峰科技重磅發(fā)布升級版本,推出全新的高性能
    的頭像 發(fā)表于 09-29 10:14 ?1295次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b>推理引擎PerfXLM解析

    智譜AI宣布GLM-4-Flash大模型免費開放

    智譜AI近日宣布了一項重大舉措,其自主研發(fā)的GLM-4-Flash大模型正式向公眾免費開放,用戶可通過智譜AI大模型開放平臺輕松調(diào)用。這款大模型
    的頭像 發(fā)表于 08-28 17:41 ?1142次閱讀

    Google Gemma 2模型的部署和Fine-Tune演示

    Google 近期發(fā)布了最新開放模型 Gemma 2,目前與同等規(guī)模的開放模型相比,取得了明顯的優(yōu)勢,同時在安全可控性上得到了顯著的增強。
    的頭像 發(fā)表于 08-09 17:04 ?1187次閱讀
    Google Gemma 2<b class='flag-5'>模型</b>的部署和Fine-Tune演示

    Meta發(fā)布全新開源大模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標(biāo)志著Meta在AI領(lǐng)域的又一重大突破。Meta創(chuàng)始人馬克·扎克伯格親自站臺,盛贊Llama 3.1為“業(yè)內(nèi)頂尖水準(zhǔn)”的AI模型,并自信地表示它能夠與OpenAI、
    的頭像 發(fā)表于 07-24 18:25 ?1727次閱讀

    谷歌Gemma 2大語言模型升級發(fā)布,性能與安全性雙重飛躍

    近日,谷歌面向全球科研界與開發(fā)者群體隆重推出全新升級的Gemma 2大語言模型,標(biāo)志著人工智能技術(shù)在語言處理領(lǐng)域的又一次重大進步。此次發(fā)布的Gemma 2,以其卓越的
    的頭像 發(fā)表于 07-02 10:20 ?692次閱讀
    主站蜘蛛池模板: 国产69精品久久久久9牛牛 | 视频在线观看免费网址 | 五月婷六月丁香 | 欧美日a | 美女午夜影院 | 欧美高清性色生活 | 狠狠干欧美 | 欧美成人天天综合天天在线 | 男女性高爱潮免费的国产 | 狠狠色噜噜狠狠狠97影音先锋 | 亚洲国产成a人v在线观看 | 种子 在线播放 | 天天爱夜夜做 | 四虎永久在线精品网址 | 2021精品综合久久久久 | 国产精品美女在线观看 | 国产真实乱偷人视频 | 天堂欧美 | 一女被两男吃奶玩乳尖口述 | 日韩在线一区视频 | 欧美freesex| 免费看一级片 | 国产中文字幕一区 | 欧美色爱综合 | 亚洲福利视频一区二区三区 | riav久久中文一区二区 | 天天干天天射天天舔 | 亚洲人成亚洲人成在线观看 | 免费国产成人午夜私人影视 | 天天拍拍天天爽免费视频 | 夜夜操网| 一区二区三区四区视频在线观看 | 欧美3d动漫网站 | 四虎在线最新永久免费播放 | 国产午夜精品理论片久久影视 | 五月六月伊人狠狠丁香网 | 玖玖爱这里只有精品 | 一区二区影视 | 久久香蕉国产线看观看精品yw | 国产精品天天干 | 亚洲第八页|