近日,AMD在Huggingface平臺上正式推出了自家首款“小語言模型”——AMD-Llama-135m。這款模型以其獨特的推測解碼功能,吸引了業界的廣泛關注。
AMD-Llama-135m模型擁有6700億個token,并采用了Apache 2.0開源許可,為用戶提供了更多的靈活性和自由度。據AMD介紹,該模型主打“推測解碼”能力,這一功能的基本原理是通過使用一個小型草稿模型來生成一組候選token,然后由更大的目標模型對這些候選token進行驗證。這種方法不僅能夠確保生成的token的準確性和可靠性,而且允許每次前向傳遞生成多個token,從而顯著提高了效率。
與傳統的AI模型相比,AMD-Llama-135m在RAM占用方面也有了顯著的優化。由于采用了推測解碼技術,該模型能夠在不影響性能的前提下,減少RAM的占用,實現了更加高效的計算和存儲資源利用。
AMD-Llama-135m的發布,標志著AMD在AI領域邁出了重要的一步。未來,AMD將繼續致力于AI技術的研發和創新,為全球用戶提供更加智能、高效和可靠的解決方案。
-
amd
+關注
關注
25文章
5571瀏覽量
136007 -
AI
+關注
關注
88文章
34471瀏覽量
275909 -
模型
+關注
關注
1文章
3499瀏覽量
50092
發布評論請先 登錄
NVIDIA推出開放式Llama Nemotron系列模型
極空間私有云聯合UnifyDrive亮相CES:發布全球首款大語言模型 AI NAS

Meta重磅發布Llama 3.3 70B:開源AI模型的新里程碑

使用NVIDIA TensorRT提升Llama 3.2性能
AMD發布10億參數開源AI模型OLMo
Llama 3 與開源AI模型的關系
Llama 3 模型與其他AI工具對比
Llama 3 語言模型應用
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

亞馬遜云科技上線Meta Llama 3.2模型
亞馬遜云科技正式上線Meta Llama 3.2模型
英偉達發布AI模型 Llama-3.1-Nemotron-51B AI模型
Meta發布全新開源大模型Llama 3.1
NVIDIA AI Foundry 為全球企業打造自定義 Llama 3.1 生成式 AI 模型

評論