為構(gòu)建生成式AI應(yīng)用提供更多選擇
北京2024年10月10日/美通社/ -- 亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用??蛻粢部梢栽诨贏mazon Trainium和Amazon Inferentia的Amazon Elastic Cloud Compute(Amazon EC2)實(shí)例中部署這些模型。
Llama 3.2系列模型保留了此前的成功經(jīng)驗(yàn),并進(jìn)行了全新升級,提供高度差異化的功能更新,包括支持圖像推理的小型和中型視覺大語言模型,以及針對設(shè)備端優(yōu)化過的輕量級純文本模型。這些新模型旨在提高使用的便捷性和效率,同時(shí)特別注重負(fù)責(zé)任的創(chuàng)新和安全性。此外,針對內(nèi)容安全分類而微調(diào)的Llama Guard 3 Vision模型,現(xiàn)在也已在Amazon SageMaker JumpStart中可用。
Llama 3.2系列模型優(yōu)勢:
Meta推出的首款多模態(tài)視覺模型:Llama 3.211BVision和Llama 3.290BVision
- Llama 3.2系列中最大的模型。
- 支持圖像理解和視覺推理的使用場景。
- 擅長分析視覺數(shù)據(jù),如圖表和圖形,提供更精確的答案和洞察。
- 適用于圖像標(biāo)注、視覺問答、圖像與文本檢索、文檔處理、多模態(tài)聊天機(jī)器人,以及長篇文本生成、多語言翻譯、編程、數(shù)學(xué)和高級推理。
為邊緣和移動設(shè)備量身定制:Llama 3.21B和Llama 3.23B
- 輕量級,純文本模型。
- 既可在云端又可在本地進(jìn)行數(shù)據(jù)處理,響應(yīng)速度極快。
- 非常適合高度個(gè)性化的應(yīng)用,如文本生成與總結(jié)、情感分析、客戶服務(wù)應(yīng)用、文本潤色、多語言知識檢索和移動AI寫作助手。
針對內(nèi)容安全分類進(jìn)行微調(diào):Llama Guard 311BVision
- 僅在Amazon SageMaker JumpStart中可用
- Llama Guard 311BVision可以對大型語言模型的輸入(即提示詞分類)和輸出(即響應(yīng)分類)進(jìn)行內(nèi)容安全保護(hù)
- 專為支持圖像推理場景設(shè)計(jì),提升了對提示詞輸入中的有害多模態(tài)內(nèi)容(文本和圖像)的檢測能力,以及模型輸出的文本內(nèi)容檢測。
Meta表示,Llama 3.2模型已在超過150個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行評估,展現(xiàn)出與領(lǐng)先基礎(chǔ)模型相媲美的競爭力。與Llama 3.1類似,所有Llama 3.2模型均支持128K的上下文長度,并支持涵蓋八種語言的多語言對話使用場景,包括英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。
-
Meta
+關(guān)注
關(guān)注
0文章
303瀏覽量
11798 -
大模型
+關(guān)注
關(guān)注
2文章
3085瀏覽量
3963 -
亞馬遜云科技
+關(guān)注
關(guān)注
0文章
98瀏覽量
233
發(fā)布評論請先 登錄
使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?
無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?
Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

Meta推出Llama 3.3 70B,AI大模型競爭白熱化
用Ollama輕松搞定Llama 3.2 Vision模型本地部署

Meta發(fā)布Llama 3.2量化版模型
扎克伯格:聯(lián)想運(yùn)用Meta Llama大模型打造個(gè)人AI助手AI Now
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

評論