8月16日,英特爾在Wave Summit 2023深度學習開發者大會上,攜第四代英特爾 至強可擴展處理器、英特爾oneAPI 和英特爾發行版OpenVINO等人工智能全棧軟硬件解決方案,與眾多人工智能專家學者和開發者深入交流,展示了英特爾AI的端到端能力。
同時,英特爾正式宣布與百度聯合發起飛槳+文心大模型硬件生態共創計劃,雙方將共同推進在英特爾硬件上與飛槳+文心大模型的適配。此項計劃將進一步拓展雙方在大模型領域的合作,并構建更加高效、完整的AI生態,助力大模型的落地應用。

以大語言模型為代表的人工智能技術在全球掀起科技和產業創新浪潮,加速產業升級和經濟增長。我們也在積極探索英特爾數據中心GPU 和HabanaGaudi2 在大語言模型領域的合作機會,為AI行業創新提供新動力。
—英特爾中國區互聯網行業總經理 胡凱

飛槳(PaddlePaddle)是百度自主研發的中國首個開源開放、功能豐富的產業級深度學習平臺,是百度“芯片-框架-模型-應用”全棧技術布局的重要組成部分,與芯片層深度適配與融合優化,并高效支撐以文心一言為代表的文心大模型的生產與應用。當前飛槳已凝聚800萬開發者,廣泛服務于金融、能源、制造、交通等領域。而文心大模型是百度產業級知識增強大模型,以“知識增強”為特色,引入知識圖譜,將數據與知識融合,提升了學習效率及可解釋性。
近年來,英特爾與百度飛槳已經進行了長期深入的技術合作,并取得了豐碩成果。從2017年開始,不斷拓展雙方合作的深度和廣度,雙方成立了聯合技術團隊實現英特爾AI加速軟件棧與飛槳的持續集成,從硬件上積極適配全系列英特爾至強可擴展處理器AI產品。在軟件層面,通過英特爾oneAPI 深度神經網絡庫 (英特爾oneDNN )調用英特爾AVX-512、英特爾深度學習加速(英特爾DL Boost )、英特爾高級矩陣擴展AMX(英特爾Advanced Matrix Extensions)等底層加速技術,對百度飛槳中 NLP,CV 等各類別模型和框架進行了深度優化。例如百度ERNIE 3.0輕量化版本ERNIE-Tiny 模型,基于英特爾軟硬件的聯合優化,性能獲得了顯著的提升。
在大模型方面,英特爾計劃推出針對至強可擴展處理器平臺高度優化的大語言模型(LLM)推理加速引擎。該加速引擎兼容 Huggingface 等主流的模型格式,支持OPT,LLAMA,ChatGLM,Falcon 等多種主流大語言模型在FP16/BF16/INT8數據格式上的推理加速,可以充分利用至強可擴展處理器平臺上的底層硬件加速進行加速,同時具有良好的跨節點擴展性,加速英特爾至強可擴展處理器與飛槳+文心大模型的適配,助力AI算力+大模型算法融合發展。
從 2022.1 版本發布開始,英特爾AI推理工具套件英特爾OpenVINO也正式直接支持飛槳模型,大大提升了模型在英特爾異構硬件上的推理性能和可用性。英特爾OpenVINO與百度飛槳圍繞模型構建、優化及部署三個方面的合作不斷深入,不僅幫助開發者減少中間環節,還能夠讓一些大模型在邊緣部署成為可能,優化了整個的邊緣推理和操作流程。目前,英特爾OpenVINO不僅能夠支持飛槳模型在英特爾 CPU 和集成顯卡上部署、在英特爾獨立顯卡上部署,還可以通過一行代碼支持飛槳模型在多張獨立顯卡上部署。英特爾OpenVINO的最新版本也引入對PaddleSlim 量化后模型以及ERNIETiny 模型的直接支持,以實現在英特爾平臺上更優異的性能表現。同時,英特爾OpenVINO與百度飛槳持續在社區生態發力,連續三年參與飛槳黑客馬拉松,眾多PR被合入OpenVINO主代碼,并多次開展各類線上線下研討會、訓練營,與百度飛槳共建AI繁榮生態,為 AI 開發者提供全方位支持。
如今生成式人工智能浪潮迭起,大模型逐漸成為新一輪科技革命和產業變革的重要驅動力量,而超級AI算力+大模型算法是此次變革進程中的基礎和核心。英特爾與飛槳+文心大模型將持續攜手,聚生態之力,共同打造軟硬一體的人工智能大模型平臺,為人工智能尤其是大模型的快速發展和應用落地提供堅實的基礎。
參考資料:
1 測試配置如下:測試配置 1:處理器:雙路英特爾 至強 鉑金 8358P 處理器,主頻 2.6GHz,32 核心 64 線程,睿頻開啟;內存:512GB DRAM(16x32GB DDR4 3200 MT/s [2933 MT/s]);存儲:INTEL_ SSDSC2KG960G8, INTEL_SSDSCKKB480G8;網絡適配器:2x Ethernet Controller 10G X550T;BIOS 版本:06.00.01;操作系統版本:Ubuntu 20.04.4 LTS (Kernel:5.8.0-43-generic);GCC 版本:8.4;英特爾 oneDNN 版本:2.6;工作負載:PaddlePaddle 2.3,Ernie-3.0 optimization for INT8;
-
英特爾
+關注
關注
61文章
10188瀏覽量
174291 -
cpu
+關注
關注
68文章
11063瀏覽量
216478 -
AI大模型
+關注
關注
0文章
370瀏覽量
545
原文標題:AI大模型引發算力變革,英特爾與百度聯合發起飛槳+文心大模型硬件生態共創計劃?,加速大模型開發與落地
文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
百度文心大模型X1 Turbo獲得信通院當前大模型最高評級證書

百度搜索與文心智能體平臺接入DeepSeek及文心大模型深度搜索
模力無限,星河共創:啟明云端與您共赴文心大模型生態大會

百度文心大模型日均調用量超15億
李彥宏宣布:百度文心大模型日調用量超15億
英特爾攜手百度智能云加速AI落地
英特爾與百度共同為AI時代打造高性能基礎設施

評論