佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報(bào)告》。
推理能力成為大模型性能提升的驅(qū)動(dòng)引擎
2024下半年以來(lái),國(guó)內(nèi)外大模型公司紛紛推出推理模型,通過(guò)以CoT為代表的推理框架,加強(qiáng)大模型對(duì)復(fù)雜任務(wù)處理能力和自主決策能力。
部分大模型公司的推理模型發(fā)布情況
來(lái)源:佐思汽研《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報(bào)告》
推理模型的密集上線,是為了提升大模型在復(fù)雜場(chǎng)景下的應(yīng)對(duì)能力,同時(shí)也為Agent上線奠定基礎(chǔ);具體到汽車行業(yè),汽車大模型推理能力的提升,能夠切實(shí)解決AI應(yīng)用場(chǎng)景下的痛點(diǎn)問(wèn)題,如加強(qiáng)座艙助手對(duì)復(fù)雜語(yǔ)義的意圖識(shí)別和提升自動(dòng)駕駛規(guī)劃決策中的時(shí)空預(yù)測(cè)場(chǎng)景精度。
部分汽車AI應(yīng)用場(chǎng)景下對(duì)大模型推理能力的需求
整理:佐思汽研
2024年,上車的主流大模型推理技術(shù)仍以思維鏈CoT及其變種為主(如思維樹ToT、思維圖GoT、思維森林FoT等),在不同的場(chǎng)景下會(huì)融合生成模型(如擴(kuò)散模型)、知識(shí)圖譜、因果推理模型、累積推理、多模態(tài)推理鏈等技術(shù)。
如吉利提出模塊化思維語(yǔ)言模型(MeTHanol),讓大語(yǔ)言模型合成人類思維并用于監(jiān)督 LLM 的隱藏層,通過(guò)適應(yīng)日常對(duì)話和個(gè)性化提示,生成類似人類的思維行為,增強(qiáng)大語(yǔ)言模型的思維和推理能力,并提升可解釋性。
MeTHanol(含中間思維層的雙層微調(diào)和兩階段推理)與標(biāo)準(zhǔn)SFT技術(shù)的對(duì)比
來(lái)源:吉利
2025年,推理技術(shù)的重點(diǎn)會(huì)向多模態(tài)推理轉(zhuǎn)移,常用的訓(xùn)練技術(shù)包括指令微調(diào)、多模態(tài)上下文學(xué)習(xí)與多模態(tài)思維鏈(M - CoT)等,多通過(guò)多模態(tài)融合對(duì)齊技術(shù)與LLM的推理技術(shù)結(jié)合而成。
部分多模態(tài)推理技術(shù)
整理:佐思汽研
可解釋性成為AI與用戶的信任橋梁
在用戶體會(huì)到AI的“好用”之前,首先需要滿足用戶對(duì)AI的“信任”,所以,2025年,AI系統(tǒng)運(yùn)行的可解釋性成為汽車AI用戶基數(shù)增長(zhǎng)的關(guān)鍵一環(huán),該痛點(diǎn)也可通過(guò)長(zhǎng)思維鏈的展示來(lái)解決。
AI系統(tǒng)的可解釋性可通過(guò)數(shù)據(jù)可解釋性、模型可解釋性和事后可解釋性三個(gè)層面分別實(shí)現(xiàn):
AI可解釋性的三個(gè)層面
來(lái)源:IEEE;整理:佐思汽研
以理想為例,理想 L3 智駕通過(guò) “AI 推理可視化技術(shù)”,可直觀呈現(xiàn)端到端 + VLM 模型的思考過(guò)程,涵蓋從物理世界感知輸入到大模型完成行駛決策輸出的全流程,提升用戶對(duì)智能駕駛系統(tǒng)的信任。
理想L3智駕的可解釋性
來(lái)源:理想
理想的“AI推理可視化技術(shù)”中:
Attention(注意力系統(tǒng))主要負(fù)責(zé)展示車輛感知到的交通和環(huán)境路況信息,能對(duì)實(shí)時(shí)視頻流中的交通參與者進(jìn)行行為評(píng)估,并使用熱力圖展示評(píng)估對(duì)象。
E2E(端到端模型)用于展示行駛軌跡輸出的思考過(guò)程。模型會(huì)思考不同的行駛軌跡,展示 10 個(gè)候選輸出結(jié)果,最終采用概率最大的輸出結(jié)果作為行駛路徑。
VLM(視覺(jué)語(yǔ)言模型)可展示自身的感知、推理和決策過(guò)程,其工作過(guò)程使用對(duì)話形式展示。
同時(shí),理想Agent“理想同學(xué)”也提供可視化的工作流:
“理想同學(xué)”工作流
來(lái)源:理想
同樣通過(guò)長(zhǎng)思維鏈進(jìn)行推理流程拆解的還有各個(gè)推理模型的對(duì)話界面,以DeepSeek R1為例,在與用戶的對(duì)話中,會(huì)先通過(guò)思維鏈展示每一個(gè)節(jié)點(diǎn)的決策,并通過(guò)自然語(yǔ)言進(jìn)行說(shuō)明。
DeepSeek R1長(zhǎng)思維鏈界面
來(lái)源:DeepSeek R1對(duì)話界面
此外,智譜的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持長(zhǎng)思維鏈推理流程展示。
DeepSeek降低大模型上車的門檻,性能提升與降本兼得
推理能力乃至綜合性能的提升,是否意味著需要付出高額成本?從DeepSeek的爆火來(lái)看,并不是。2025年初,主機(jī)廠先后接入DeepSeek,從應(yīng)用詳情來(lái)看,基本上是以提升車載大模型的綜合能力為主。
2025年初,部分主機(jī)廠與DeepSeek合作情況
整理:佐思汽研
事實(shí)上,DeepSeek系列模型推出之前,各大主機(jī)廠已經(jīng)按照自己的節(jié)奏有序推進(jìn)旗下車載AI大模型的開發(fā)與迭代工作。以座艙助手為例,部分主機(jī)廠的方案已經(jīng)初步完成構(gòu)建,并已接入云端大模型供應(yīng)商試運(yùn)行或初步敲定供應(yīng)商,其中不乏阿里云、騰訊云等云服務(wù)廠商以及智譜等大模型公司,2025年初再次接入DeepSeek,看重的包括:
強(qiáng)大的推理性能表現(xiàn),如推理模型R1的性能與OPEN AI 推理模型o1相當(dāng),甚至在數(shù)學(xué)邏輯方面更為突出;
更低的成本,在保證性能的同時(shí),訓(xùn)練與推理成本均保持在同行業(yè)較低水平。
DeepSeek R1與OPEN AI o1模型成本的比較
來(lái)源:公開信息
以上2點(diǎn)優(yōu)勢(shì)均在DeepSeek的技術(shù)創(chuàng)新上有所體現(xiàn):
DeepSeek系列的部分技術(shù)對(duì)大模型性能和成本的影響
整理:佐思汽研
通過(guò)接入DeepSeek,主機(jī)廠在部署智駕和座艙助手時(shí),可以切實(shí)地降低大模型性能硬件采購(gòu)、模型訓(xùn)練與維護(hù)成本,同時(shí)保證性能不下降:
低計(jì)算開銷技術(shù)推動(dòng)高階智駕、智艙平權(quán),意味著低算力車載芯片(如邊緣計(jì)算單元)上也可實(shí)現(xiàn)部署高性能模型,降低對(duì)高成本GPU的依賴;再結(jié)合DualPipe算法、FP8混合精度訓(xùn)練等技術(shù),優(yōu)化算力利用率,從而實(shí)現(xiàn)中低端車型也能部署高階座艙功能、高階智駕系統(tǒng),加速智能座艙的普及。
實(shí)時(shí)性增強(qiáng),在汽車行駛環(huán)境下,智駕系統(tǒng)需實(shí)時(shí)處理大量傳感器數(shù)據(jù),座艙助手需要快速響應(yīng)用戶指令,而車端計(jì)算資源有限。DeepSeek 計(jì)算開銷的降低使傳感器數(shù)據(jù)的處理速度更快,可更高效的利用智駕芯片算力(服務(wù)器端訓(xùn)練階段,DeepSeek實(shí)現(xiàn)了對(duì)英偉達(dá)A100芯片90%的算力利用率),同時(shí)降低延遲(如在高通8650平臺(tái)上,芯片算力同為100TOPS時(shí),使用DeepSeek推理響應(yīng)時(shí)間從20毫秒降至9 - 10毫秒)。在智駕系統(tǒng)中,可確保駕駛決策及時(shí)準(zhǔn)確,提升駕駛安全性和用戶體驗(yàn)。在座艙系統(tǒng)中,支持座艙助手快速響應(yīng)用戶語(yǔ)音指令,實(shí)現(xiàn)流暢人機(jī)交互。
吉利星睿大模型的系統(tǒng)2接入DeepSeek R1
來(lái)源:吉利
-
AI
+關(guān)注
關(guān)注
87文章
31982瀏覽量
270801 -
汽車
+關(guān)注
關(guān)注
13文章
3641瀏覽量
37761 -
大模型
+關(guān)注
關(guān)注
2文章
2697瀏覽量
3309
原文標(biāo)題:AI大模型及汽車應(yīng)用研究:推理、降本和可解釋性
文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇
Qwen大模型助力開發(fā)低成本AI推理方案
小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

AI模型思維鏈功能升級(jí),提升透明度與可信度
阿里云開源推理大模型QwQ
FPGA和ASIC在大模型推理加速中的應(yīng)用

常見(jiàn)AI大模型的比較與選擇指南
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得
【大規(guī)模語(yǔ)言模型:從理論到實(shí)踐】- 閱讀體驗(yàn)
英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM
【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的評(píng)測(cè)
【大語(yǔ)言模型:原理與工程實(shí)踐】核心技術(shù)綜述
【大語(yǔ)言模型:原理與工程實(shí)踐】揭開大語(yǔ)言模型的面紗
Meta發(fā)布SceneScript視覺(jué)模型,高效構(gòu)建室內(nèi)3D模型
AI算法在礦山智能化中的應(yīng)用全解析

評(píng)論