9月20日消息,在杭州云棲大會(huì)上,NVIDIA DRIVE Orin系統(tǒng)級(jí)芯片實(shí)現(xiàn)了與阿里云通義千問多模態(tài)大模型Qwen2-VL的深度適配。
阿里云、斑馬智行聯(lián)合NVIDIA英偉達(dá)推出艙駕融合大模型解決方案,基于通義大模型開發(fā)“能聽會(huì)看”的智能座艙助理,讓車內(nèi)人員通過語音交流就能操作座艙內(nèi)的各類應(yīng)用,享受極致豐富的交互體驗(yàn)。
據(jù)悉,通義大模型的智能座艙解決方案,能為座艙配備一位具備感知、思考、決策能力的“智能助理”,它不僅能觀察理解用戶的語音、手勢(shì),還能根據(jù)環(huán)境信息和常識(shí)判斷做出自主決策。乘客無需物理按鍵,只要?jiǎng)觿?dòng)嘴巴,就能讓智能助理完成各種任務(wù)。
這個(gè)解決方案以通義大模型為“大腦”,集成了通義大語言模型Qwen2-7B和通義多模態(tài)模型Qwen2-VL。Qwen2-VL是阿里通義實(shí)驗(yàn)室研發(fā)的新一代視覺語言模型,具備業(yè)界強(qiáng)的圖片識(shí)別能力和視覺智能體能力,在多個(gè)國際權(quán)威測(cè)評(píng)中創(chuàng)下同等尺寸優(yōu)成績。
Qwen2-VL的2B和7B參數(shù)模型因其性能和尺寸的“極致性價(jià)比”,尤其適合汽車等端側(cè)場(chǎng)景。同時(shí),通義實(shí)驗(yàn)室新發(fā)布的Mobile Agent V3首次落地汽車座艙場(chǎng)景,提供座艙屏幕感知、復(fù)雜任務(wù)規(guī)劃以及座艙應(yīng)用 UI的操作決策能力,大大擴(kuò)展座艙智能助理的能力邊界。
本次解決方案基于端云一體架構(gòu),端側(cè)通義大模型經(jīng)NVIDIA 英偉達(dá)自動(dòng)駕駛和座艙芯片NVIDIA DRIVE Orin加速。NVIDIA英偉達(dá)提供了強(qiáng)大的芯片適配技術(shù)支持,通過優(yōu)化GPU 架構(gòu)和驅(qū)動(dòng)軟件,確保充分發(fā)揮大模型的性能潛力。
此外,NVIDIA的模型加速技術(shù)有效降低了大模型在實(shí)時(shí)處理復(fù)雜任務(wù)時(shí)的計(jì)算成本和時(shí)間延遲,為用戶創(chuàng)造了流暢無阻的智能體驗(yàn)。
未來,通義大模型還將采用 NVIDIA DRIVE Thor新一代集中式車載計(jì)算平臺(tái)。
本文鏈接:http://morphism.cn/news42136.html大模型賦能智能座艙!NVIDIA深度適配通義千問大模型