高通AI200與AI250芯片以尖端能效實現(xiàn)更快速、低成本的生成式AI推理。
高通技術公司正式推出新一代面向推理場景優(yōu)化的解決方案 —— AI200與AI250加速卡及機架系統(tǒng),此舉或將重塑數(shù)據(jù)中心AI性能的未來格局。該系列產(chǎn)品標志著高通在向全球企業(yè)提供可擴展、高能效、高性能生成式AI能力的進程中實現(xiàn)重大飛躍?;谄湓谏窠?jīng)處理單元(NPU)領域的技術優(yōu)勢,新平臺以卓越內存容量實現(xiàn)機架級性能。
高通明確表示,其目標是在現(xiàn)代AI基礎設施的關鍵指標 —— 每美元每瓦特性能上實現(xiàn)突破,以提供快速、經(jīng)濟的生成式AI推理解決方案。
規(guī)模化驅動生成式AI
本次發(fā)布的核心產(chǎn)品AI200是專為大規(guī)模語言與多模態(tài)模型工作負載優(yōu)化的機架級AI推理解決方案。每張AI200加速卡支持高達768GB的LPDDR內存,為應對海量AI推理需求提供高度可擴展性與靈活性。通過降低總擁有成本(TCO),高通旨在讓數(shù)據(jù)中心以更低門檻部署生成式AI模型,同時保障卓越能效。
AI250則進一步突破極限,首次采用新型近存計算架構。高通宣稱該架構可提供超過10倍的有效內存帶寬,并顯著降低功耗。這項創(chuàng)新支持分解式AI推理,使硬件在滿足嚴苛性能與成本要求的同時實現(xiàn)更高效利用。兩款機架解決方案均采用直接液冷散熱設計,配備PCIe縱向擴展與以太網(wǎng)橫向擴展接口。160kW的機架級功耗設計,彰顯高通在提供超大規(guī)模級性能時對可持續(xù)性與運營優(yōu)化的雙重關注。
無縫集成設計理念
高通技術公司技術規(guī)劃、邊緣解決方案與數(shù)據(jù)中心業(yè)務高級副總裁杜爾加·馬拉迪表示:“通過AI200與AI250,我們正在重新定義機架級AI推理的邊界。這些創(chuàng)新AI基礎設施解決方案使客戶能夠以前所未有的總擁有成本部署生成式AI,同時滿足現(xiàn)代數(shù)據(jù)中心對靈活性與安全性的需求?!彼a充道,高通豐富的軟件棧與開放生態(tài)支持將幫助開發(fā)者和企業(yè)更輕松地集成、管理及擴展已訓練的AI模型。該平臺支持主流AI框架并提供一鍵模型部署功能,實現(xiàn)“無縫適配與快速創(chuàng)新”。
端到端AI軟件棧
高通的超大規(guī)模級AI軟件棧為硬件提供底層支撐,提供從應用層到系統(tǒng)軟件層的端到端支持。該軟件棧針對主流機器學習框架、生成式AI平臺及推理引擎進行深度優(yōu)化。開發(fā)者可通過高通高效Transformer庫與AI推理套件,直接部署Hugging Face模型。這些工具專為通過即用型應用、智能體與API實現(xiàn)AI業(yè)務化部署而設計。
據(jù)悉,AI200預計將于2026年投入商用,AI250則計劃于2027年跟進。高通表示將保持數(shù)據(jù)中心產(chǎn)品的年度更新節(jié)奏,持續(xù)聚焦AI推理領域的性能提升、能效優(yōu)化與技術革新。此次發(fā)布使高通正式加入快速演進的AI硬件競賽,彰顯其立志成為生成式AI基礎設施時代領導力量的決心。
如果朋友們喜歡,敬請關注“知新了了”!

全部評論 (0)