亚洲av成人无码网天堂,少妇白浆高潮无码免费区,小污女小欲女导航,色欲久久综合亚洲精品蜜桃,亚洲,欧美,日韩,综合

訂閱
糾錯
加入自媒體

高通發(fā)布AI推理芯片,入局數(shù)據(jù)中心

高通這波從手機芯片跨界向 AI 數(shù)據(jù)推理進攻,以功耗和成本優(yōu)勢為利刃,期望撕開英偉達的防線。

10 月 27 日,手機芯片巨頭高通宣布推出 AI200 和 AI250。

兩款芯片既不是手機 SoC,也不是車規(guī)芯片,而是正兒八經(jīng)的數(shù)據(jù)推理大殺器,爭奪英偉達占據(jù)優(yōu)勢的 AI 芯片市場。

消息一出,其股價盤中飆 20%,收盤仍漲 11%。

AI 大模型真正能持續(xù)產(chǎn)生利潤的是推理環(huán)節(jié),也就是 AI 完成問答、生圖、生視頻等實際任務的過程。目前推理市場年增速達 40%,但市場主流英偉達 H100 芯片價格高、耗電量大,還經(jīng)常缺貨。

高通正是瞄準這一市場空檔,將其做手機芯片時 “控制功耗” 的技術(shù)優(yōu)勢遷移到數(shù)據(jù)中心芯片上,提出 “每花費一美元,能多處理 30% token(AI 處理數(shù)據(jù)的基本單位)” 的核心賣點。

參數(shù)上,AI200 搭載 768GB LPDDR 內(nèi)存,內(nèi)存容量是同類產(chǎn)品的約 3 倍,能輕松容納大模型。AI250 采用 “近內(nèi)存計算” 技術(shù),將算力模塊靠近內(nèi)存,使數(shù)據(jù)傳輸帶寬提升 10 倍,同時降低功耗,大幅減少數(shù)據(jù)中心的電費支出。

此外,兩款芯片都支持冷板液冷散熱,單機架可承載 160kW 算力,能有效降低數(shù)據(jù)中心的 PUE(能源使用效率)指標,減少能源浪費。

在軟件適配方面,高通借鑒了安卓系統(tǒng)的打法:支持從 Hugging Face(AI 模型開源平臺)一鍵導入模型,通過 Transformers Library 工具可將模型適配為高通芯片兼容的格式,最快 15 分鐘就能完成部署,實現(xiàn)零修改遷移,降低了云廠商等客戶的使用門檻。

不過需要注意的是,這兩款芯片的上市時間存在 “時間差”:AI200 預計 2026 年推出,AI250 則要等到 2027 年。 這給了英偉達應對時間,其可提前推出 B100、Rubin 等新一代芯片搶占市場。云巨頭會不會用高通報價去壓英偉達?明年硅谷有好戲看了。

沙特的 AI 公司 Humain 已經(jīng)搶先下單,計劃用 AI200 搭建 200 兆瓦的算力中心。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點?帽菊靖寮瑒战(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號