hao86下載站:值得大家信賴的游戲下載站!

首頁 > 區(qū)塊鏈 > 為爭奪這個2.8萬億的市場,美國芯片巨頭們展開新競賽

為爭奪這個2.8萬億的市場,美國芯片巨頭們展開新競賽

時間:2024-01-02 12:17:04
來源:hao86下載
區(qū)塊鏈

【#區(qū)塊鏈# #為爭奪這個2.8萬億的市場,美國芯片巨頭們展開新競賽#】

文章來源:鈦媒體

作者:林志佳

編輯:馬金男

未來4000億美元規(guī)模的AI加速計算市場中,其中至少2000億美元將專用于AI推理計算的場景。因此,AI推理對于大模型發(fā)展起到非常關(guān)鍵的作用。

圖片來源:由無界 AI生成

隨著生成式 AI 技術(shù)加速演進(jìn),算力需求急劇增長,將促使2.8萬億元 AI 加速芯片市場迎來一場新競賽。

近日,芯片巨頭英特爾(Intel)發(fā)布基于Intel 7(10nm)制程的全新第五代英特爾至強(qiáng)可擴(kuò)展CPU(中央處理器)芯片Emerald Rapids,平均性能比上代提升21%,可微調(diào)最高200億參數(shù) AI 大模型,主要用于云數(shù)據(jù)中心和 AI 推理等場景。

除了英特爾,近期英偉達(dá)、AMD也在發(fā)布了多款數(shù)據(jù)中心GPU(圖形處理器)、CPU產(chǎn)品,以應(yīng)對新一輪 AI 熱潮下算力暴增需求。其中,英偉達(dá)于11月發(fā)布H200 GPU芯片,大模型推理速度比H100提高近2倍;AMD則發(fā)布Instinct MI300X AI芯片,稱MI300X在多項(xiàng)測試中均優(yōu)于英偉達(dá)H100,運(yùn)行8卡時AI性能提升60%。

然而近期,英偉達(dá)團(tuán)隊炮轟AMD,稱其沒有用開源TensorRT-LLM大模型優(yōu)化軟件,如果用的話芯片速度會提高2倍多,但H100仍比MI300X快47%;對此,AMD“回懟”稱,即便用了英偉達(dá)軟件,MI300X也比H100快30%;英特爾CEO基辛格(Pat Gelsinger)也公開稱,英偉達(dá)CUDA軟件護(hù)城河“太淺”,其在AI領(lǐng)域的成功純屬偶然、非常幸運(yùn)。

如今,面對 AI 加速計算的巨大需求,美國芯片巨頭們正悄然展開著一場爭奪大戰(zhàn)。

英特爾數(shù)據(jù)中心與人工智能集團(tuán)兼副總裁兼中國區(qū)總經(jīng)理陳葆立對鈦媒體App等表示,“AI 芯片用于大模型推理還處于早期階段,在當(dāng)前一些加速芯片非常短缺的情況下,我們給了很多用戶另外一個選擇。我們非??春脭?shù)據(jù)中心市場的蓬勃發(fā)展。2023年一些智算算力的需求是遠(yuǎn)遠(yuǎn)大于供給的,這個情況會延續(xù)到明年。”

據(jù)統(tǒng)計,預(yù)計到2027年,基于 AI 需求帶動,全球數(shù)據(jù)中心加速芯片市場規(guī)模將達(dá)到2.8萬億元。

截至2023年12月29日美股收盤,英特爾(NASDAQ: INTC)股價報收50.25美元/股。

過去12個月內(nèi),英特爾股價累計漲幅達(dá)87.99%;英偉達(dá)(NASDAQ: NVDA)、AMD公司(NASDAQ: AMD)累計漲幅分別為245.94%、130.26%。


超2000億美金將投向AI芯片推理,AIGC或無需昂貴的GPU


過去一年,以ChatGPT為代表的生成式 AI 技術(shù),推動了 AI 相關(guān)算力需求將不斷增長,并且可能成為 AI 芯片未來幾年內(nèi)非常重要的需求賽道。

據(jù)艾瑞咨詢報告顯示,2023年,AI 大模型相關(guān)行業(yè)需求占中國智能算力總需求的58.8%,接近60%,是智能算力的最大需求方。阿里、騰訊、百度等中國科技巨頭對GPU芯片需求強(qiáng)烈,英偉達(dá)也因此成為中國 AI 大模型領(lǐng)域關(guān)鍵“軍火商”。

另據(jù)世界半導(dǎo)體貿(mào)易統(tǒng)計協(xié)會(WSTS)預(yù)估,2024年,受益于 AI 芯片需求持續(xù)增長,全球半導(dǎo)體市場規(guī)模預(yù)計將達(dá)到5883.6億美元(接近6000億美元,約合4.16萬億元),同比增長13.1%。

阿里云創(chuàng)始人王堅曾預(yù)測,未來云計算的算力都將會被這些在智能時代的電動機(jī)、所謂的大模型給消耗掉。

實(shí)際上,在生成式 AI(AIGC)時代下,算力正成為核心生產(chǎn)力。

數(shù)據(jù)顯示,2023年,全球 AI 加速計算市場規(guī)模將達(dá)450億美元。預(yù)計到2027年,全球數(shù)據(jù)中心AI加速芯片市場規(guī)模將達(dá)到4000億美元(約合人民幣2.8萬億元),五年的年復(fù)合增長率(CAGR)高達(dá)70%。

具體到案例中,生成式 AI 對算力的具體需求主要體現(xiàn)在搜索、辦公、計算機(jī)和游戲等核心場景中。

然而,在智能算力中心(服務(wù)器)環(huán)境下,AIGC不止需要GPU進(jìn)行訓(xùn)練,尤其隨著Llama 2這種超大參數(shù)規(guī)模的開源模型廣泛使用,未來大模型不一定需要重復(fù)性數(shù)據(jù)訓(xùn)練。因此,大模型更大的算力工作負(fù)載或與 AI 推理計算有關(guān),所以無論是CPU,還是GPU、APU、IPU加速卡,都將會發(fā)揮更大作用。

字節(jié)跳動旗下的火山引擎IAAS產(chǎn)品負(fù)責(zé)人李越淵向鈦媒體App介紹,“從CPU角度來說,在AI模型訓(xùn)練前,需要快速處理“臟數(shù)據(jù)”,變成為模型所用的高效數(shù)據(jù),這就要求高計算能力加持。同時,模型訓(xùn)練涉及多種數(shù)據(jù)類型和多模態(tài)能力,那么對CPU的能力、內(nèi)存和帶寬提出了高要求。另外,隨著模型增大,芯片間的互聯(lián)互通能力也變得關(guān)鍵?!?/p>

據(jù)AMD首席執(zhí)行官蘇姿豐(Lisa Su)預(yù)估,未來價值4000億美元規(guī)模的AI加速計算市場中,其中超過一半的份額,即至少2000億美元將被專門用于 AI 推理計算場景的應(yīng)用。這凸顯了AI 推理在整個AI加速計算市場中的重要地位,以及 AI 推理計算在大模型發(fā)展中的關(guān)鍵作用。

12月14日,英特爾發(fā)布了第五代至強(qiáng)可擴(kuò)展處理器系列,在性能和能效方面都有重要提升,重點(diǎn)強(qiáng)調(diào)在AI大模型推理方面的性能表現(xiàn),內(nèi)置英特爾AMX(加速器),無需添加獨(dú)立加速器即可為AI加速,包括對參數(shù)量多達(dá)200億的模型進(jìn)行推理和調(diào)優(yōu),并將其模型推理性能提高42%。

英特爾表示,與上一代至強(qiáng)產(chǎn)品相比,在相同的熱設(shè)計功率范圍內(nèi),全新第五代英特爾至強(qiáng)處理器平均性能提升21%,并在一系列工作負(fù)載中將每瓦性能提升高達(dá)36%。對于遵循典型的五年更新周期的客戶來說,總體成本最多可降低77%。IBM表示,相比此前測試數(shù)據(jù),第五代至強(qiáng)處理器在其watsonx.data平臺上的網(wǎng)絡(luò)查詢吞吐量提高2.7倍。

英特爾數(shù)據(jù)中心與人工智能集團(tuán)副總裁兼中國區(qū)總經(jīng)理陳葆立

陳葆立對鈦媒體App表示,“近一、兩年,英特爾一直在以穩(wěn)健的執(zhí)行力推動產(chǎn)品路線圖發(fā)展,并按四年五個節(jié)點(diǎn)的節(jié)奏如期推進(jìn)。至強(qiáng)更新速度越來越快,其實(shí)也是響應(yīng)了客戶對于算力需求。”

陳葆立指出,英特爾與中國企業(yè)合作非常緊密。例如,美團(tuán)采用英特爾第四代至強(qiáng)可擴(kuò)展處理器支持目標(biāo)識別、計算機(jī)視覺等 AI 推理工作負(fù)載;京東云則利用第五代至強(qiáng)處理器,使整機(jī)性能比上一代提升123%,Llama 2模型推理性能提升151%。

據(jù)悉,英特爾即將首次采用了“雙核并進(jìn)”的路線圖設(shè)計,明年將推出基于Intel 3(3nm)制程的性能核和能效核處理器,對應(yīng)著下一代至強(qiáng)Granite Rapids和全新能效核至強(qiáng)處理器Sierra Forest,以滿足不同數(shù)據(jù)中心需求。

阿里云服務(wù)器研發(fā)事業(yè)部高級總監(jiān)王偉表示,由于大模型是顯存帶寬密集型和顯存容量密集型的,因此基于第五代至強(qiáng)可擴(kuò)展處理器,增加了內(nèi)存帶寬,在某種意義上來講,是有利于未來通過CPU來做生成式AI推理應(yīng)用的?!澳壳?,我們發(fā)現(xiàn)CPU可以輕松運(yùn)行各種生成式 AI 模型,如Stable Diffusion、通義千問7B/14B/72B等,均可以在阿里云第八代ECS實(shí)例上進(jìn)行推理運(yùn)行?!?/p>

在陳葆立看來,AI 已經(jīng)是當(dāng)今生活不可或缺的一部分,AI 無處不在,因此對于英特爾的 AI 芯片和解決方案需求在不斷增加,而非只有GPU才能做到。

“很多企業(yè)目前采用最新的至強(qiáng)處理器已經(jīng)可以處理許多工作。當(dāng)然,一些想要訓(xùn)練模型的公司需要加速卡,不管是來自英特爾還是友商,這確實(shí)是用戶需求,但我并不認(rèn)為所有公司都有這個需要,這超過了目前市場的實(shí)際需求。”陳葆立表示,“我們非常看好數(shù)據(jù)中心市場的蓬勃發(fā)展。因?yàn)椴还苁荂PU、GPU還是IPU,過去幾年每年都有不同火的點(diǎn),但數(shù)據(jù)中心整體算力需求始終在增加,需要去解決不同的問題。”

陳葆立對鈦媒體App表示,他相信2024年,可能將會有更多 AI 大模型或AIGC應(yīng)用落地,會有更多應(yīng)用于創(chuàng)新,也會反哺到企業(yè)端。

“英特爾的策略是,憑借全棧的產(chǎn)品和解決方案,我們可以給客戶在不同的場景,不同的需求下,提供不同的解決方案,包括端、云、邊緣側(cè)等?!标愝崃?qiáng)調(diào),長遠(yuǎn)來看,未來更多 AI 應(yīng)用或?qū)⒉捎肅PU芯片進(jìn)行推理計算。


算力競爭加速,芯片巨頭攻“生態(tài)”


AI 大模型引發(fā)算力需求增長,同時也帶來更大的競爭,尤其是英特爾這些芯片巨頭的競爭對手、客戶、下游供應(yīng)商等企業(yè)都在自研服務(wù)器芯片。

12月7日,谷歌發(fā)布迄今為止功能最強(qiáng)大、最通用的多模態(tài) AI 大模型Gemini 1.0(中文稱“雙子座”)系列。在30項(xiàng)性能基準(zhǔn)測試中,超大杯Gemini Ultra超越了目前最強(qiáng)模型GPT-4,甚至在MMLU測試上得分高達(dá)90.0%,成為第一個超越人類專家水平的 AI 模型。

但谷歌表示,Gemini 1.0 并非用英偉達(dá)A100或者是AMD等產(chǎn)品進(jìn)行訓(xùn)練,而是用自研設(shè)計的TPUs v4 和 v5e芯片上進(jìn)行大規(guī)模 AI 訓(xùn)練推理的,稱因此Gemini的運(yùn)行速度明顯快于早期規(guī)模更小、性能更弱的模型。

更早之前,微軟也公布用于數(shù)據(jù)中心的兩款自研芯片,一是專門用于云端訓(xùn)練和推理的AI芯片(ASIC)Microsoft Azure Maia 100;二是微軟自研的首款CPU(中央處理器)Microsoft Azure Cobalt 100。

此外,亞馬遜、阿里、騰訊、字節(jié)跳動等多家國內(nèi)外科技公司都開始自研芯片,用于自家的數(shù)據(jù)中心或云計算服務(wù)當(dāng)中。而加上目前芯片限制的影響,中國市場的競爭就更加復(fù)雜。

談及市場競爭,陳葆立向鈦媒體App坦言,英特爾非常歡迎有很多的競爭對手來參與到整個市場中,同時英特爾對于市場競爭力非常有信心。

“首先,國內(nèi)對于算力的政策支持,如算力網(wǎng)絡(luò)和‘東數(shù)西算’等,顯示出算力領(lǐng)域受到重視,這是個積極的信號;其次,全球AI技術(shù)的迅猛發(fā)展帶來了新的機(jī)遇,AI 的爆發(fā)推動了對新算法、新算力和新硬件的需求增長?;貧w本質(zhì),英特爾非常歡迎有很多的競爭對手來參與到整個市場中,這說明市場好。但同時,我們對自身還是有信心的。
英特爾在這個環(huán)境中持續(xù)推進(jìn),首先是在先進(jìn)制程技術(shù)方面的領(lǐng)導(dǎo)地位,例如正在推進(jìn)的Intel 4和Intel 3制程。同時,英特爾的封裝技術(shù),如EMIB(嵌入式多芯片互連橋接),也在市場中占據(jù)了重要位置。此外,英特爾還開放工廠合作。因此,我們有信心能夠在這里做出最好的產(chǎn)品。
最重要的是,英特爾強(qiáng)調(diào)以客戶為中心,通過與客戶如阿里、字節(jié)的緊密溝通,早期溝通、識別并修正產(chǎn)品問題,確保滿足客戶的最終需求。我們也希望,我們承諾做出來的東西能夠滿足客戶最終的需求,以客戶為優(yōu)先擁抱市場這個理念,也是我們多年來的優(yōu)勢。綜合以上,我們(對于市場競爭)還是很有信心的?!标愝崃⒈硎尽?/blockquote>

在他看來,AI 算力需求不是只有一、兩家是“贏家”,而是整個 AI 芯片、計算相關(guān)產(chǎn)業(yè)都會因?yàn)檫@場 AI 浪場而受益。競爭遠(yuǎn)未結(jié)束。

有行業(yè)人士日前向鈦媒體App表示,目前整個 AI 大模型訓(xùn)練推理算力的挑戰(zhàn)在于軟件生態(tài),無論是CUDA軟件,還是NVLink多卡互聯(lián),均是2023年英偉達(dá)獲得巨大成功的關(guān)鍵要素。因此,如何讓英特爾、AMD和更多廠商,在短期內(nèi)形成CUDA或是英偉達(dá) AI 生態(tài),才是最為關(guān)鍵的因素。

作為老牌芯片巨頭,英特爾花了很長的時間做了OpenVINO、OneAPI等軟件棧產(chǎn)品,以及逐步將異構(gòu)計算、3D封裝等多個技術(shù)進(jìn)行快速落地應(yīng)用,未來 AI 場景過程中,單獨(dú)的GPU無法做主導(dǎo),而是需要CPU、GPU、NPU(神經(jīng)網(wǎng)絡(luò)處理器)等技術(shù)相融合。

“在數(shù)據(jù)中心端,其實(shí)做生態(tài)做得最成熟的也只有英特爾。雖然說在 AI、GPU這里我們才剛開展,但對于整個生態(tài)、開源社區(qū)的合作,多年來應(yīng)該沒有其他公司比我們做得更多的。所以,英特爾將持續(xù)與開發(fā)者社區(qū)合作,讓更多人參與進(jìn)來。這也是我們明年會投入的一個方向。”陳葆立表示,“芯片需要一個長期的研發(fā)流程,我們會非常認(rèn)真聽從客戶反饋并進(jìn)行改進(jìn),也會針對合作伙伴提供一些定制產(chǎn)品,提供更好的服務(wù),以滿足客戶需求。”

陳葆立強(qiáng)調(diào),下一步,英特爾將持續(xù)推進(jìn) AI 技術(shù)和數(shù)據(jù)中心領(lǐng)域的創(chuàng)新,并計劃2024年重點(diǎn)加強(qiáng)與開發(fā)者的互動,以進(jìn)一步助力大模型技術(shù)的應(yīng)用與產(chǎn)業(yè)化落地,促進(jìn)中國 AI 產(chǎn)業(yè)不斷發(fā)展壯大。

小編推薦下載

相關(guān)文章

更多>>

資訊排行

同類軟件下載