金融投資報(bào)評論員 劉柯
上周,特斯拉透露,正在內(nèi)部評估整合數(shù)千片AI5芯片,以供下一代人工智能模型的訓(xùn)練。特斯拉CEO馬斯克稱,緊隨其后的AI6芯片,有望成為迄今為止最出色的AI芯片。據(jù)稱,AI5芯片被認(rèn)為是對于參數(shù)數(shù)量低于2500億的模型來說,最好的推理芯片。
早在2017年,特斯拉就開始了自研芯片之路。只不過那時(shí)還只是研發(fā)自動(dòng)駕駛芯片,并為此挖來了AMD前首席芯片架構(gòu)師吉姆?凱勒。這位芯片業(yè)的傳奇人物,先后參與并締造了AMD的X86-64架構(gòu)、K8架構(gòu)以及蘋果的A4、A5處理器。
如果說自研自動(dòng)駕駛芯片是為了平衡功耗和成本,那么AI5和AI6芯片,則是特斯拉趁勢出擊,向更廣闊的人工智能領(lǐng)域拓展。畢竟,自動(dòng)駕駛只是特斯拉業(yè)務(wù)的很小一部分,它的理想還有進(jìn)軍太空,以及人形機(jī)器人等更長更廣的產(chǎn)業(yè)鏈。這些產(chǎn)業(yè)鏈與人工智能算力密不可分。
特斯拉并不是IT大佬自研芯片的個(gè)案。此前,與生產(chǎn)芯片也沒什么關(guān)聯(lián)的谷歌,已經(jīng)打造出了自己的TPU(張量處理單元)芯片。
TPU是谷歌專為加速機(jī)器學(xué)習(xí)和深度學(xué)習(xí)任務(wù)設(shè)計(jì)的專用集成電路芯片,該芯片最初于2016年舉行的谷歌開發(fā)者大會(huì)上宣布推出,旨在優(yōu)化TensorFlow框架下的張量運(yùn)算效率。TPU采用定制化架構(gòu)設(shè)計(jì),在矩陣計(jì)算任務(wù)中展現(xiàn)出比傳統(tǒng)GPU和CPU高15倍至30倍的推理速度,且能效比提升30倍到80倍。截至2024年,谷歌已迭代至第六代TPU。
無論谷歌自己是否承認(rèn)自研TPU是為了減少對英偉達(dá)的依賴,還是為了降低芯片采購成本,但TPU出來以后,確實(shí)能搶英偉達(dá)GPU的市場份額。
日前,OpenAI宣布,首次采用谷歌TPU芯片為其ChatGPT及其他產(chǎn)品提供算力支持,而在此之前,OpenAI一直是英偉達(dá)圖形處理器最大的采購商之一。當(dāng)然,這也為英偉達(dá)市值沖上全球第一作出了不小的貢獻(xiàn)。
而現(xiàn)在,英偉達(dá)面對的還不僅僅是谷歌和特斯拉這些體量不小的巨頭,Meta、蘋果、亞馬遜、高通、AMD等都希望和它分享市場。
比如,OpenAI不僅要用谷歌的TPU,還計(jì)劃和博通一起自己造AI芯片。其理由很簡單,就是在降低對英偉達(dá)依賴的同時(shí),在AI軟硬件上均衡發(fā)力。
無論是OpenAI還是博通,名氣都可以在AI領(lǐng)域橫著走,為什么一定要讓英偉達(dá)在AI芯片市場獨(dú)占八成的市場份額?
可以說,AI芯片以及軟硬件產(chǎn)業(yè)鏈已經(jīng)進(jìn)入了“戰(zhàn)國時(shí)代”,像Meta、亞馬遜這些財(cái)大氣粗的IT巨頭,都在發(fā)力自研AI芯片。
Meta已經(jīng)開始跟聯(lián)發(fā)科合作研發(fā)自己的AI芯片,代號(hào)叫“Arke”。該芯片采用2nm制程工藝,計(jì)劃于2027年上半年量產(chǎn)。亞馬遜在CPU中央處理器上早已“遙遙領(lǐng)先”。
目前,亞馬遜全球新增算力的一半以上,都是基于Arm架構(gòu)的Graviton系列自研芯片,并自研了Trainium系列AI芯片。其中,Trainium2芯片已經(jīng)被亞馬遜投資的AI創(chuàng)業(yè)公司Anthropic用于訓(xùn)練大模型,Trainium3則將于2025年末量產(chǎn)。
為了降低成本掌控全產(chǎn)業(yè)鏈,各大IT巨頭都摩拳擦掌。這對于國內(nèi)人工智能產(chǎn)業(yè)的發(fā)展,也是有所啟迪的。這其實(shí)也是阿里等一眾人工智能產(chǎn)業(yè)鏈的重要參與者要自研AI芯片的原因。在上一代互聯(lián)網(wǎng)時(shí)代,我們不僅沒有掉隊(duì),而且處于領(lǐng)先的位置;在下一代人工智能時(shí)代,我們更不能屈居人后。
【未經(jīng)授權(quán),嚴(yán)禁轉(zhuǎn)載!聯(lián)系電話028-86968276】
