數(shù)字經(jīng)濟時代,數(shù)據(jù)已經(jīng)成為堪比石油的戰(zhàn)略資源。而隨著當前AI大模型產(chǎn)業(yè)呈“井噴”之勢發(fā)展,海量數(shù)據(jù)處理需求也隨之而來,這也讓AI訓練所需的計算量呈指數(shù)級增長。作為訓練AI大模型的基礎,智能算力的需求也愈發(fā)旺盛,且正成為支撐行業(yè)變革、打通數(shù)字經(jīng)濟“動脈”的重要底座。
編輯 | MissD
AI大模型“井噴”算力成“深水區(qū)”關鍵
自去年底ChatGPT一夜爆火,今年以來,國內(nèi)AI相關科技公司及巨頭發(fā)布大語言模型的節(jié)奏可謂“遍地開花”。當前,大型模型正隨著商業(yè)化應用場景的不斷拓展,國產(chǎn)大模型已呈現(xiàn)井噴趨勢。
今年以來,百度、阿里、華為等國內(nèi)科技巨頭均發(fā)布了自己的AI大模型產(chǎn)品,更加速推動了AI大模型的產(chǎn)業(yè)化發(fā)展。據(jù)科技部新一代人工智能發(fā)展研究中心5月底發(fā)布的《中國人工智能大模型地圖研究報告》顯示,我國10億參數(shù)規(guī)模以上的大模型已發(fā)布79個。而3個多月后,CLSA Asia-Pacific Markets給出的一份調查,這一數(shù)據(jù)已新增至130個,占全球總量的40%,僅次于美國的50%。
AI大模型的出現(xiàn),使得人工智能技術在自然語言處理、圖像識別、語音合成等領域不斷突破,并不斷為AI產(chǎn)業(yè)落地應用進入“深水區(qū)”提供關鍵驅動力。然而,隨著AI大模型的不斷迭代,“生成式AI大模型浪潮”的關鍵在于智能涌現(xiàn)能力、多輪對話以及更強的生成能力。此時人們發(fā)現(xiàn),訓練AI大模型的基礎——算力,才是體現(xiàn)AI大模型數(shù)據(jù)處理能力強弱的關鍵。
此前,業(yè)界就已經(jīng)意識到“選大模型要選大廠而非創(chuàng)業(yè)公司”,其中緣由除了技術層面之外,另一方面就是圍繞算力、芯片、數(shù)據(jù)集等持續(xù)重投入資金。
據(jù)國外相關研究數(shù)據(jù)顯示,運行聊天GPT每月將花費300萬美元,訓練路徑語言模型(PaLM)將花費2000萬美元的計算成本(谷歌最新的LLM 11大模型)。目前,只有少數(shù)擁有極其龐大資源的公司能夠構建這些模型,這就是為什么大多數(shù)現(xiàn)有的大型人工智能模型幾乎完全由大型科技公司開發(fā),尤其是谷歌(Google Brain、Deepmind)、Meta和微軟(及其被投資的OpenAI)這些大公司。
因此,此類大模型需要的計算和數(shù)據(jù)資源規(guī)模,只有資源最充足的公司才能承受。對于AI大模型公司而言,如果沒有充足的算力保障、數(shù)據(jù)集保障,且沒有做好長期、每年數(shù)十億甚至上百億的資金投入準備時,就得掂量掂量是否要涉足該領域了。
數(shù)字化進程中 算力行業(yè)所面臨的挑戰(zhàn)
在當前大模型等AI應用呈井噴式增長的背景下,算力正推動著整個數(shù)字產(chǎn)業(yè)的發(fā)展,且已開始變革。與此同時,對整個社會數(shù)字化發(fā)展進程至關重要的算力行業(yè),也在進一步尋求突破時面臨嚴峻挑戰(zhàn)。
當前,盡管全球范圍內(nèi)算力需求持續(xù)增長,但算力供給卻相對滯后,因此對AI及數(shù)據(jù)處理等領域的發(fā)展產(chǎn)生了一定程度上的制約。同樣,目前我國算力產(chǎn)業(yè)發(fā)展也有諸多痛點亟待解決,比如算力供需失衡、跨數(shù)據(jù)中心算力調度難、算力基礎設施能耗大、企業(yè)利用算力成本高等問題。
AI算力資源分布不均且供需不平衡,既會導致了資源的浪費和效率的降低,也會間接地制約整個算力產(chǎn)業(yè)高質量發(fā)展。據(jù)IDC相關報告顯示,全球數(shù)據(jù)量每年增長約60%,但算力每年增速僅為10%,這表明算力的供給與需求之間存在巨大差距。
由于在GPU計算、云計算等方面的技術積累相對較少,這也使得我國在AI算力調度方面存在瓶頸。對算力調度而言,效率至關重要,系統(tǒng)架構、算法優(yōu)化等方面的限制,會讓處理大規(guī)模數(shù)據(jù)時效率低下的問題更加突顯。
算力使用成本高昂也是目前我國算力行業(yè)所面臨的問題,由于AI算力調度涉及大量的硬件設備、軟件平臺和人力資源,因此算力供需失衡的話會導致有些地區(qū)算力成本高,也讓該區(qū)域的中小企業(yè)在面臨AI算力調度時,成本壓力增大。
另外就是“老生常談”的問題——數(shù)據(jù)安全問題。AI算力調度的普及,也讓安全問題日益突顯。作為企業(yè)的核心資產(chǎn),數(shù)據(jù)可謂是關鍵所在,在算力調度過程中,數(shù)據(jù)的安全與隱私保護是個問題。比如數(shù)據(jù)泄露、黑客攻擊等現(xiàn)象的發(fā)生,也給國內(nèi)AI算力調度及數(shù)字經(jīng)濟發(fā)展帶來了安全隱患。
面對以上四大挑戰(zhàn),算力行業(yè)該如何尋求突破成為了接下來的關鍵。
打通數(shù)字經(jīng)濟“大動脈” 算力產(chǎn)業(yè)迎來變革
作為業(yè)界都聚焦的領域,突破算力瓶頸似乎正處于“黎明前的黑暗”。
相比移動互聯(lián)網(wǎng)時代的數(shù)據(jù)中心以CPU為主,如今智能算力時代數(shù)據(jù)中心已轉變?yōu)橐訥PU芯片為主的算力基座,且算力需求或是以前的10倍、100倍,甚至更多。行業(yè)幾家芯片巨頭如英偉達等GPU價格及企業(yè)股票的增長也能看得出該趨勢。隨著GPU需求水漲船高,算力行業(yè)也開始慢慢變革。
早在今年6月初,芯片供應商臺積電就宣布正式啟用全新的3DFabric技術,該技術主要由先進封裝、三維芯片堆疊和設計三部分組成。通過先進封裝,在單一封裝中置入更多處理器及存儲器,從而提升運算效能。
此外,業(yè)界其他芯片巨頭如英偉達、AMD等也紛紛發(fā)布AI芯片新品,如英偉達此前發(fā)布的NVIDIA DGX超級計算機技術,256個GH200超級芯片相連作為單個GPU運行,“專門”助力大負載巨型AI大模型開發(fā),以解決算力問題。另外,以GPU為核心算力的商湯,也于前幾個月基于AIDC建設了智能計算平臺AI大裝置SenseCore,算力規(guī)模大幅提升。
隨著新的算力芯片到來的,還有國內(nèi)各地出臺的一系列利好政策,也積極引導大模型研發(fā)企業(yè)應用國產(chǎn)人工智能芯片,加快提升AI算力供給的國產(chǎn)化率,提升算力資源統(tǒng)籌供給能力,攜手企業(yè)共同推動算力市場發(fā)展。
目前,國內(nèi)在AI芯片領域已經(jīng)涌現(xiàn)出了多家優(yōu)秀廠商,AI算力性能顯著提升,為推進國內(nèi)數(shù)字化進程提供了極大助力。
寫在最后:
隨著數(shù)字化轉型進入深水區(qū),處于AI大模型“風口”下的技術迭代新動向成為“風向標”,算力正是如此。只有直面挑戰(zhàn)、抓住機遇,才能不斷進階,在新一代科技變革中屹立不倒。