來源:博觀科技日期:2023-04-19 16:05:39
自2022年stable diffusion模型的進(jìn)步推動(dòng)AIGC的快速發(fā)展后,年底,ChatGPT以“破圈者”的姿態(tài),快速“吸粉”億萬,在全球范圍內(nèi)掀起了一股AI浪潮,也促使了眾多海外巨頭競(jìng)相發(fā)布屬于自己的大模型。
而在國內(nèi),實(shí)際上很久之前,阿里、華為、騰訊等公司便早已有所布局:2019年,阿里開始布局大模型研發(fā),去年9月發(fā)布“通義”大模型系列的眾多大模型;華為在2021年基于昇騰AI與鵬城實(shí)驗(yàn)室聯(lián)合發(fā)布了鵬程盤古大模型;而騰訊的思路也與阿里相似,發(fā)布了混元AI大模型;第二梯隊(duì)的京東、網(wǎng)易、360、字節(jié)跳動(dòng)等企業(yè),也紛紛官宣了自己在AI大模型方面的布局。
而進(jìn)入2023年以來,隨著文心一言的發(fā)布,成為了中國第一個(gè)類ChatGPT產(chǎn)品后,各家的大模型也紛紛亮相,一時(shí)間,國內(nèi)仿佛陷入了“大模型之戰(zhàn)”中。
截至目前,百度文心大模型、華為盤古大模型、商湯大模型、阿里大模型都已亮相,而后還有許多大模型正在準(zhǔn)備粉墨登場(chǎng)。
那么,在這匆匆發(fā)布的背后,是真的技術(shù)成熟,還是魚龍混雜?各個(gè)大模型的實(shí)力又是怎樣?
一把手掛帥掌舵
撥開唇槍舌劍、劍拔弩張的背后,是各大廠一把手緊鑼密鼓的掛帥上陣的架勢(shì)。
目前,百度方面由李彥宏親自下場(chǎng)盯研發(fā),一名百度人士對(duì)時(shí)代周報(bào)記者表示,“文心一言發(fā)布會(huì)前以天為單位匯報(bào)進(jìn)度,節(jié)奏非常快。目前還是由CTO王海峰牽頭,副總裁吳甜直接負(fù)責(zé)大模型。研發(fā)大模型的主力是自然語言處理技術(shù)部門,吳甜則在2010年就進(jìn)入該部門?!?/p>
華為盤古公開負(fù)責(zé)人是華為云人工智能領(lǐng)域首席科學(xué)家田奇;阿里方面的大模型研究一直放在阿里云的達(dá)摩院,由阿里云智能 CTO、 阿里云首席科學(xué)家周靖負(fù)責(zé),阿里CEO張勇兼任阿里云CEO;騰訊混元助手項(xiàng)目則是由騰訊最高級(jí)(17 級(jí))研究員、騰訊首席科學(xué)家張正友負(fù)責(zé)。
字節(jié)目前尚未發(fā)布自研大模型相關(guān)進(jìn)度。但一名字節(jié)內(nèi)部人士告訴時(shí)代周報(bào)記者“我們內(nèi)部有一個(gè)娛樂性質(zhì)的接口,不確定是自研發(fā)還是調(diào)用ChatGPT。涉及敏感問題比如內(nèi)部架構(gòu),它都能回答得出來,且答案玄妙,結(jié)合了實(shí)際情況和民間流傳版本?!?/p>
各大廠一把手掛帥涌向AI,不難看出大廠管理層對(duì)大模型的重視。
事實(shí)上,這場(chǎng)人工智能取代人類的大風(fēng)蓄力已久,從1950年的圖靈測(cè)試到今天,人工智能走了73年。百度、阿里、華為等公司最早在2019年開始研發(fā)自家大模型,如果從人工智能的投入開始計(jì)算,百度至少在2010年已經(jīng)布局。
大風(fēng)背后,是更為龐大的應(yīng)用場(chǎng)景和應(yīng)用需求。
4月11日,藍(lán)色光標(biāo)剛剛宣布獲得微軟云官方AI調(diào)用和訓(xùn)練許可,相隔一天就有消息傳出。藍(lán)色光標(biāo)管理層決定無限期全面停用文案外包。
阿里方面也宣布,未來阿里大模型將會(huì)包攬營銷圖案、產(chǎn)品介紹、產(chǎn)品描述等工作。去年已經(jīng)挑選部分商家使用該技術(shù),原本預(yù)計(jì)花費(fèi)數(shù)百萬廣告營銷圖案,可覆蓋40%的工作量。
騰訊混元AI大模型則覆蓋了自然語言處理、計(jì)算機(jī)視覺、多模態(tài)等基礎(chǔ)模型,且應(yīng)用于騰訊微信搜索、騰訊廣告等自有業(yè)務(wù)場(chǎng)景??偛脛肫皆谀甓蓉?cái)報(bào)會(huì)上曾表示,騰訊業(yè)務(wù)實(shí)際上聚焦于社交、通訊和游戲領(lǐng)域,這意味著大模型主要圍繞用戶間的互動(dòng),同時(shí)要求高質(zhì)量的內(nèi)容。
華為的盤古系列AI大模型包含NLP(自然語言處理)大模型、CV(機(jī)器視覺)大模型、科學(xué)計(jì)算大模型三大類型。CV大模型可應(yīng)用于工業(yè)鐵路等行業(yè),NLP大模型應(yīng)用于智能文檔搜索等領(lǐng)域;科學(xué)計(jì)算大模型可以應(yīng)用于氣象預(yù)報(bào)、海浪預(yù)測(cè)等領(lǐng)域。其中,盤古CV大模型在鐵路故障檢測(cè)系中與傳統(tǒng)檢測(cè)方法相比,降低了人工成本,并且在故障樣本檢測(cè)中,識(shí)別率達(dá)到了99%以上。
可謂八仙過海,各顯神通。大廠們看中的可能不僅是AI可以提高工作效率,取代部分比較機(jī)械的工作,更重要的是這在未來可以衍生出各種需求。
Al大模型帶動(dòng)算力需求增長(zhǎng)
Al 大模型落地帶動(dòng)海量算力需求。從 ChatGPT、文心一言到 BloombergGPT、DeepSpeed Chat, 近半年 AI 大模型持續(xù)推出,并在多場(chǎng)景廣泛深入地應(yīng)用,大模型是人工智能發(fā)展的必然趨 勢(shì),AI 大模型時(shí)代已來臨。算力是打造大模型生態(tài)的必備基礎(chǔ),AI 大模型通過存儲(chǔ)更多的參 數(shù)來增加模型的深度和寬度,從而提高模型的表現(xiàn)能力,因此 AI 大模型的參數(shù)呈現(xiàn)指數(shù)規(guī) 模,CPT-3 的參數(shù)規(guī)模達(dá) 1750 億,PaLM-E 的參數(shù)規(guī)模更是達(dá)到了 5620 億。更多的參數(shù)意味 著需要更多的計(jì)算資源,Al 大模型在訓(xùn)練和推理過程中需要消耗海量算力,AI 大模型開啟 了算力軍備賽,這帶動(dòng)了算力需求的快速增長(zhǎng)。
全球算力規(guī)模大幅增長(zhǎng),中國智能算力規(guī)模增速較快。2021 年全球計(jì)算設(shè)備算力總規(guī)模達(dá)到 615EFlops, 同比增長(zhǎng) 44%。據(jù) IDC 與浪潮信息聯(lián)合發(fā)布的《2022-2023 中國人工智能計(jì)算力發(fā)展評(píng)估報(bào) 告》顯示,2021 年中國智能算力規(guī)模達(dá) 155.2EFLOPS,預(yù)計(jì)到 2026 年將達(dá)到 1271.4EFLOPS。 2021 年中國通用算力規(guī)模達(dá) 47.7EFLOPS,預(yù)計(jì)到 2026 年將達(dá)到 111.3EFLOPS。2021-2026 年 期間,預(yù)計(jì)中國智能算力規(guī)模年復(fù)合增長(zhǎng)率達(dá) 52.3%,高于同期通用算力規(guī)模年復(fù)合增長(zhǎng)率 18.5%。
算力在模型訓(xùn)練、推理速度和數(shù)據(jù)處理等方面發(fā)揮著重要作用。(1)模型訓(xùn)練:訓(xùn)練一個(gè)復(fù) 雜的 AI 大模型需要大量的算力資源。在模型訓(xùn)練過程中,計(jì)算機(jī)需要不斷地執(zhí)行矩陣運(yùn)算、 優(yōu)化算法等操作,以調(diào)整模型的參數(shù),提高模型的準(zhǔn)確性。較高的算力能夠加速模型訓(xùn)練過 程,從而加快 AI 技術(shù)的研究和發(fā)展。(2)推理速度:在模型訓(xùn)練完成后,AI 系統(tǒng)需要執(zhí)行 推理操作來處理新的數(shù)據(jù)。推理速度取決于計(jì)算機(jī)的算力和存儲(chǔ)速度。高效的推理速度可以 提高 AI 應(yīng)用的響應(yīng)速度和精度。(3)數(shù)據(jù)處理:AI 技術(shù)需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練和推理。 計(jì)算機(jī)的算力和存儲(chǔ)能力可以決定 AI 系統(tǒng)能夠處理的數(shù)據(jù)量。如果計(jì)算機(jī)性能低下,AI 系 統(tǒng)可能無法處理大規(guī)模的數(shù)據(jù)集,從而限制了其準(zhǔn)確性和性能。
AI 滲透千行百業(yè),算力在應(yīng)用端同樣發(fā)揮重要作用。為實(shí)現(xiàn)業(yè)務(wù)增長(zhǎng)、保持強(qiáng)大競(jìng)爭(zhēng)力、占 據(jù)更大的市場(chǎng)份額,企業(yè)紛紛入局 AI 領(lǐng)域,各行各業(yè)的 AI 應(yīng)用滲透度都呈不斷加深的態(tài)勢(shì), 應(yīng)用場(chǎng)景也越來越廣泛。據(jù) IDC 預(yù)計(jì),人工智能行業(yè)應(yīng)用滲透度排名 TOP5 的行業(yè)依次為互 聯(lián)網(wǎng)、金融、政府、電信和制造,到 2023 年年底,中國 50%的制造業(yè)供應(yīng)鏈環(huán)節(jié)將采用人工 智能以提高效率。對(duì)于入局 AI 領(lǐng)域的企業(yè)來說,算力對(duì)于企業(yè)的發(fā)展非常重要,高效的計(jì)算 資源可以提高產(chǎn)品研發(fā)效率和產(chǎn)品性能,支持企業(yè)日常運(yùn)營。
(1)提高產(chǎn)品研發(fā)效率:企業(yè) 需要不斷研發(fā)新的 AI 應(yīng)用和產(chǎn)品,以滿足市場(chǎng)需求和提高企業(yè)競(jìng)爭(zhēng)力。高效的算力資源可 以加速 AI 技術(shù)的研究和開發(fā),提高產(chǎn)品研發(fā)效率。(2)提高產(chǎn)品性能:AI 產(chǎn)品的性能直接 取決于算力的大小和效率。算力越高,產(chǎn)品性能越好,可以提供更快速、更準(zhǔn)確的服務(wù),從 而更好地滿足用戶的需求。(3)支持日常運(yùn)營:AI 產(chǎn)品的日常運(yùn)營過程中,用戶交互帶來的 數(shù)據(jù)處理需求同樣也需要大量的算力支持。
大模型背后的算力之爭(zhēng),誰占先機(jī)?
縱觀國內(nèi)發(fā)布的大模型,可以發(fā)現(xiàn),相對(duì)于國外尖端的AI企業(yè)來說,國內(nèi)還像是蹣跚學(xué)步的孩童,在這條道路上剛剛起步。
而在大模型發(fā)展的道路上,最重要的實(shí)際上還是最基礎(chǔ)的算力資源的多少與怎樣利用算力的能力,那么國內(nèi)頂尖大模型企業(yè)在算力上的儲(chǔ)備幾何?
首先是近日同樣發(fā)布了大模型的商湯科技,在前段時(shí)間的交流中,商湯科技內(nèi)部的相關(guān)專家對(duì)公司的算力情況進(jìn)行了交流。
國內(nèi)能拿到最尖端的顯卡是來自英偉達(dá)的A100 GPU,商湯科技在美國對(duì)華禁售之前,便提前囤積了上萬張A100芯片,是國內(nèi)算力資源比較充足的廠商。
除了來自英偉達(dá)的顯卡之外,商湯還在采購國內(nèi)的GPU,并且專家表示,早在去年以前,就已經(jīng)在大裝置中適配了許多寒武紀(jì)與海光信息的GPU卡,但在當(dāng)下商湯仍舊面臨著如何將國產(chǎn)GPU卡進(jìn)行大模型訓(xùn)練適配的問題。
在商湯之外,華為的盤古大模型也引起了眾人矚目,但在算力資源方面,華為卻略顯窘迫。
因?yàn)槭艿矫绹拈L(zhǎng)期制裁,華為只得使用全部國產(chǎn)的加速芯片,而目前昇騰系列最先進(jìn)大幅使用的型號(hào)昇騰910,也只有A100 70%的性能,從長(zhǎng)期來看,將會(huì)制約大模型的發(fā)展。
而算力的短缺也直接影響了華為的發(fā)展策略,選擇性地放棄了C端的發(fā)展,主攻B端工業(yè)大模型應(yīng)用。
而說起算力資源儲(chǔ)備最多的企業(yè),莫過于云時(shí)代中獨(dú)占鰲頭的阿里。
但從阿里云上的角度來看,當(dāng)前云上至少擁有上萬片的A100 GPU,從整體來說,阿里云的算力資源至少能夠達(dá)到10萬片以上。如果繼續(xù)抬眼,從整個(gè)集團(tuán)的算力資源來說,將會(huì)是阿里云5倍的這樣的一個(gè)量級(jí)。
而在英偉達(dá)的芯片之外,阿里云也擁有眾多國產(chǎn)化的GPU芯片,而最近的項(xiàng)目中,便選擇了寒武紀(jì)MLU370,其性能基本過關(guān)(A100的60-70%),檢測(cè)合格,廠商態(tài)度積極,愿意與阿里對(duì)接,并且已經(jīng)用在了CV等小模型的訓(xùn)練和推理上。
在2023年,阿里云算力資源的增速也將達(dá)到30%-50%。
得益于云時(shí)代的絕對(duì)領(lǐng)先,讓阿里擁有了遠(yuǎn)超其他企業(yè)的算力資源,也讓其在AI時(shí)代里天生就占得了上風(fēng)。
但是,動(dòng)輒超千億參數(shù)的大模型研發(fā),并不能靠簡(jiǎn)單堆積GPU就能實(shí)現(xiàn),這是囊括了底層算力、網(wǎng)絡(luò)、存儲(chǔ)、大數(shù)據(jù)、AI框架、AI模型等復(fù)雜技術(shù)的系統(tǒng)性工程,需要AI-云計(jì)算的全棧技術(shù)能力。
而阿里是全球少數(shù)在這幾個(gè)領(lǐng)域都有深度布局、長(zhǎng)久積累的科技公司之一,也是為數(shù)不多擁有超萬億參數(shù)大模型研發(fā)經(jīng)驗(yàn)的機(jī)構(gòu)。
在AI算法方面,阿里達(dá)摩院是國內(nèi)最早啟動(dòng)大模型研究的機(jī)構(gòu)之一,2019年便開始投入大模型研發(fā),在中文大模型領(lǐng)域一直處于引領(lǐng)地位,2021年阿里先后發(fā)布國內(nèi)首個(gè)超百億參數(shù)的多模態(tài)大模型及語言大模型,此后還訓(xùn)練實(shí)現(xiàn)了全球首個(gè)10萬億參數(shù)AI模型。
在智能算力方面,阿里建成了國內(nèi)最大規(guī)模的智算中心“飛天智算平臺(tái)”,千卡并行效率達(dá)90%,自研網(wǎng)絡(luò)架構(gòu)可對(duì)萬卡規(guī)模的AI集群提供無擁塞、高性能的集群通訊能力?;陲w天智算的阿里云深度學(xué)習(xí)平臺(tái)PAI,可將計(jì)算資源利用率提高3倍以上,AI訓(xùn)練效率提升11倍,推理效率提升6倍,覆蓋全鏈路AI開發(fā)工具與大數(shù)據(jù)服務(wù),深度支持了通義大模型的研發(fā)。
阿里云全棧AI技術(shù)體系,更是從機(jī)器學(xué)習(xí)平臺(tái)、大模型即服務(wù)、產(chǎn)業(yè)智能三個(gè)層面,不斷豐富AI服務(wù),并通過全棧技術(shù)驅(qū)動(dòng)千行百業(yè)的AI發(fā)展與應(yīng)用。
可以說,阿里在云時(shí)代的成功,在一定程度上延續(xù)到了AI時(shí)代,與那些算力資源相對(duì)不足的競(jìng)爭(zhēng)者來說,阿里在算力與技術(shù)底座方面,有著無可比擬的巨大優(yōu)勢(shì)。
AI芯片價(jià)格暴漲,英偉達(dá)賺翻
隨著對(duì)訓(xùn)練和部署人工智能軟件所需芯片的需求飆升,英偉達(dá)(Nvidia)最先進(jìn)的顯卡在美國電商平臺(tái)eBay上的售價(jià)已經(jīng)超過4萬美元。
3D游戲先驅(qū)和前Meta首席技術(shù)顧問John Carmack在推特上注意到英偉達(dá)H100 處理器的價(jià)格。周五至少有8枚H100芯片在eBay上售賣,價(jià)格從39995美元到46000美元不等。一些零售商過去曾以3.6萬美元左右的價(jià)格出售這款產(chǎn)品。
據(jù)悉,去年發(fā)布的H100是英偉達(dá)最新的旗艦AI芯片,接替了A100,A100是一款被稱為AI應(yīng)用“主力軍”的芯片,售價(jià)約為1萬美元。根據(jù)英偉達(dá)的說法,與A100相比,H100 的能效提高了3.5倍。
開發(fā)人員正在使用H100來構(gòu)建所謂的大型語言模型(LLMs),這是OpenAI的ChatGPT等AI應(yīng)用的核心。
這些AI模型對(duì)算力的要求極高。因此,訓(xùn)練它們,尤其是像GPT這樣的大型模型,需要數(shù)百顆高端英偉達(dá)GPU協(xié)同工作。
正因如此,那些正進(jìn)行AI競(jìng)賽的科技巨頭們不惜斥巨資購買AI芯片。例如,微軟就斥資數(shù)億美元購買了數(shù)萬顆英偉達(dá)A100芯片,以幫助打造ChatGPT。
鄭州博觀電子科技有限公司是一家提供科技類物聯(lián)網(wǎng)開發(fā)軟硬件定制化方案服務(wù)商、也是中原地區(qū)領(lǐng)先的物聯(lián)網(wǎng)終端設(shè)備解決方案提供商。致力共享換電柜、智能充電樁、共享洗車機(jī)、物聯(lián)網(wǎng)軟硬件等服務(wù)平臺(tái)的方案開發(fā)與運(yùn)維。總部位于河南省鄭州市高新區(qū),已取得國家高新技術(shù)企業(yè)認(rèn)證證書。經(jīng)過10多年的業(yè)務(wù)開拓,公司已經(jīng)形成了以中原地區(qū)為中心、業(yè)務(wù)遍布全國的經(jīng)營格局。
* 為了您的權(quán)益,您的一切信息將被嚴(yán)格保密