為各類數(shù)據(jù)中心提供出...

近年來,人工智能技術取得了突飛猛進的發(fā)展,尤其是在自然語言處理(NLP)、計算機視覺(CV)、語音識別(ASR)等領域,出現(xiàn)了一批具有劃時代意義的AI大模型。
國外:OpenAI的GPT-4、谷歌的PaLM2、微軟的Turing-NLG、Meta的LLaMA、DeepMind的Gopher等國內(nèi):百度的文心一言、阿里巴巴的通義千問、騰訊的混元、華為的盤古、科大訊飛的星火、復旦大學的MOSS等這些AI 大模型都具有超強的學習能力和泛化能力,可以在多個任務和領域上取得優(yōu)異的表現(xiàn),甚至超越人類水平。它們?yōu)槿斯ぶ悄軕锰峁┝藦姶蟮闹魏屯苿恿Γ惨l(fā)了全球各大科技企業(yè)和研究機構的競相追逐和擁抱。據(jù)不完全統(tǒng)計,自3月16日百度率先公布“文心一言”以來,國內(nèi)已有超過30項大模型產(chǎn)品亮相。然而,AI 大模型的實現(xiàn),需要海量數(shù)據(jù)和強大算力來支撐訓練和推理過程。華為方面預估到2030年,AI爆發(fā)帶來的算力需求將增長500倍。而目前市場上可用于訓練AI大模型的算力資源遠遠能滿足需求,例如:OpenAI的GPT-3.5模型擁有1750億個參數(shù),需要使用數(shù)千塊GPU進行數(shù)月的訓練。最近馬斯克也向英偉達購買了上萬塊GPU,用來訓練其名為TruthGPT的大模型。
