C114訊 12月30日消息(南山)近日,幻方量化旗下的DeepSeek公司宣布發(fā)布全新系列模型DeepSeek-V3首個(gè)版本,并同步開(kāi)源。
DeepSeek-V3為自研MoE模型,671B參數(shù),激活37B,在14.8T token上進(jìn)行了預(yù)訓(xùn)練。
DeepSeek引用評(píng)測(cè)報(bào)告指出,DeepSeek-V3多項(xiàng)評(píng)測(cè)成績(jī)超越了阿里旗下Qwen2.5-72B和Meta旗下Llama-3.1-405B等其他開(kāi)源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
令業(yè)界震驚的是,DeepSeek-V3訓(xùn)練僅花費(fèi)了557.6萬(wàn)美元,在2048xH800集群上運(yùn)行55天完成,還很坦誠(chéng)地公布了技術(shù)細(xì)節(jié)。
相比之下,GPT-4o這樣的模型訓(xùn)練成本約為1億美元。
這一成果已經(jīng)引起海外注意。其中,OpenAI創(chuàng)始成員Karpathy點(diǎn)評(píng)稱,DeepSeek-V3讓在有限算力預(yù)算上進(jìn)行模型預(yù)訓(xùn)練這件事變得容易。它看起來(lái)比Llama 3 405B更強(qiáng),訓(xùn)練消耗的算力卻僅為后者的1/11。
這意味著算力成本的大幅下降,也意味著大模型領(lǐng)域在經(jīng)歷了“百模大戰(zhàn)”后,可能會(huì)迎來(lái)新一輪的大模型產(chǎn)品競(jìng)爭(zhēng)。