DeepSeek年初 R1的出现使美国AI圈颤抖,甚至导致NVIDIA股价暴跌。现在,更强大的DeepSeek R2也将到来。
根据最新的市场爆料,R2模型将采用更先进的混合专家模型。(MoE),与上一代R1相比,总参数增加了1.2万亿元左右(R1总参数6710亿元),与GPT-4相比,单位推理成本降低了97.4%。
当前,中美科技战、贸易战愈演愈烈,NVIDIA H20芯片面临着新的出口管制浪潮。
DeepSeek 在R2预期发布日期临近的情况下,各行各业都非常关注缺乏美国芯片资源的中国指标大模型的发展趋势。
相传,GPT-4,R2规模和ChatGPT Geminini的Turbo和谷歌 2.0 Pro相当,还将结合更智能的门控传输层。(Gating Network),从而提高负载推理任务的性能。
新闻指出,R2将完全摆脱NVIDIA芯片,整个训练过程中没有使用NVIDIA显卡,全部基于升腾910B。(Ascend 在FP16精度下,910B芯片集群平台的计算性能达到512。 PetaFLOPS,在NVIDIA上一代A100集群中,芯片利用率高达82%,综合性能约为91%。
市场预测,这有望减少中国对海外高档AI芯片的依赖,华为全新的升腾910C芯片也开始进入大规模量产阶段。
成本方面,DeepSeek-与OpenAI旗下的GPT-4相比,R2的单位推理成本大幅降低97.4%。在这些字符中,R2输入每百万字符只需0.07美元,而导出每百万字符只需0.27美元。
根据分析,如果R2像谣言一样强大,可能会再次引发市场对AI基础设施需求的质疑。此外,华为AI芯片的国产替代品将对NVIDIA产生更大的影响。
赞一个