与R1相比,总参数1.2万亿增加了一倍!曝光DeepSeek NVIDIA将完全摆脱:都是基于华为芯片
研发家 | 2025-05-01 20

DeepSeek年初 R1的出现使美国AI圈颤抖,甚至导致NVIDIA股价暴跌。现在,更强大的DeepSeek R2也将到来。

根据最新的市场爆料,R2模型将采用更先进的混合专家模型。(MoE),与上一代R1相比,总参数增加了1.2万亿元左右(R1总参数6710亿元),与GPT-4相比,单位推理成本降低了97.4%。

当前,中美科技战、贸易战愈演愈烈,NVIDIA H20芯片面临着新的出口管制浪潮。

DeepSeek 在R2预期发布日期临近的情况下,各行各业都非常关注缺乏美国芯片资源的中国指标大模型的发展趋势。

相传,GPT-4,R2规模和ChatGPT Geminini的Turbo和谷歌 2.0 Pro相当,还将结合更智能的门控传输层。(Gating Network),从而提高负载推理任务的性能。

新闻指出,R2将完全摆脱NVIDIA芯片,整个训练过程中没有使用NVIDIA显卡,全部基于升腾910B。(Ascend 在FP16精度下,910B芯片集群平台的计算性能达到512。 PetaFLOPS,在NVIDIA上一代A100集群中,芯片利用率高达82%,综合性能约为91%。

市场预测,这有望减少中国对海外高档AI芯片的依赖,华为全新的升腾910C芯片也开始进入大规模量产阶段。

成本方面,DeepSeek-与OpenAI旗下的GPT-4相比,R2的单位推理成本大幅降低97.4%。在这些字符中,R2输入每百万字符只需0.07美元,而导出每百万字符只需0.27美元。

根据分析,如果R2像谣言一样强大,可能会再次引发市场对AI基础设施需求的质疑。此外,华为AI芯片的国产替代品将对NVIDIA产生更大的影响。

赞一个

分享:
打开微信扫一扫
11
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版支持
翻译服务
润色服务
自助查重
排版校对