推荐链接
 
 

 

DeepSeek MoE(混合专家模型)   AI 
 
zhgx 发布于 2025-2-28  浏览 233    3次

 DeepSeek MoE(Mixture of Experts,混合专家模型)是深度求索(DeepSeek)推出的一种高效的大语言模型架构。它基于 MoE(混合专家) 技术,旨在通过动态激活部分神经网络参数来提升模型的计算效率,同时保持强大的性能。

结构篇| 分而治之思想-MOE架构 
2025-5-26  lpt   浏览 127  1次 
一文带你详细了解:大模型MoE架构(含DeepSeek MoE详解) 
2025-3-19  lpt   浏览 142  1次 
详细谈谈DeepSeek MoE相关的技术发展 
2025-2-28  lpt   浏览 213  1次 
我要解答 推荐链接 添加附件
 
图数据库与知识图谱
8月28日-29日 北京+在线