推荐链接

 

 
 
  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center 汽车系统工程   模型库  
会员   
求知
 
      说问题,求答案

 
类别:AI    
 
DeepSeek MoE(混合专家模型)        
 
zhgx 发布于 2025-2-28  浏览 699  
 4次

 DeepSeek MoE(Mixture of Experts,混合专家模型)是深度求索(DeepSeek)推出的一种高效的大语言模型架构。它基于 MoE(混合专家) 技术,旨在通过动态激活部分神经网络参数来提升模型的计算效率,同时保持强大的性能。

解答
我要解答 推荐链接 添加附件
结构篇| 分而治之思想-MOE架构      2025-5-26  lpt   浏览 551  3次 
一文带你详细了解:大模型MoE架构(含DeepSeek MoE详解)      2025-3-19  lpt   浏览 535  3次 
详细谈谈DeepSeek MoE相关的技术发展      2025-2-28  lpt   浏览 564  3次 
 
 
公开课计划

嵌入式软件测试方法&实践 3-20[在线]
MBSE理论方法到工作实践 3-28[北京]
需求分析与管理 4-21[在线]
基于LLM的Agent应用开发 4-18[北京]
SysML和EA系统设计建模 4-23[北京]
基于本体的体系架构设计 4-24[北京]
认证课:OCSMP-MU 周末班[在线]
更多 ...
能力培养&认证 更多...

成功案例 更多...