推荐链接

 

 
 
  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center   Code  
会员   
求知
 
      说问题,求答案

 
类别:AI    
 
混合专家模型(MoE)        
 
zhgx 发布于 2025-2-12  浏览 138  
 1次

 混合专家模型(MoE)作为一种强大的模型架构,正在成为大模型时代的热门话题。学习深入了解MoE的神秘面纱,从其基本概念、核心组件,到训练方法和应用场景,用通俗易懂的语言和生动的实例。

解答
我要解答 推荐链接 添加附件
一文带你详细了解:大模型MoE架构(含DeepSeek MoE详解)      2025-4-21  lpt   浏览 32  1次 
详细谈谈DeepSeek MoE相关的技术发展       2025-4-21  lpt   浏览 34  1次 
小白也能懂的混合专家模型(MoE)深度解析      2025-2-12  lpt   浏览 109  1次 
 
 
公开课计划

业务架构设计与建模 4-18[北京]
DeepSeek大模型应用开发实践 4-19[在线]
基于 UML 和EA进行分析设计 4-26[北京]
产品经理与产品管理 5-8[上海]
AI智能化软件测试方法与实践 5-23[上海]
图数据库与知识图谱 5-22[北京]
更多 ...
能力培养&认证 更多...

成功案例 更多...