DeepSeek MoE(Mixture of Experts,混合专家模型)是深度求索(DeepSeek)推出的一种高效的大语言模型架构。它基于 MoE(混合专家) 技术,旨在通过动态激活部分神经网络参数来提升模型的计算效率,同时保持强大的性能。
自动驾驶、智能驾驶
学习知识图谱与数据库的关系,以及如何基于大模型构建知识图谱
AI Agent 是一个能够感知环境、做出决策并采取行动以实现特定目标的智能系统。在大语言模型时代,AI Agent 通过整合 LLM 的语言理解能力、外部工具调用能力和环境交互能力,成为能够自主完成复杂任务的智能代理。
了解MCP的本质、价值、使用与开发
了解MCP协议
学习AI智能体应用
了解Dify应用实战及原理
学习大模型大模型微调
了解DeepSeek如何构建大模型以及搭建「个人知识库」
混合专家模型(MoE)作为一种强大的模型架构,正在成为大模型时代的热门话题。学习深入了解MoE的神秘面纱,从其基本概念、核心组件,到训练方法和应用场景,用通俗易懂的语言和生动的实例。
在计算机视觉领域,CNN与Transformer的对决已持续十年之久。CNN凭借其强大的归纳偏置和局部特征提取能力,奠定了视觉任务的基础;而Transformer以其全局建模和自注意力机制,迅速崛起并冲击传统格局。
模型蒸馏是一种通过简化复杂模型来提升效率的技术,而知识蒸馏特指将大模型(教师模型)的知识压缩转移至小模型(学生模型)的过程,以实现轻量化且保持高性能。