热点  |  建模  |  设计  |  开发  |  测试  |  运维  |
  管理  |  需求  |  产品  |  架构  |  大数据  |  AI  |
  过程  |  嵌入式  |  安全  |  课程  |  探索  |  汽车系统工程  |
提问  
 
大语言模型LLM
zhgx 发布于  2025-8-18  浏览数:15  

 大语言模型LLM的精妙之处在于很好地利用数学解决了工业场景的问题

从 DeepSeek-V3 到 Kimi K2:现代 LLM 架构设计概览    
深度解析大语言模型LLM原理    
 
DeepSeek MoE(混合专家模型
zhgx 发布于  2025-2-28  浏览数:244  点赞数:3  

 DeepSeek MoE(Mixture of Experts,混合专家模型)是深度求索(DeepSeek)推出的一种高效的大语言模型架构。它基于 MoE(混合专家) 技术,旨在通过动态激活部分神经网络参数来提升模型的计算效率,同时保持强大的性能。

结构篇| 分而治之思想-MOE架构    
一文带你详细了解:大模型MoE架构(含DeepSeek MoE详解)    
详细谈谈DeepSeek MoE相关的技术发展    
 
智驾系统的学习
zhgx 发布于  2025-2-25  浏览数:230  点赞数:1  

 自动驾驶、智能驾驶

自动驾驶 GPU 需求图鉴:训练 “大胃王” VS 推理 “快枪手”    
智能驾驶供电冗余设计详解     
基于深度学习的自动驾驶小车    
 
知识图谱&数据库&大模型
zhgx 发布于  2025-8-12  浏览数:143  点赞数:1  

 学习知识图谱与数据库的关系,以及如何基于大模型构建知识图谱


知识图谱与图数据库的关系,终于有人讲明白了     
基于图数据库的知识图谱存储技术及实践     
【AI落地应用实战】RAGFlow + 知识图谱 + Deepseek 初步探索     
 
AI Agent构建&Agent框架协议
zhgx 发布于  2025-7-31  浏览数:148  点赞数:1  

 AI Agent 是一个能够感知环境、做出决策并采取行动以实现特定目标的智能系统。在大语言模型时代,AI Agent 通过整合 LLM 的语言理解能力、外部工具调用能力和环境交互能力,成为能够自主完成复杂任务的智能代理。

Agent 框架协议“三部曲”:MCP、A2A、AG-UI     
从 0 到 1 搭建基于 LangGraph 的 AI Agent    
对于AI Agent,你所需要知道的一切     
 
MCP学习
zhgx 发布于  2025-3-21  浏览数:290  点赞数:1  

 了解MCP的本质、价值、使用与开发

MCP+A2A协议如何让AI从「大模型」进化到「超级分布式智能体」    
MCP Java 开发指南     
应用篇| MCP为智能体插上翅膀    
 
大模型微调
zhgx 发布于  2025-5-29  浏览数:94  

 

大模型微调知识与实践分享    
 
机器人
zhgx 发布于  2025-5-28  浏览数:91  

 

具身智能和人形机器人项目汇总    
 
Dify应用实战
zhgx 发布于  2025-3-28  浏览数:684  点赞数:1  

 了解Dify应用实战及原理

本地部署DeepSeek+DiFy平台构建智能体应用    
DeepSeek+dify 本地知识库:高级应用Agent+工作流    
Dify应用实战(1)    
 
RAG与微调
zhgx 发布于  2025-4-9  浏览数:564  点赞数:1  

 学习大模型大模型微调

RAG 2.0 深入解读    
费曼讲解大模型参数微调——小白也能看懂    
漫画趣解:大模型预训练、后训练、微调    
 
DeepSeek学习
zhgx 发布于  2025-3-24  浏览数:520  点赞数:1  

 了解DeepSeek如何构建大模型以及搭建「个人知识库」

DeepSeek 构建军事大模型的层次化概念模型     
DeepSeek+Ragflow搭建个人知识库     
一文了解DeepSeek及应用场景    
 
混合专家模型(MoE)
zhgx 发布于  2025-2-12  浏览数:400  点赞数:1  

 混合专家模型(MoE)作为一种强大的模型架构,正在成为大模型时代的热门话题。学习深入了解MoE的神秘面纱,从其基本概念、核心组件,到训练方法和应用场景,用通俗易懂的语言和生动的实例。

一文带你详细了解:大模型MoE架构(含DeepSeek MoE详解)    
详细谈谈DeepSeek MoE相关的技术发展     
小白也能懂的混合专家模型(MoE)深度解析    
 
CNN vs Transformer
zhgx 发布于  2025-3-3  浏览数:313  

 在计算机视觉领域,CNN与Transformer的对决已持续十年之久。CNN凭借其强大的归纳偏置和局部特征提取能力,奠定了视觉任务的基础;而Transformer以其全局建模和自注意力机制,迅速崛起并冲击传统格局。

CNN vs Transformer:十年缠斗,谁将主宰下一代视觉模型?    
神经网络结构——CNN、RNN、LSTM、Transformer !    
Transformer到底解决什么问题?    

当前第1页,共有11页,共有:205条记录     
首页 上一页 下一页 尾页