百度ERNIE-4.5-21B-A3B-Thinking:高效MoE架构引领AI推理模型新趋势 关键词:ERNIE-4.5-21B-A3B-Thinking、百度AI、MoE模型、深度推理、长上下文、 …
DeepConf:让大语言模型推理更高效的新方法 图1:DeepConf 在 AIME 2025 竞赛题目上的测试结果 一、背景:语言模型的”思考困境” 大语言模型(LLM)近 …
分层推理模型:超越OpenAI“o3-mini-high”的新一代AI架构 关键发现:仅用2700万参数和1000个训练样本,新加坡Sapient实验室开发的分层推理模型(HRM)在复杂推理任务上全面 …
Pangu Pro MoE:分组专家混合模型如何突破大模型负载均衡瓶颈 华为团队提出革命性MoGE架构,在72B参数规模下实现设备间完美负载均衡,推理速度提升97% 一、大模型时代的关键挑战:MoE的 …
picoLLM Inference Engine:突破本地化大语言模型推理的技术实践 一、为什么需要本地化LLM推理引擎? 在人工智能技术快速发展的今天,大语言模型(LLM)的应用已渗透到各个领域。然 …
Awesome Process Reward Models:全面解析过程奖励模型的最新进展 目录 过程奖励模型的核心价值 数学推理领域的突破性模型 跨领域应用的创新实践 多模态场景的技术演进 权威评测 …
Hunyuan-T1:Mamba架构驱动的AI推理革命 痛点场景:当传统模型遭遇长文本困境 在金融报告分析场景中,传统Transformer架构处理10万字文档时会产生高达78%的上下文丢失率(来源: …