SpikingBrain技术解析:高效能、低功耗的类脑大模型 一、背景与目标 随着大语言模型(LLM)规模持续增长,传统Transformer架构面临两大瓶颈: 训练计算量随序列长度平方级增长 推理内 …
嘿,大家好!我是你的技术博客博主,一直在追踪 AI 领域的热点,尤其是那些能真正落地到实际工作的多模态模型。今天,我们来聊聊 Baidu AI Cloud 在 2025 年 8 月发布的 Qianfa …
引言:为什么说Qwen3-Omni是AI领域的”全能选手”? 还记得那些只能处理文字的传统AI模型吗?它们就像只会一种乐器的音乐家,虽然技艺精湛,但表现力有限。而现在,阿里通义 …
I. 摘要与概述 LongCat-Flash-Thinking 是一个高效的开源大型推理模型,由美团 LongCat 团队开发。它总参数量达到 5600 亿,但平均激活参数仅为 270 亿,这得益于创 …
为什么强化学习微调“忘性”更小?一篇说透 RL’s Razor 原理与实战 核心问题:同样把模型微调到一个新任务,为什么强化学习(RL)比监督微调(SFT)更能保住老本? 一句话答案:RL …
摘要 本文深入解析了 inclusionAI 团队最新发布的 Ring-mini-2.0 模型——一个基于 Ling 2.0 架构深度优化的高性能混合专家模型(MoE)。该模型仅使用 16B 总参数和 …
qwen600.cu —— 从零构建的轻量级 CUDA 推理引擎 qwen600 banner 在学习和实践 CUDA 与 GPGPU 的过程中,有了这样一个想法:能不能自己从头实现一个推理引擎?于是 …
“ 华为昇腾团队研发的MindVL模型,在1/10训练数据下实现与Qwen2.5-VL相当的性能表现,本文深度解析其技术架构与训练策略。 一、MindVL的核心技术创新 1. 原生分辨率视觉处理 传统 …
Chroma1-HD:一款强大的开源文本到图像基础模型 如果你正在寻找一款高性能、易微调且完全开源的文本到图像生成模型,那么Chroma1-HD或许会成为你的理想选择。这款模型凭借8.9B参数的强大算 …
CoMPaSS:提升文本到图像模型空间理解的框架 嗨,如果你对文本到图像生成感兴趣,你可能已经注意到这些模型能够从简单的描述中创建出令人惊叹的、逼真的图片。但你有没有想过,为什么它们有时会搞错像“猫在 …
EmbeddingGemma:重新定义设备端嵌入模型的高效与隐私 EmbeddingGemma_Banner 在人工智能快速发展的今天,如何在资源有限的设备上实现高效、低延迟的文本嵌入,同时保障用户数 …
FOP优化器:提升大规模神经网络训练效率的新方法 一、背景与挑战 在深度学习领域,随着模型规模和数据量的不断增长,训练效率成为关键挑战。现代GPU虽然具备强大的计算能力,但传统优化器在面对超大规模训练 …
WebWatcher:突破视觉-语言深度研究智能体的新前沿 你是否曾经希望有一个助手,不仅能看懂图片,还能像人一样进行多步骤推理、使用各种工具,甚至在互联网上主动搜集信息?这听起来像是科幻小说中的情节 …
深入解析 DeepSeek-V3.1:如何在个人设备上运行强大的混合推理模型 ❝ 还在为无法本地运行大模型而烦恼吗?DeepSeek-V3.1 的量化版本让你在消费级硬件上也能体验前沿AI技术 ❞ 近 …
tags: – EchoMimicV3 – 1.3B参数 – Soup-of-Tasks – Soup-of-Modals – CDCA – PhDA – Negative DPO – PNG – L …
小米开源 MiMo-VL-7B 系列视觉大模型:一张图看懂它究竟强在哪 “我想让电脑像人一样看图说话,又希望它别太烧钱,最好还能装在自己服务器里。” 如果你有类似的念头,小米刚放出的 MiMo-VL- …
Rubrics as Rewards (RaR):用评分表教AI更懂人类偏好 引言:为什么需要新的奖励机制? 在强化学习领域,模型需要通过奖励信号来判断自己的输出质量。传统方法依赖偏好排序(如人类对多 …
OpenAI GPT-OSS模型优化与微调技术全解析 在人工智能快速发展的今天,大语言模型(LLM)已成为推动技术进步的重要力量。OpenAI推出的GPT-OSS系列模型,以其20B和120B两种参数 …
大型语言模型推理技术解析:从基础到前沿 一、什么是LLM推理? LLM推理是指大型语言模型通过生成中间思考过程来解决复杂问题的能力。就像人类解题需要分步骤思考一样,模型通过生成中间 tokens 来完 …