Claude开发者平台三大工具优化:搜索瘦身、脚本执行与示例学习如何提升AI效率?

27天前 高效码农

Claude 开发者平台“会用工具”了:搜索、代码、示例三板斧,让 AI 像人一样“边干边学” 原文:Introducing advanced tool use on the Claude Devel …

CALM 模型如何实现训练推理算力的大幅降低?大模型优化与训练效率提升的突破性方案是什么?

1个月前 高效码农

适合谁读:计算机、软件、人工智能相关专业的同学;对 Transformer 和大模型效率优化感兴趣的技术从业者;正在寻找训练/推理提速方案的算法工程师。 阅读收益:搞懂 CALM 的核心思想、训练流程 …

Kimi Linear爆发背后的秘密:重新定义长上下文推理效率

1个月前 高效码农

Kimi Linear:重新定义高效注意力架构的技术突破 本文欲回答的核心问题 在大型语言模型处理百万级上下文成为刚需的今天,如何在保持性能的同时显著提升推理效率?Kimi Linear通过创新的混合 …

Claude Haiku 4.5重磅发布:小模型引爆AI编程革命,速度翻倍成本骤降

2个月前 高效码农

就在你读完这句话的时间里,Haiku 4.5已经处理完一段代码审查、回答了三个技术问题,还顺便优化了两个函数——而这一切的成本,只相当于几行代码的执行费用。 还记得五个月前第一次使用Claude So …

SpikingBrain技术解析:突破类脑大模型能效瓶颈

3个月前 高效码农

SpikingBrain技术解析:高效能、低功耗的类脑大模型 一、背景与目标 随着大语言模型(LLM)规模持续增长,传统Transformer架构面临两大瓶颈: 训练计算量随序列长度平方级增长 推理内 …

腾讯混元模型保姆级部署指南:0.5B到7B全系列实战教程+性能对比

4个月前 高效码农

腾讯混元 0.5B/1.8B/4B/7B 小模型全攻略:从下载到部署,一篇就够 对话式长文 | 适合专科及以上读者 | 基于官方 README 2025-08-04 版 先回答你最关心的 3 个问题 …

32B小模型逆袭OpenAI!MetaStone-S1的’自我批改草稿纸’黑科技解密

4个月前 高效码农

从“会做题”到“会反思”:一文看懂 MetaStone-S1 如何让 32 B 模型追上 OpenAI o3-mini 开场白:为什么大模型也需要“考试时的草稿纸”? 想象一下,你在考场上遇到一道数学 …

3210亿参数大模型竟比370亿还便宜?Step3开源技术全解析

4个月前 高效码农

Step3 是怎么把 3210 亿参数的大模型跑得比 370 亿的还便宜? 通俗版技术博客:读完你就知道 Step3 为什么「大却省钱」,以及它的代码和模型该怎么用。 1. 先讲结论:为什么值得花时间 …

用句号提速大模型?华为新算法SepLLM让AI推理快50%!

5个月前 高效码农

用“句号”提速大模型:SepLLM 如何把一整段话压进一个标点里 当你对着手机说“帮我写一封邮件”时,大模型其实在做一道“阅读海量文字 → 找到关键信息 → 生成回复”的高数题。题目越大,算力消耗越像 …

Qwen3-Coder本地部署全攻略:480B参数模型在消费级硬件的实战指南!

5个月前 高效码农

Qwen3-Coder 本地运行全指南:释放480B参数代码模型的潜力 “ 无需云端依赖,手把手教你用消费级硬件运行最先进的代码生成大模型 为什么开发者需要关注Qwen3-Coder? 当阿里通义千问 …

跨平台本地部署LLM神器!Cactus Compute如何让Flutter/React Native秒接AI能力?

5个月前 高效码农

Cactus Compute:本地化部署 LLM/VLM/TTS 的跨平台解决方案 在移动端与桌面端上,如何充分利用大模型的强大能力,同时兼顾离线运行与性能需求?Cactus Compute 为开发者 …

揭秘ARM模型:如何用自适应推理架构打破大模型效率魔咒?

6个月前 高效码农

ARM模型:突破大模型推理效率瓶颈的自适应推理架构 引言:大模型推理面临的核心挑战 近年来,大型语言模型在复杂推理任务中展现出惊人能力,但普遍存在”过度思考”现象。这种现象表现 …