双块注意力机制(DCA)破解LLM记忆瓶颈:无需训练实现100k+上下文扩展

11小时前 高效码农

双块注意力机制(DCA):无需训练,让大模型轻松处理超长文本 你是否遇到过这样的情况:用大模型处理一份长篇报告时,前面的内容刚读完,后面的信息就“记不住”了?或者分析一本几十万字的电子书时,模型总是漏 …