LLM创新悖论揭示:推理链越强竟反向崩盘?

3天前 高效码农

大型推理模型的逆缩放现象:测试时计算增加为何导致性能下降? 引言 近年来,大型语言模型(LLM)在推理阶段通过增加计算量(即生成更长的推理链)来提升性能已成为趋势。然而,最新研究表明,某些情况下延长推 …