让大模型轻松处理比自身上下文窗口长两个数量级的超长文本! MIT CSAIL研究团队提出了一种叫做递归语言模型RLM的长文本处理新方法,来解决上下文腐烂问题。 不修改模型架构、不升级模块设计,但能让GPT-5、Qwen-3这类顶尖模型推理层具备千万级token的超长文本 ...
让大模型轻松处理比自身上下文窗口长两个数量级的超长文本! MIT CSAIL 研究团队提出了一种叫做递归语言模型 RLM 的长文本处理新方法,来解决上下文腐烂问题。 不修改模型架构、不升级模块设计,但能让 GPT-5、Qwen-3 这类顶尖模型推理层具备千万级 token 的超长 ...