DeepSeek于12日晚发布了一篇新论文《基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度》。该论文由北京大学与DeepSeek共同完成宏图配资,合著作者中包括梁文锋。论文提出了一种称为条件记忆的技术,通过引入可扩展的查找记忆结构,在相同参数和算力条件下显著提升了模型在知识调用、推理、代码及数学任务上的表现。DeepSeek还开源了相关的记忆模块Engram。
联丰优配提示:文章来自网络,不代表本站观点。
本文评分*
评论内容*
你的昵称*
你的邮箱*