三星微型递归模型以0.01%参数量超越大模型
2025-10-13 浏览量:

关键技术三星微型递归模型以0.01%参数量超越大模型

  • 编译时间:2025-10-09

  • 编译者:刘飞

  • 资源来源:AI-NEWS

  • 点击量:3

三星SAIL蒙特利尔实验室最新研究显示,仅含700万参数的微型递归模型(TRM)在ARC-AGI智能测试等复杂推理基准中刷新性能纪录,其参数量不足主流大模型的0.01%。这项突破性研究证实,通过递归自修正架构设计,AI模型可在极低算力需求下实现卓越推理能力,为可持续发展AI开辟全新路径。

三星AI研究员发布了一篇新论文,阐述了如何通过使用小型网络在复杂推理任务中击败大型语言模型(LLMs)。尽管科技巨头们投入巨资打造越来越大的模型,但三星SAIL Montréal的Alexia Jolicoeur-Martineau认为,通过Tiny Recursive Model(TRM)可以走一条截然不同且更高效的道路。TRM模型仅拥有700万个参数,不到主要LLMs大小的0.01%,却在诸如ARC-AGI智力测试等难题上取得了新的最先进成果。

三星的研究表明,规模并不是提升AI模型能力的唯一途径,而是提供了一种更可持续且参数高效的替代方案。尽管LLMs在生成类人文本方面表现出色,但在执行复杂、多步骤推理时可能会出错。由于它们是逐个生成答案的,一个早期错误就能导致最终答案无效。尽管开发了如Chain-of-Thought等技术来缓解这一问题,但这些方法计算成本高,且需要大量高质量的推理数据,这些数据可能并不容易获得,并且仍可能出现逻辑错误。 三星的研究基于近期提出的Hierarchical Reasoning Model(HRM),该模型使用两个小型神经网络以不同频率递归处理问题,以改进答案。然而,HRM依赖于不确定的生物学论点和复杂的固定点定理,无法保证适用性。相比之下,TRM只使用一个小型神经网络,简化了模型结构,但仍能取得优异的推理效果。这一研究挑战了当前对大规模模型的依赖,为AI模型的发展提供了新的思路。