量子位 20小时前
无预训练模型拿下ARC-AGI榜三!Mamba作者用压缩原理挑战Scaling Law
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

压缩即智能,又有新进展!

在最新研究CompressARC 中,Mamba 作者 Albert Gu 团队给出了一个不同于大规模预训练的智能配方——

最小描述长度(MDL)

研究显示,仅通过在推理阶段最小化目标谜题的描述长度,一个76K参数,完全没有经过预训练的模型,就能在 ARC-AGI-1 基准上解决 20% 的问题。

值得一提的是,CompressARC 不仅没使用 ARC-AGI 的训练集,还是目前唯一一个只在单个样本上运行的深度学习方法。

凭借这一突破,CompressARC 获得了ARC Prize 2025的第三名,并且据论文一作Isaac Liao透露,这项研究仅使用了一张 GPU 就得以完成。

这是怎么做到的?

新的智能 recipe:最小描述长度

如上所说,CompressARC 一没利用训练集、二不进行预训练,且网络中仅有 76K 参数,但它仍能泛化并解决 20% 的评估谜题和 34.75% 的训练谜题。

这种不靠预训练获取智能的关键在于,CompressARC 的最终目标不是像普通神经网络那样学习一个泛化的规则,而是把一个特定的 ARC-AGI 谜题用一个最短的计算机程序表达出来。

换句话说,CompressARC 并不是像监督学习一样,学习一个 x 到 y 的映射,而是寻找一种能用最少比特信息来表述给定谜题的方法。

这一思想源自最小描述长度(MDL)理论(以及与其相关的 Solomonoff 归纳法和 Kolmogorov 复杂度理论)——一个现象(谜题)的最短描述(程序)往往能揭示其最深层的规律。

在 ARC-AGI 的情境中,CompressARC 旨在将一个特定的 ARC-AGI 谜题(包括其输入和期望的输出)用一个最短的计算机程序来表达出来。

这个最短的程序意味着它找到了最简洁、最本质的规则,而这些规则恰好就是谜题的解。

与此同时,研究还遵循奥卡姆剃刀原理,即最短的程序被假设具有最强大的泛化能力

因此,CompressARC 仅使用谜题本身(两个示例输入 / 输出对和测试输入),而不加载任何额外的附加数据或训练集。

接下来,我们具体来看。

CompressARC 挑战的 ARC-AGI-1 是一个检验系统能否在少量示例中找到规则的测试。

简单来说,这有点像行测考试里的找规律题,每道题目会给出几对输入 - 输出作为示例,模型需要找到谜题中的规则,从而生成正确的、对应的网格。

CompressARC 的 " 压缩 " 过程,就是找到图里最本质的信息 / 规则

目前,在该测试中取得最好成绩的仍是基于互联网数据预训练的大语言模型。

比如 o3 能达到88%的成绩,但 o1 则只有 25% 左右。

而在不进行预训练、仅使用 ARC-AGI 数据训练的神经网络中,最高成绩为 40.3%,CompressARC 这次只在测试谜题本身上进行训练。

总的来说,CompressARC 解决问题的过程,是一个最小化目标谜题的程序性描述长度(Minimum Description Length, MDL)的过程,这可看作是用神经网络来 " 写 " 最短的程序。

MDL 框架与搜索空间的转换

首先,由于计算机程序的组合搜索空间过于庞大,无法穷尽所有可能的程序来找到绝对最短的那一个(计算上不可行)。

因此,论文设计了一个固定的 " 程序模板 "(Template Program / Algorithm 1)。

这个模板包含一套固定的运算流程:从随机噪声 z 采样,经过一个神经网络,再次采样生成谜题颜色。

这些模板中留下了几个 " 空位 ",用于填入硬编码的数值(即 " 种子 ")以及神经网络的权重。

只要填入了这些种子和权重,这个模板程序就能运行,并 " 打印 " 出整个 ARC-AGI 数据集。

由此,寻找最短程序的问题,就转化成了寻找最短的种子和权重的问题。

接下来,研究借鉴了变分自编码器(VAE)的原理,将程序长度的最小化转化为一个可微分的优化问题:

种子长度 1 ( KL 散度 ) :衡量了从标准正态分布中采样随机输入 z 所需的编码信息成本。通过最小化 z 分布与标准正态分布的 KL 散度,实现了对 z 所携带信息量的惩罚,迫使网络以最短的比特数来编码 z。

种子长度 2 ( 交叉熵 / 重构损失 ) : 衡量了神经网络输出的谜题与真实已知谜题的匹配程度(即负对数似然)。匹配得越好,说明该谜题被成功重构,所需的 " 额外校正信息 "(即用于校正输出结果的种子)就越少。

不过,原始的算法 2 需要进行复杂的相对熵编码(REC),涉及指数级的计算,速度太慢。

因此,CompressARC 通过算法 3 跳过了这些复杂步骤,直接用 VAE 中的损失函数(KL 散度和交叉熵)来近似种子的预期长度。

这把原本不可行的 " 寻找最短程序 " 的组合搜索问题,转化成了一个可行的、可以用梯度下降(深度学习的标准优化方法)来求解的优化问题。

在架构方面,网络的全部目标是:在没有外部训练数据的情况下,通过内置的强大归纳偏置(Inductive Biases),使得网络本身就具有极高的概率能" 生成 " 一个合理的 ARC-AGI 谜题,从而使所需的种子信息量降到最低。

这包含四个方面的处理:

等变性与对称性处理:

架构内置了对 ARC-AGI 谜题常见变换的等变性(Equivariance),包括旋转、翻转、颜色置换和示例顺序置换。

这保证了网络能够默认赋予所有等价变换后的谜题相同的概率,避免了使用冗长代码来描述这些对称性,进一步缩短了程序长度。

数据结构:多张量(Multitensor):

网络内部并非使用一个单一的大张量,而是使用一个" 张量桶 " 或多张量(Multitensor),其中包含形状不同的张量,每个张量代表不同粒度的信息。

这种表示方式专门用于存储高层次的关系信息,从而提供了更有效的归纳偏置,使网络能够更容易地进行抽象推理。

核心骨干:类 Transformer 结构:

架构在结构上类似于 Transformer,采用一个残差骨干(Residual Backbone),由线性投影(读取 / 写入)和专门设计的操作组成,并重复运行 4 次。

整个模型仅有 76K 参数。这是因为大部分参数仅用于通道维度的线性读 / 写投影,而核心操作本身是无参数的。

归纳偏置:无参数的自定义操作:

网络的核心功能不是传统的注意力机制,而是一系列针对谜题规则高度定制的、无参数的操作,这些操作直接体现了对 ARC-AGI 谜题规则的先验知识:

信息汇总与传播: 沿着一个轴求和并将结果广播回去,实现不同粒度信息的交互。

几何操作: 沿着几何维度进行单像素平移(实现对象的移动 / 复制)。

拓扑 / 形状操作: 沿着几何维度取累积最大值(Cumulative Max),有助于捕捉图案的延伸、填充或边界等拓扑属性。

通过这种 " 高度工程化 " 的架构,CompressARC 确保了其对谜题的描述性程序能够被最大程度地压缩,从而在无预训练、数据极度受限的条件下,成功实现了对 ARC-AGI 谜题的泛化求解。

实验验证

为了评估 CompressARC 的性能,研究为 CompressARC 提供了 2000 个推理时训练步骤来处理每个谜题,每个谜题大约花费 20 分钟。

在这个推理时计算预算内,CompressARC 正确解决了 20% 的评估集谜题和 34.75% 的训练集谜题。(如开头所示)

总的来说,研究挑战了智能必须源于大规模预训练和数据的假设,其表明巧妙地运用 MDL 和压缩原理可以带来令人惊讶的能力。

CompressARC 作为一个概念证明,旨在展示现代深度学习框架可以与 MDL 结合,从而创建一条通往通用人工智能(AGI)的可能的、互补的替代路径。

One more thing

这篇论文的作者Isaac Liao目前是 CMU 机器学习系的在读博士生,师从Albert Gu教授。

他本科与硕士阶段均就读于麻省理工学院(MIT),且本科期间便拿下了计算机科学与物理学双学位。

他的研究兴趣包括最小描述长度(Minimum Description Length, MDL)、变分推断、超网络(Hypernetworks)、元学习、优化方法以及稀疏性。

值得一提的是,这项研究中用到的核心基准测试 ARC-AGI-1(Abstraction and Reasoning Corpus) 由 Google AI 研究员、深度学习库 Keras 的创始人Fran ç ois Chollet于 2019 年提出。

这一基准是为了应对当时深度学习方法在狭窄、专业任务上表现出色,但在展示类人泛化能力方面不足的现状,旨在评估 AI 处理新颖、未曾明确训练过的问题的能力,是衡量通用人工智能(AGI)能力的核心标尺。

它专门用于基准测试技能习得能力(智能的根本核心),而非在单一预定义任务上的性能。

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

专属 AI 产品从业者的实名社群,只聊 AI 产品最落地的真问题   扫码添加小助手,发送「姓名 + 公司 + 职位」申请入群~

进群后,你将直接获得:

  最新最专业的 AI 产品信息及分析  

   不定期发放的热门产品内测码

   内部专属内容与专业讨论

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

神经网络 mamba gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论