打开网易新闻 查看更多图片

新智元报道

编辑:润 桃子

【新智元导读】来自UC伯克利,港大等机构的研究人员,开创性地提出了一种「白盒」Transformer结构——CRATE。他们通过将数据从高维度分布压缩到低维结构分布,实现有效的表征,从而进一步实现了有竞争力的模型性能。这也引发了一个更为深远的讨论——难道智能的本质就是压缩吗?

AI界大佬对于大模型的安全问题一直以来争吵不休,全都归咎于神经网络「黑盒」,让所有人捉摸不透。

现实中,如果能找到一种构架,兼具Transformer的结构和功能性优势,又有极好的可解释性。

那么,大模型的安全性问题,是不是就有解了?

为了消除未来超级AI给人类带来的风险,Hinton等人大肆鼓吹「AI末日论」,也许能吸引公众注意力,促进达成共识。

但最终解决问题,必须要从技术层面找到能「彻底消灭」AI风险的可行路径。

拆解大模型「黑盒」,就成了最关键一步。

由马毅教授带领的来自UC伯克利,TTIC,上科大,UIUC,JHU,港大的研究人员,开创性地提出了一种「白盒」Transformer构架——CRATE,能在保持模型良好性能的同时,大大增强模型的可解释性。

打开网易新闻 查看更多图片

论文地址:https://arxiv.org/abs/2311.13110

压缩,就是AI系统的本质?

在研究人员看来,要想获得可解释的深度神经网络,必须要从「第一性原理」出发,抓住深度学习的本质。

AI教父Hinton在90年代,就提出了「深度学习的本质可能就是压缩」的概念。

众多AI大佬,在各种场合对这个概念性的提法做出了一些经验性的总结,继续扩展了这一理论。

例如,8月份,OpenAI首席科学家Ilya Sutskever在UC伯克利的一个AI理论讲座上分享到:

「压缩可能就是学习的本质!」

https://simons.berkeley.edu/talks/ilya-sutskever-openai-2023-08-14

而马毅团队通过5年多的努力,完成了在这篇长达124页的论文,更加完整地提出了这个理论。

更为重要的是,他们根据这个理论进一步设计出了可以执行的算法,并在实践中获得了非常好的性能表现。

打开网易新闻 查看更多图片

CRATE在屏蔽自动编码的任务上实现了有竞争力的表现

研究团队认为,数据表征学习的核心目标是将数据从高维度分布压缩到低维结构分布,从而实现有效的表征。

这种压缩可以通过「稀疏编码率减少」这个量化指标来衡量。

研究团队通过朴素的优化架构,将压缩和稀疏作为损失函数,可以迭代地将数据分布压缩到低维混合高斯分布模型,从而推导出类似Transformer的神经网络结构。

这就是构建类Transformer构架的第一性原理。

而进一步证明压缩和去噪之间存在内在等价关系,就可以为构建Decoder提供理论依据,让编码器和解码器具有几乎相同的结构。

研究团队的实验结果表明,尽管架构较简单,CRATE在许多任务和数据集上都能与现有的Transformer模型获得类似的表现,同时其每一层和操作都可以明确解释。

分析结果表明,CRATE相对于标准Transformer确实具有更强的可解释性。

深度学习研究的新范式

而这个研究另一方面的意义在于,它一针见血地指出了:

「压缩就是一切。」

在马毅教授看来:

我们的这项研究表明:压缩似乎是当前人工智能系统的全部,包括 GPT-4。 剩下的问题是:仅压缩就能带来一般智能甚至意识吗?我敢打赌,答案显然是否定的。

通过这项研究,所有人对Transformer类型的AI系统获得了更加清晰的理解。

而这就进一步说明,在外界看起来神奇和神秘的AI产品,只要背后的技术是基于Transformer,那就不太可能做超出纯机械数据压缩(编码)和插值(解码)的事情。

之所以大众对于AI产品会有很多不美丽的幻想,可能根本原因就在于深度学习理论和实践长期脱节。

而研究团队的这项工作,就是想弥合理论和实践之间的鸿沟,从而让AI产品背后的技术,理论都能严谨地结合起来。

而将理论层面的问题厘清之后,研究人员能看到,现有的系统离真正的智能系统还有很远的距离,未来还有太多提升的空间。

现有的Transformer构架可能只是一种性价比不高的系统,后来人还需要继续努力!

马毅教授在和我们的沟通中表示:现在甚嚣尘上的「AI末日论」,直接促使他们紧迫地整合各个方法,用学术界有限的资源,去尽力完整充分地对理论进行验证。

如果在时间和资源上更充裕,实验的验证部分将会更加充分,规模可以更大。

在完成这项工作,弄清了现有方法的边界和本质之后,研究团队会投入到更重要,更有开拓性的工作中去。

而「AI末日论」如果最后导致人工智能的研究被限制,甚至扼杀,将有违所有人的利益。而如果因此造成了可能的垄断,更是不可接受。

白盒Transformer——CRATE

研究人员根据第一性原理构建了一个类似Transformer的架构,取名为CRATE(Coding RATE transformer)。

它在很多标准任务上能达到很有竞争力的性能,同时还具有许多附带的优点。

CRATE是一种白盒(数学上可解释的)Transformer架构,其中每一层执行交替最小化算法的单个步骤来优化稀疏率降低目标(sparse rate reduction objective)。

打开网易新闻 查看更多图片

其中, norm提高了最终token表征 的稀疏性。函数定义如下:

其中, 是预处理映射, 是 层前向映射,它转换token分布以逐步优化上述稀疏率降低目标。

更具体地说,将token表征为。

通过以下方式转换为(多头子空间自注意力)块和ISTA(迭代收缩阈值算法)块,即

构架

CRATE的构架如下图所示:

将输入数据 X 编码为标记序列 Z1 后,CRATE构建了一个深度网络,通过针对局部模型的连续压缩,将数据转换为低维子空间的规范配置分布,生成 ,并针对全局字典进行稀疏化,生成 。

重复堆叠这些块并通过反向传播训练模型参数,可以产生强大且可解释的数据表征。

完整的架构只是这些层的串联,以及一些初始tokenizer和最终基于不同任务的架构(例如,分类头)。

分类

以下是CRATE 的分类流程。它和常见的视觉Transformer原理是相同的。

研究人员使用软最大交叉熵损失(soft-max cross entropy loss)来训练监督图像分类任务。以类似的缩放行为,他们使用经过分类训练的常用ViT获得了很有竞争力的性能表现。

例如,使用只有25%参数的ViT在ImageNet-1K上达到80%以上的top-1准确率。

分割和目标检测

CRATE的一个有趣现象是,即使在监督分类方面进行训练,它也会学习对输入图像进行分割,并且这种分割可以通过注意力图轻松恢复,如下面的流程(类似于 DINO)。

这种分割以前只在DINO中使用复杂的自监督训练机制的类似Transformer的架构中看到,但在CRATE中,分割是监督分类训练的副产品。特别是,该模型在任何时候都不会获得任何先验分割信息。

下面,研究人员展示了一些分割示例。

CRATE的另一个显著的特性是注意力头自动携带语。这意味着CRATE的任何分类结果都能进行事后的解释。

下面,研究人员将一些注意力头在几张图中的几种动物上的输出进行了可视化,显示了注意力头对应于动物的不同部分。而且结果表明,这种对应关系在不同动物的图片以及不同类别的动物图片中都是一致的。

自动编码

研究人员使用以下流程将CRATE扩展出了自动编码的能力。

我们以扩散/最佳传输启发的方式构建解码器的每一层 :

CRATE架构的这种变体在屏蔽自动编码任务上实现了具有竞争力的性能,如下面的示例所示。

此外,它还获得与经过分类训练的CRATE相同的涌现属性(如上所示)。

理论原理

研究人员通过对稀疏率降低的展开优化来推导编码器架构。优化稀疏率降低的表征ƒ是压缩和稀疏的,如下图所示,研究人员将它们描述为由编码器ƒ实现:

在CRATE中,压缩运算符 和稀疏化算子 是稀疏率降低目标不同部分的近似(近端)梯度步骤。

为了导出解码器架构,研究人员提出了一种新颖的结构化去噪扩散(structured denoising-diffusion)框架,该框架类似于广泛用于图像数据生成模型的常见(普通)去噪扩散框架。

他们的框架依赖于压缩算子和得分函数(如在去噪扩散模型中使用)之间的定量连接,如下所示:

编码器和解码器分别通过结构化去噪和扩散过程的离散化而导出。重要的是,从展开优化导出的编码器和从结构化去噪导出的编码器具有相同的架构,如上所述。

GitHub项目

https://github.com/Ma-Lab-Berkeley/CRATE

可以使用以下代码定义一个CRATE模型。(参数是为CRATE-Tiny指定的)

from model.crate import CRATEdim = 384n_heads = 6depth = 12model = CRATE(image_size=224,patch_size=16,num_classes=1000,dim=dim,depth=depth,heads=n_heads,dim_head=dim // n_heads)
预训练检查点 (ImageNet-1K)

在ImageNet上训练CRATE

要在ImageNet-1K上训练CRATE模型,请运行以下脚本(训练 CRATE-tiny)。

作为示例,使用以下命令在 ImageNet-1K 上训练 CRATE-tiny:

python main.py--arch CRATE_tiny--batch-size 512--epochs 200--optimizer Lion--lr 0.0002--weight-decay 0.05--print-freq 25--data DATA_DIR

并将DATA_DIR替换为[imagenet-folder with train and val folders]。

在CIFAR10上微调预训练/训练随机初始化的CRATE

python finetune.py--bs 256--net CRATE_tiny--opt adamW--lr 5e-5--n_epochs 200--randomaug 1--data cifar10--ckpt_dir CKPT_DIR--data_dir DATA_DIR

将CKPT_DIR替换为预训CRATE权重的路径,并将DATA_DIR替换为CIFAR10数据集的路径。

如果CKPT_DIR是None ,则此脚本用于在CIFAR10上通过随机初始化来训练 CRATE。

参考资料:

https://arxiv.org/abs/2311.13110

https://ma-lab-berkeley.github.io/CRATE/