张量分析与微分几何(张量分析是大学什么阶段学的)

本文研究了梯度下降算法在过度参数化下的隐式稀疏正则效应。我们研究了一类特殊的神经网络,也就是对角线性神经网络。我们将之前在网络深度为2的理论结果拓展到了一般的深度为N的网络, 并且进一步说明了深度对于隐式稀疏正则效应的影响。我们发现更大的深度,可以允许更大的初始化值和更大的早停时间窗口,在真实模型是稀疏的情况,更深的模型反而更容易找到一个可以泛化的模型。我们希望本工作可以加深对于梯度下降算法在训练深度神经网络时的隐式正则效应的理解。

首先,我们将介绍一下为何要关注这个问题。众所周知,深度神经网络在很多问题的处理上都有着优秀的表现,然而对于DNN这样模型的泛化性质却一直没有很深入的研究。难点主要集中在两个方面,一方面是模型高度相似化,复杂度很高则会导致其所代表的行数空间复杂度也会很高;另一方面,经验风险最小化的优化问题往往是一个复杂的非凸问题。所以我们得到理论上的泛化性质保证是很难的。

但是,实际中我们已经观察到了这些高度参数化的DNN模型泛化能力是非常好的,只是训练起来很麻烦。我们需要设计一个很巧妙的、且和我们任务高度契合的架构。这些训练中的小技巧也是在帮助我们从这个非凸问题的很多解之中选择泛化能力较好的那个解,也就是说模型的机构和训练方法一起提供了一个隐性正则效应。对于这种效应,也存在着许多种解读。

本期AI TIME PhD直播间,我们邀请到美国德州农工大学统计系博士生—李江元,为我们带来报告分享《神经网络中的隐性稀疏正则效应》。

李江元:美国德州农工大学统计系四年级博士生,导师是Raymond Wong。在此之前,他于2018年在德州农工大学获得应用数学硕士学位,导师为Simon Foucart,2017年在北京航空航天大学华罗庚班获得数学学士学位。他的研究方向是压缩感知,矩阵补全,非凸优化以及统计机器学习理论。相关工作发表于Acta Applicandae Mathematicae, ICASSP, NeurIPS等。


Incremental Learning

● 一种是说这些训练方法倾向于光滑的解, 这方面的代表工作有关于double descent curve和representation cost的一些文章。

● 一种可能的解释是“增量学习”incremental learning——基于梯度的方法学到的东西也是从简单到复杂的。就比如说矩阵的话,大的奇异值会被首先学习出来,对于向量而言呢,绝对值大的地方也会被首先学习到。这样的话,如果应用早停法,我们就可以轻松得到一个低秩或者稀疏的解。

我们研究的最终目标是理解深度神经网络的泛化能力,但是目前对于复杂的网络很难有一个统一的模型去研究。因此,我们选择从简单的模型出发,去理解其中存在的隐性正则效应,如线性模型、矩阵分解和张量分析。在本研究中,我们选择从稀疏线性模型的角度来理解人工神经网络的隐性正则效应。

Setup

我们的设定也是一个标准的线性模型设定,真实模型也是一个稀疏模型w*。我们想要获取对于w*的学习和恢复。

张量分析与微分几何(张量分析是大学什么阶段学的)

一般的思路是有一个显式的正则项,无论是从0范数还是1范数去构建一个显性正则项,以获得一个稀疏的求解。但是在本研究之中,我们选择去研究这个隐性正则项,直接进行求解,而不用任何显式正则的方法。

我们首先做的不是对w进行求解,而是把w写成一个如下形式:

张量分析与微分几何(张量分析是大学什么阶段学的)

u和v是我们的两个参数,也是两个向量。该表达也等价于权重共享的对角线性网络。

目标函数Unpenalized squared loss如下式:

张量分析与微分几何(张量分析是大学什么阶段学的)

初始化:u0 = v0 = α1

Implicit Sparse Regularization

首先,我们能否得到一个隐性稀疏的正则效应呢?在深度为2的情境下,梯度下降可以得到稀疏信号求解的——当N = 2时,梯度下降提前停止恢复稀疏信号。我们要做的就在前人研究的基础上将结果拓展到一般深度N上。

Theorem

张量分析与微分几何(张量分析是大学什么阶段学的)

我们证明了存在一个迭代次数的上界和下界,对于任何满足条件的迭代次数都会有最优恢复的信号效果。

The Efficacy of Different Depth-N

我们之后在MNIST上验证了一下上述方法的可行性,得到了如下图的图像,可以看到对于不同深度都可以获得一个不同程度的图像恢复。

张量分析与微分几何(张量分析是大学什么阶段学的)

为了了解是如何实现的这一效果,我们进行了以下探究。

Gradient Dynamics梯度动力学

关于公平的综合性,我们学习到的表示应该符合以下特性:不应该暴露用户的敏感

张量分析与微分几何(张量分析是大学什么阶段学的)

The Impact of Depth and Early-Stopping 深度和早停法的影响

在将深度为2的神经网络上的隐性正则效应推广到一般的深度为N的神经网络上之后,我们也想要进一步去研究深度和初始化对于隐性正则效应的影响。基于我们的定理,我们获得了以下三个推论。

Decreasing Initialization Enlarges Early-Stopping Window

首先是,对于初始化的尺度发生变化,如果初始化尺度减小,之前所提到的早停法的上界和下界的差值是增大的。这样的结论对于深度为2的网络是已经存在的,基于我们的定理,我们把它推广到了一般的深度为N的网络。

Increasing Depth Enlarges the Early-Stopping Window

其次,我们也证明了对于同样的初始化和步长,早停法的上下界之间的差是随着深度的增加而增加的。其基本的想法是基于迭代中额外的项能加速信号支集上的收敛速度,以及减缓支集外的误差累计速度。

张量分析与微分几何(张量分析是大学什么阶段学的)

上图是对于真实信号大小为1时,每一坐标的解随着训练次数的展示。

张量分析与微分几何(张量分析是大学什么阶段学的)

上图是信号恢复的误差大小随训练次数的展示。从这两张图可以看出:在确定所有N的初始化α和步长η值时,早期停止窗口大小随深度N的增加而增大。

Increasing Depth Allows Larger Initialization

张量分析与微分几何(张量分析是大学什么阶段学的)

我们证明了的最后一个推论是关于深度和初始化之间的关系。做初始化的时候,我们都需要在0附近找一个较小的值。而随着深度的增加,对于初始化的大小会更加宽松,即获得更大的初始化,这也意味着更快的收敛。

Empirically Observed Phenomena

与此同时,我们也有一些观察到但没有在论文中证明的现象,主要集中在以下两个方面。

张量分析与微分几何(张量分析是大学什么阶段学的)

首先,关于增量学习。

● 精确的增量学习仍然有效。

● 理论上的论证依赖于对噪声(误差)更仔细的描述。

张量分析与微分几何(张量分析是大学什么阶段学的)

● 大的初始化意味着隐含的2-范数正则化(核机制)。

我们发现如果我们增大初始化,会看到对于不同深度也可以获得一个类似于隐性2-范数的正则化,只是没有证明。之前的证明都是基于没有噪音和深度为2的条件,深度为N和有噪音的情形还需要一种不同的框架来证明这样的结果。

Conclusions

● 我们重点研究的是梯度下降算法的隐性稀疏正则效应,即初始化较小的类型。我们将已有的隐性稀疏正则效应从深度为2的对角线性网络推广到一般的深度为N的对角线性网络。

● 我们证明了早停窗口大小可以随着深度- n的增加而增加,而且增加的深度允许更大的初始化尺度。

● 我们希望此工作能够提供对隐式稀疏正则化的更多理解。

论文题目:

Implicit Sparse Regularization: The Impact of Depth and Early Stopping

论文链接:

https://proceedings.neurips.cc/paper/2021/file/ee188463935a061dee6df8bf449cb882-Paper.pdf

领取300本育儿电子书,30门名师育儿大课,添加 微信:egm229  备注:M

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 1065899103@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.zbjhj.cn/2813.html