CVPR'21 | 大幅涨点!孙剑团队提出新激活层ACON和轻量级网络TFNet

马宁宁 将门创投 昨天
图片





图片

CVPR 2021 文章专题

第·14·期


图片
来自香港科技大学旷视科技的研究员联合提出一种新的激活函数ACON (activate or not),可以自适应地学习激活与否。
ReLU是最常见的激活函数,最近NAS搜到的Swish在各种SOTA网络结构中逐渐取代ReLU。有趣的是,我们发现虽然两者形式看起来很不一样,但Swish可以解释为ReLU的一种平滑近似。基于这个发现,本文进一步分析ReLU的一般形式Maxout系列激活函数,从而得到Swish的一般形式、简单且有效的ACON激活函数

本文在多个任务上验证了此方法的涨点性能和泛化性能(例如在MobileNet-0.25和ResNet-152上,分别将ImageNet准确率提高了6.7%和1.8%),这表明ACON对已有的激活函数中是一种有效的替代方法

图片

知乎原文:

https://zhuanlan.zhihu.com/p/363274457

论文链接:

https://arxiv.org/pdf/2009.04759.pdf

代码:

https://github.com/nmaac/acon

图片

、ReLU和Swish的关系
前面提到,NAS在现代激活函数方面取得了成功,NAS搜索到的Swish已经在EfficientNet等许多SOTA模型中已经成为默认配置,但如何解释Swish背后的原理呢?本文的一个目标是提出一个新的视角,去解释这个搜索结果背后的机制,并研究更有效的激活功能。下面会详细讲解如何把Swish理解为ReLU的一种平滑近似
对于一个最大函数 图片 , 我们可以通过一个简单而通用的近似公式来获取他的平滑近似:
图片

这里引入了一个 图片 ,它控制着 图片 的平滑程度:

当 图片 时, 图片 (非线性)

当 图片 时, 图片 算术平均 (线性)

从下面的示例图可以更形象的看出 图片 的作用:
图片
对于公式(1),我们仅考虑n=2的情况,可以推导成下面用sigmoid来表示的形式,其中用 图片分别代表这两项:

图片

我们发现上面的形式看起来仍然很复杂,但当我们把 图片 代入合适的值,有意思的事情就发生了:

我们发现,当 图片 时,图片 恰好是 ReLU 的表达式,而图片 又恰好是 Swish 的表达式。于是,我们可以把 Swish 解释为 ReLU 的这样一种平滑近似。

二、ReLU的一般式和Swish的一般式的关系

前面给出了一种新的视角解释了 ReLU 和 Swish 的关系,下面本文对 ReLU 的一般式 Maxout 做出同样的平滑近似,便得到了一簇新的激活函数,即 ACON 系列激活函数。其中 ReLU 是 Maxout 的一种特殊形式,Swish 是 ACON 的一种特殊形式。

图片

我们把 图片 代入不同的值,得到上表中的不同形式,我们着重分析ACON-C,计算它的导数:

图片

看起来会新增加额外的参数图片 , 我们画出下图来更直观的理解它。可以发现在一阶导中,图片 控制着其渐进上下界的速度,而 图片则控制着上下界的值,这一点是Swish所欠缺的,后面的实验也会证明 图片的重要性。
图片

图片

验证ACON-C中p1,p2的涨点性能,即使在大模型Res152上也有1.1的涨点

三、ACON 的更多特例 ACON-FReLU

前面对Maxout中 图片 的不同取值做了分析。最近专门针对视觉任务的新激活函数 FReLU (Funnel Activation for Visual Recognition) 也是Maxout的一种特例,本文设图片 后,得到了 ACON-FReLU,并且基于此模块,设计了一个仅由 Conv1x1 和 ACON-FReLU 组成的轻量级block:

图片
以此 block 为基础搭建了 Toy Funnel Network (TFNet),来验证 ACON-FReLU 的有效性:

图片

图片

和同样不含SE模块的轻量级网络相比可以看到明显优势

四、Meta-ACON

前面对 图片 的不同变体着重做了分析,但前面提到 图片 也同样重要因为其控制了激活程度。然而,从实验结果来看,在 Swish 的原始文章中也提到,图片 作用不大,即使 图片 固定为1(Swish-1),也能取得差别不大的性能。
这与我们前面对 图片 的分析相违背,于是,本文对 图片 用非常简单直接的小网络结构去生成,即显式地学习激活程度而不仅仅是把 图片 作为一个参数,这样就解决了 图片 效果不大的问题:

图片

下面在不同任务上展示此方法的有效性,可以看到,Meta-ACON 取得了相比于 SENet 几乎两倍的涨点:
图片
图片
在大模型和小模型都能有非常显著的涨点,且随着模型变大,涨点效果没有明显减弱
图片
图片
从学习曲线可以看到ACON-C相比于Swish的优势在于后期仍能有提升,Meta-ACON则效果跟为显著
图片
在其他任务上的泛化性能
更多细节请参考原文代码
Illustrastion by Oleg Shcherba from Icons8
- The End -

CVPR 2021 论文解读 

// 1

 SensatUrban: 城市规模点云数据集

// 2

 上交和国科大提出DCL: 旋转目标检测新方法

// 3

 TPCN 点云就是这么美妙

// 4

 机器学习与传统算法融合的图相似度求解

// 5

 图森未来团队提出LiDAR R-CNN:一种快速、通用的二阶段3D检测

// 6

 动态slimmable网络:高性能的网络轻量化方法!对比slimmable涨点5.9%!

// 7

 VSPW: 首个多场景大规模视频语义分割数据集

// 8

 图森未来与中科院自动化所提出GMTracker:一种基于图匹配的多目标跟踪方法

// 9

 SpinNet: 学习用于3D点云配准的强泛化能力的特征描述子

// 10

 RegDA:针对无监督关键点检测的回归域自适应方法

// 11

 都柏林圣三一大学和字节新工作ACTION-Net:一种高效、即插即用的动作识别模块

// 12

 大连理工大学卢湖川团队提出TransT: Transformer Tracking

// 13

 DisAlign: 面向多种长尾视觉任务的统一框架


图片

扫码观看!

本周上新!

图片
关于我“
将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务将门技术社群以及将门创投基金

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”: 
bp@thejiangmen.com
图片    
点击右上角,把文章分享到朋友圈