近五年来,AI学术论文的投稿量和接收量都在不断攀升,包括NeurIPS、AAAI、ACL,ICML、EMNLP等国际顶会。根据权威数据统计,NeurIPS论文收录量在2019年呈指数级增长,领先AAAI近300篇;而AAAI 在2020年创下历史新高,达到了1692篇。如何在海量论文库中发现最具影响力的论文,谷歌引用次数是学者们参考的一项重要指标,它在一定程度上反映了论文的质量。近日,知名外媒《Towards Data Science》按这一指标,统计了近五年来发表在各大国际顶级会上引用量排名前十的论文。根据统计结果显示,Top 10 论文引用量最高为67514次,最低6995次,全部出自ICLR、NeurIPSR、NeurIPS、ICML以及《Nature》四家期刊,覆盖深度学习、机器学、强化学习、视觉处理、自然语言处理等多个领域。其中,智能体AlphaGo、Transfromer模型、强化学习算法DQN,以及神经网络优化算法Adam全部在列。
大部分论文所属研究机构为Google Brain 、Facebook AI Research、DeepMind以及Amsterdam University,作者包括我们熟知的AI大佬Ian J. Goodfellow,Kaiming He Thomas Kipf 、Ashish Vaswani 等。下面AI科技评论按引用次数从低到高的顺序对Top 10 论文进行简要整理: Top10:Explaining and Harnessing Adversarial Examples
作者:Ian J. Goodfellow, J Shlens, C Szegedy ,收录于 ICLR 2015,引用 6995次.
现阶段,DeepMind已将AI训练从围棋游戏扩展到了更为复杂的即时战略性游戏《星际争霸2》,所推出的智能体AlplaStar同样达到了战胜顶级职业选手的水平。影响力:计算机程序第一次战胜人类职业选手,这是人工智能历史上的一个重要里程碑。 Top 6:Human-level control through deep reinforcement learning
作者:Volodymyr Mnih 、Koray Kavukcuoglu et al. 2015年被《Nature》收录,引用13615次。
图注:英法翻译的注意矩阵, 较浅的区域代表单词之间相似性很高 影响:在机器翻译中,RNN等传统模型试图将源语句的所有信息压缩成一个向量。而本篇论文提出模型应将每个词表示为一个向量,然后关注每个词,这一认识对于神经网络的构建是一个巨大的范式转变,不仅在NLP领域,在ML的所有其他领域均是如此。Top 4:Attention is all you need
图注:在PASCAL VOC 2007测试中,使用RPN可以检测各种比例和宽高比的物体影响:更快速是R-CNN是在工业场景中被广泛应用的主要原因之一。它在安全摄像头、自动驾驶和移动应用程序中的应用极大地影响了我们对机器的感知。 Top2:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
作者:Sergey Ioffe and Szegedy, 收录于ICML 2015, 引用 25297次。