2017年12月3-9日,第31届神经信息处理系统大会在美国加州长滩市举行。NIPS(Conference and Workshop on Neural Information Processing Systems)始于1987年,最初是定位为研究探索生物和人工神经网络的互补性开放跨学科会议。随着近年来尤其是2012年之后的机器学习的逐步兴起,NIPS的关注度与日俱增,成为了人工智能领域参与人数最多的学术会议之一。今年的NIPS可谓火爆异常,有超过8000人注册参会,投递论文数量3240篇,收录678篇,录用率20.9%。而今年NIPS的门票也在开放注册一小时内售罄,有许多希望感受大会气氛的同学也因此未能前往现场。
在上个星期的大会期间,雷锋网为大家进行了大会现场的报道,关于大会的更多干货内容,我们也将陆续进行后续整理放出。近日雷锋网发现,布朗大学三年级博士生David Abel将自己在NIPS 2017上旁听的所有演讲及有价值的论文等全部整理成了一份43页的PDF文件,并鼓励大家进行传播分享。尽管David无法参加大会所有议程,但在PDF中我们仍然能看到不少有价值的总结。
关于这份PDF中的部分重点内容雷锋网摘录如下:
Ali Rahimi“时间检验奖”获奖演讲。雷锋网在此前有详细报道(参见雷锋网文章《NIPS 2017 “时间检验奖”获奖感人演讲:从“炼金术”到“电力”的机器学习》)。在演讲中Rahimi回顾了其十年前顶着“学术警察”对于机器学习这门新学科的质疑前进的过程,并将机器学习比喻为(早期的)“炼金术”,提出经过十年的发展,机器学习需要从野蛮生长到建立一个完整的体系的过程,并号召大家去为机器学习的理论框架添砖加瓦。值得一提的是,Ali关于机器学习与炼金术的比喻也引发了一番争议,参见《“深度学习才不是炼金术”,Yann LeCun为这个和NIPS获奖论文作者掐起来了》
(Ali Rahimi演讲中)
Joelle Pineau关于Deep RL重现性的演讲(12月5日,D1房间Demostration)。Joelle Pineau是McGill大学副教授,其演讲的中心思想是,假设有两种不同算法(我们称之为A和B),这两种算法可能根据所选择的随机种子点在完全相同的任务上取得不同的效果。换言之,如果算法A与某个随机种子点在统计学上显著优于B算法,而随着选择不同的随机种子点,在下一轮中可能算法B会占据优势。这项研究很有意思,因为在深度RL中,大多数结果的形式是:“我们的算法在任务X和Y上做得更好”,而Joelle的研究则揭示了这种“更好”的另一面。关于这一现象雷锋网此前也有讨论,参见:《用深度学习每次得到的结果都不一样,怎么办?》
Josh Tenenbaum就人类行为的逆向工程智能的Tutorial 分享(12月4日,Hall C,当时雷锋网正在关注同期进行的Lecun参加的另一个Tutorial)。Josh Tenenbaum是计算认知科学领域的大牛,在本次NIPS大会上,其指导的学生有多篇论文发表。Josh介绍了对直觉(Common sense)的逆向工程的相关研究,以及利用概率程序为工具,产生世界的下一个状态作为一个近似的“头脑中的游戏引擎”的模型。 这一直观的物理学和心理学的跨界研究对人工智能如何更好模拟人类行为有着指导性的意义。关于计算认知科学的具体应用,参见我们此前对Josh Tenenbaum的博士后赵一彪创办的iSee.ai的相关报道:《The Engine公布第一批“改变世界”的被投公司名单 iSee.ai名列其中》
Kate Crawford的Keynote演讲:《The Trouble with Bias》(12月5日,Hall A)。Kate是纽约大学教授和微软纽约研究中心的首席研究员,也是本次大会的颜值担当(本次NIPS上雷锋网编辑就遇到了Kate的迷妹要赶去听Kate的演讲和合影)。在演讲中,Kate讲述机器学习了在高风险决策中存在偏差的原因及在医疗保健、刑事司法、教育等核心社会机构中的应用,并提出解决这种偏差的新策略。
(Kate Crowford演讲中)
除此之外,该份笔记还对大会每一天的亮点内容进行了总结,以及对十余篇论文现场讲解的笔记。更多精彩内容,可关注雷锋网AI科技评论微信公众号(aitechtalk)回复“NIPS 2017笔记 ”获取下载链接。
此外,为便于更好对照学习,雷锋网也将这份笔记中提到的演讲、论文打包,包括下列20个PDF:
1. Josh Tanenbaum NIPS 2017 Tutorial Slide
2. Safe and Nested Subgame Solving for Imperfect-Information Games
3. Fast Rates for Bandit Optimization with Upper-Confidence Frank-Wolfe
4. Diving into the shallows: a computational perspective on large-scale shallow learning
5. Monte-Carlo Tree Search by Best Arm Identification
6. Deep Mean-Shift Priors for Image Restoration
7. Deep Voice 2: Multi-Speaker Neural Text-to-Speech
8. Graph Matching via Multiplicative Update Algorithm
9. Dynamic Routing Between Capsules
10. Pieter Abbeel NIPS 2017演讲Slide
11. ELF: An Extensive, Lightweight and Flexible Research Platform for Real-time Strategy Games
12. Imagination-Augmented Agents for Deep Reinforcement Learning
13. A simple neural network module for relational reasoning
14. Scalable trustregion method for deep reinforcement learning using kronecker-factored approximation
15. Off-policy evaluation for slate recommendation
16. Robust and efficient transfer learning with hidden parameter markov decision processes
17. Inverse reward design
18. Dynamic safe interruptibility for decentralized multi-agent reinforcement learning
19. Repeated inverse reinforcement learning
20. Learning with options that terminate off-policy
加入雷锋网会员或付费即可下载。