资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

AAAI 七大精华大盘点,零距离体验国际人工智能大会

作者:老王
2017/02/07 20:39

2月4日至2月9日,旧金山迎来人工智能的国际顶级会议——AAAI 2017。

AI科技评论作为前赴第一线现场报道的中国媒体,在大会期间为大家梳理了一份AAAI 2017的现场精华集锦。内容包括七大部分,让你即便不在现场也能感受一番“故事在手,天下我有”的体验。

一、百度、腾讯、华为……哪些国内公司的论文被 AAAI 收录?

今年的 AAAI 2017 上,百度、腾讯、华为、360、今日头条、携程、iPIN 等公司的人工智能团队都有论文被收录。

百度

今年百度共有两篇论文被 AAAI 收录,分别是《Collaborative Company Profiling: Insights from an Employee's Perspective》和《Localizing by Describing: Attribute-Guided Attention Localization for Fine-Grained Recognition Xiao》。第一篇论文主要通过介绍如何对人力资源实现人工智能化的管理。据称,百度的智能化人才管理系统目前算得上是全球首创,将采用人工智能探讨如何从员工的视角让公司产生更大的人力价值。

百度IDL主任林元庆也领导团队提交了一篇关于本地化描述的深度学习论文,主要是解决基于细粒度的识别定位。团队认为,这一问题的核心挑战在于寻找最具区分度的本地区域,并引入了一个属性引导的定位方案。通过设计一种新型的奖励策略,团队能够让机器在强化学习算法上实现区域空间与语义的区分。此外,团队在 CUB-200-2011 数据集上也已经证明了该方案的优越性。

腾讯优图实验室

腾讯优图实验室与厦门大学合作撰写的学术论文「Towards Optimal Binary Code Learning via Ordinal Embedding」被 AAAI 2016 收录,其中提及了保持相对排序的哈希排序算法(OEH+DTW,Ordinal Embedding Hashing and Dynamic Time Warping),采用监督学习,改进了传统哈希搜索技术中的效能问题。而在今年的「Ordinal Constrained Binary Code Learning for Nearest Neighbor Search」中,黄飞跃采用了一种新型的保持排序散列方法,即 Ordinal Constraint Hashing (OCH),并在三个大规模视觉搜索基准数据集(LabelMe, Tiny100K 和 GIST1M)中取得了性能较好的结果。

华为诺亚方舟实验室

华为诺亚方舟实验室的李航团队在今年也同样有新成果,在「Neural Machine Translation with Reconstruction」中,团队认为虽然端到端神经机器翻译(NMT)在过去两年取得了进展,但一个主要缺点在于 NMT 系统生成的翻译通常缺乏充分性(adequacy),即反复翻译一些单词而错误地忽略其它单词。为了解决这个问题,团队提出了一个「编码-解码-再现器」的 NMT 框架,能够显著提升 NMT 输出的充分性,并获取更好的翻译结果。

360

360 首席科学家颜水成教授的团队今年也有论文入选 AAAI 2017,「Multi-Path Feedback Recurrent Neural Network for Scene Parsing」,论文考虑通过多路径反馈的递归神经网络实现了现场解析。这个新颖的 MPF-RNN 能够提高 RNNs 在不同层次的远程环境建模的水平,比起原本容易混淆的图像,能够获得更理想的分辨像素。与前馈 CNN 与 RNN 只具有单一反馈不同,MPF-RNN 学会在顶部层级通过多种上下文特征学习底部特征的加权连接。

携程

携程科研团队的论文也同样被 AAAI 2017 收录,这篇名为「A Hybrid Collaborative Filtering Model with Deep Structure for Recommender Systems」的文章基于公司自主研发的通用化推荐系统而写就,并获得了上海经信委专项基金支持。根据携程团队的说法,论文提及系统采用了深度神经网络的自动编码技术,目前陆续落地了 50 余个个性化场景,而某些场景的转化率提升了 13 倍之多,有效地提升了用户的出行体验。

iPIN

iPIN 团队的「Recurrent Attentional Topic Model」则利用了深度学习技术在文档实现建模,增加了句间的语义相关性,并基于 Topic Model 应用于社会经济图谱,并研发一个类 Watson 的认知框架,以辅助用户决策。“Alpha Go 虽然在围棋上战胜了世界冠军,但是它的决策过程依然是一个黑箱,我们无法知晓它走某一步棋背后的原理何在。IBM Watson 与其他人工智能公司的最大不同在于,它们将理解和分析融入到机器学习中去,而我们也同样会将机器在决策中的分析过程以逻辑的形式梳理出来。”iPIN CEO 杨洋向雷锋网表示,虽然目前公司的研究成果还处于试验阶段,距离真正的应用还有一段距离。

二、重点主题演讲

AAAI 每年所邀请的演讲嘉宾也顺利成章地成为了关注的重点。今年共有六位学术大牛受邀来到了旧金山,与观众们分享人工智能的研究观点。以下为雷锋网整理的嘉宾演讲及主题:

2 月 5 日,田纳西大学与国家科学基金 Lynne Parker:《美国国家人工智能研究及发展战略计划的创新之处》。此前雷锋网曾经报道过关于这位学界大神的介绍,更多可参看《琳恩帕克:调教一个机器人不难,她要教一群机器人自动「聚沙成塔」》

2 月 6 日,MIT 的 Rosalind Picard:《构建情感智能技术存在的风险》;

2 月 7 日,剑桥大学工程部 Steve Young:《机器学习的统计语音对话系统及其挑战》;同一天下午还有伦敦大学教授 Peter Dayan的《神经强化学习与人工强化学习的兼容性》;

2 月 8 日,德克萨斯大学奥斯汀分校 Kristen Grauman:《根据无标签视频,机器如何学习移动与观察方位》;

2 月 9 日,MIT CSAIL 与本田研究院 Russ Tedrake:《现实世界中,动态机器人的凸度与组合优化》;

此外还有谷歌 Dmitri Dolgov、NASA 的 Jeremy Frank等人的沙龙会议。

三、有哪些大牛进行了分享

除了上述6大重点演讲外,雷锋网全程跟进了多位AI大牛的分享。

谷歌首席科学家 Vincent Vanhoucke

Vincent Vanhoucke是Google的首席科学家,斯坦福大学电子工程学博士,目前在Google Brain主导机器人相关的项目。Vanhoucke主要的研究领域是语音识别、计算机视觉和机器人等领域,他还即将主持机器人领域的盛会CoRL 2017(Conference on Robot Learning)。

Vanhoucke在AAAI大会中提到:机器智能现在已经发展到一个相当的水准,在某些特定情境下的表现可以媲美(甚至超越)人类,比如机器视觉、机器翻译、语音识别,现在是时候让这些能力在物理世界中发挥效应了。他在今天的演讲中提到,robotics的研究现在也正面临着一场深度学习的革新,实现这一点,需要现在的机器学习从业者跳出监督学习的舒适区,面临一些棘手的问题:数据稀缺,如何使机器实现技能转换以及持续性的学习等等。Vanhoucke也提到,这也是人工智能从理论到实践的必经之路。

Vanhoucke分别介绍了他在图像、语音(及机器翻译)领域和机器人(主要是机械手抓取)的一些研究成果。

亚马逊AWS机器学习总监Alex Smola:如何用MXNet构建可拓展的深度学习框架?

亚马逊 AWS 机器学习总监 Alex Smola 做了主题分享,介绍了如何利用 MXNet 构建一个可拓展的深度学习框架。

Alex Smola 是 MXNet 主要作者李沐在 CMU 的博士导师,后者在 Smola 加入亚马逊期间一直在做 MXNet 开发和 AWS 上深度学习的应用,这也难怪在 Smola 演讲最开始的感谢名单上,第一个名字就是李沐。

那么,作为亚马逊的官方开源平台,MXNet 又是如何实现「又快又好」的目标呢?

Smola 指出,要构建一个这样集高效与个性化于一体的框架,首先不可避免地要涉及潜变量模型的设计。潜变量模型是一种结构方程模型,区别于显变量,指的是不能被直接观测、需要通过间接数据体现的指标。而它具有以下两种表现形式:

首先是时间序列观察,包括了购物、点赞、App 的使用、邮箱、广告点击、查询及评分等。

其次是用潜状态解释用户的行为。一个是基于非参模型的方法,系统能够数据构建用户画像,剔除存在误差的推断;第二点是基于深度神经网络的 RNN 还有 LSTM 及 GRU 等方法。

杨强:解读AAAI的历史变迁

大会期间,雷锋网组织了一次AAAI华人旧金山沙龙,有近30位AI学者、业者聚集在沙龙场地。AAAI现任执委杨强教授、今日头条实验室总监李磊、清华大学智能技术与系统国家重点实验室主任朱小燕、iFly.vc合伙人沈瀚(他在Fomula 8时主导了Oculus的投资)、物灵科技人工智能首席科学家吴惟心、iPIN创始人杨洋在现场做了分享。

杨强教授从1990年起就参加AAAI,在这次的沙龙中讲述了AAAI 二十几年的历史变迁。杨强教授回忆到,1990年的那期会议有个激动人心的题目是逻辑——非单调逻辑,有很少的人群在研究人工智能、概率,更多的人是在研究逻辑,到现在情况又完全不同,今天是就机器学习的天下了。

四、AAAI 奖项

人工智能的国际顶级会议必定少不了让人垂涎的奖项,此次大会颁发了多个奖项,其中包括:

Deployed Application Awards奖项颁发给了“Large Scale OccupationalSkills Normalization for Online Redcruitment”和“Phase Mapper:An AIPlatform toAccelerate High Throughout Materials”

Robert S.Engelmore Memorial Award Leture颁发给了David Aha

AAAI 2016 Blue Sky Winner颁发给了“The AI Rebellion:Changing the Narrative”、“Moral Desision Making Frameworks for Artificial Intelligence”和“Getting More Out of the Exposed Structured in Constraint Programming Models of Combinatorial Problems”

杰出服务奖(Distinguished Service)颁发给了Jim Hendler

AAAI/EAAI杰出教育者奖颁发给了Sebastian Thrun

AAAI Classic Paper颁发给了Dieter Fox等人在1999年佛罗里达大会上撰写的“Monte Carlo Localization:Efficient Position Estimation for Mobile Roots”

Feigenbaum Prize颁发给了斯坦福大学的Yoav Shoham

除了奖项之外,大会还宣布了3名高级会员和7位新当选 Fellow:

三位高级会员是:Alessandro Cimatti、Xuelong Li(中科院)和Nathan R. Sturtevant,

7名Fellow是:Ronen I. Brafman, Eduard H. Hovy, Tommi S. Jaakkola, Maurizio Lenzerini, Fangzhen Lin(香港科技大学)、Dale Schurmans, Munidar P. Singh.

五、有趣的数字

大会组委会宣布了多项关于 AAAI 的数据:  

参会人数,AAAI 2017 注册参会人数 1692 人,为近年来最高; 

根据官方数据显示,2013年是AAAI论文数量的一个低谷,而从这一年开始,AAAI加快了国际化的步伐,连续4年论文连创新高,今年大会收到的投递论文为2571篇,为历史最高; 

大会发表的论文总数为 639 篇,录取率为24.9%; 

从主题来看,Machine Learning毫无悬念夺得投递数和录取数的冠军,2-5名依次是NLP、Application、Search/Planning、Vision; 

从论文标题看,Latent、Estimation、Kernel这三个单词出现率最高,其他出现率较高的单词还包括:ProCESs、Algorithms、Application、Structured、Fast、Tracking、Solving. (说句题外话,知乎有大神总结过CV和Deep Learning类灌水论文标题套路,CV灌水文多用{consistent/robust/joint/regularized/generalized/discriminated/structured}) + {learning/coding/dictionary/representation} + {based/for} + 经典保留曲目(如{image segmentation/verification/identification}),而Deep Learning灌水文多用“ deep feature for/based XXXX”。

(AI君对比了一下,上述灌水词几乎都没有出现,看来大会的论文质量还是可以的)  

 在Keyword中出现频率最高的10个单词分别为:Data、Learning、Model、Algorithm、Methods、Proposed、Information、Network、Different;  

录取率最高的领域包括:Game Theory、Search/Planning、Intefrated System Track、Uncertainly、Cognitive systems track、Vision、Comuter sustainbility track、Knowledge Representation、Machine Learning、MAS、Robotics、Application、Human、NLP; 

六、AAAI 招聘专场

AAAI的Job Fair分为两个不同场次:在Grand Ball Room的现场展位以及在Continental Ball Room的10分钟宣讲。需要寻找工作的学生可以先听自己感兴趣的公司对自己业务以及招聘概况的介绍,如果感兴趣可以再到现场展位进行更详细的洽谈。

高校:来到现场招聘的高校包括University of Kentucky、Nanyang Technological University、National University of Singapore、Kyushu University等。从AI君现场观察情况看,尽管AI毕业生往产业走的比例一直在提高,但现场还是有不少人对学术职位感兴趣。

(企业)研究所:包括IBM Research、Disney Research、Maluuba Research、Allen Institute of Artificial Intelligence等。这些研究所招聘岗位包括博士后岗位,以及与自己业务相关的研发人员,如Disney的招聘官就和AI君表示,他们对NLP、机器人、计算机视觉等岗位有需求。

企业:企业是招聘的主流,从现场的情况看,情况最好的是Facebook,而一些相对“传统”的企业,如Ford(招聘分析人员)、GM(招聘自动驾驶人员)就较少有人问津,甚至像Capital One这样在Fintech领域做了不少事儿的金融公司,在中国招人恐怕要抢破头了,但在现场也并没有得到太多的关注。

其实不少企业并没有在招聘上抱太大想,而是把Job Fair当做企业做PR的平台。而更希望通过这一平台发挥作用,吸引优秀人才的企业则使出浑身解数来宣传自己,如iPin的创始人杨洋在宣讲中就提出了“高额搬家费与期权”、“三年内上市”等很实在的条件,甚至提出“如果没有女(男)朋友,我们可以帮你找(因为我们是做招聘的,找人是我们的特长)”,引来听众一片笑声。

AAAI 还未结束,后续雷锋网将为大家呈现更多精彩的内容。

长按图片保存图片,分享给好友或朋友圈

AAAI 七大精华大盘点,零距离体验国际人工智能大会

扫码查看文章

正在生成分享图...

取消
相关文章