Data is not information.
Information is not knowledge.
Knowledge is not wisdom.
本文作者都柏林城市大学叶腾琪同学,本文为参加CCF-GAIR大会之后的观后感。通过他的文章,能够还原出一位学术青年眼中的CCF-GAIR大会。如果你也想就此次大会给我们投稿,欢迎联系我们:lizongren@leiphone.com。
最近深圳天气不太好,阴雨连绵,但会议地点还是很给力的。深圳喜来登酒店就在地铁口出口旁。酒店非常气派,一应俱全,有图有真相。会议有三天,各自都分为A, B, C三个专场。
(大会现场的安保)
(会场内很豪华)
第一天的Session A聚焦AI发展前沿,由徐扬生院士主持,主要耕耘于机器人领域。第一位嘉宾是中国工程院院士潘云鹤,潘院士作为曾经的浙大校长,现在是候补中央委员,同时也是AI 2.0计划的倡议者。潘院士的演讲主要还是围绕AI 2.0计划的详细介绍。
AAAI主席Kambhampati教授是主会场第二位演讲嘉宾,他的演讲中提到人工智能是计算机里面很大的主流方向,这也意味着子方向之间的差别可以非常大,也可以非常小。比如,做机器学习方向的学者对于电路可能一点都不清楚,但在机器人领域这应该是基础知识。再比如,机器学习和数据挖掘大部分工作都是一样的,但各个方向的侧重点又有所不同。数据挖掘不会像机器学习一样那么关注模型的可解释性和计算能力,机器学习也不会像数据挖掘一样去那么关心通过现实生活中的一些场景假设去解决问题。所以就像不是所有学计算机科学的都会修电脑,人工智能相关的学者不是所有的人工智能领域都会精通。
回到Kambhampati教授的演讲,虽然笔者之前的实验室印度人不少,但是听该教授的口音很重的英语仍然有些吃力。首先该教授对AAAI会议做了一番软文,呼吁更多的中国学者加入AAAI会员(多交钱),多投稿(增加影响力)。AAAI和IJCAI是AI领域最好的两个会,因为投稿领域最全,但在机器学习方面这两个会也就一般。AI领域的机器学习方向的论文往往追求新颖的想法和故事,但是论文严谨性不够,所以导致论文可信度不高。
回到演讲,教授又用了AI在社交网络和美国政府经费方面的例子说明现在AI形式大好。其实对hype cycle比较熟悉的人是可以看出,上升期之后紧接着就是泡沫破裂时期。然后教授又比较了人工智能和人类智能,和人工智能发展历史。他还提到了AI研究的伦理,举了一个臭名昭著的关于“看相”的研究。虽然剩下大部分科普内容对于笔者来说干货不多,但是教授还是指出了几个研究方向供我们研究(灌水):从更少的训练样本中学习、机器的常识、不完整性和交互。Deep learning的有效性是基于海量样本数据,但是人类智能似乎不需要太多的样板就可以学习。最后,教授主要介绍了一下他组里面的工作,演讲就结束了。
谭铁牛院士第三个登台分享。Google scholar上显示他的论文总引用次数约28000,重点关注模式识别的研究方向。我个人认为谭院士的演讲是本次大会中最不能错过的演讲,原因在于有干货有总结。教授根据他自己的经验总结让我很有共鸣,同时从演讲中可以看出,教授仍然活跃在科研第一线,时不时能让我在细节中发现惊喜。
谭院士指出现在模式识别的挑战主要有两个,第一是不稳定,例如在强光照下,现有的很多视觉算法就会失效。第二是课解释性差,比如像深度学习,现在学界普遍只能当成黑箱。
看到这里,想必很多读者要问了,黑箱就黑箱,能用就行啊。黑箱的主要坏处有两点,第一是无法解释可信性就差。为什么现在大家很喜欢在深度学习灌水呢?因为你改个网络结构,发个论文,宣称它好,大家也不知道到底真的还是假的。很多代码作者不公开,连实验做没做都不知道。要是真的有人尝试重复结果却比论文差太多,作者也可以宣称调参“技巧”没达到。这个道理和我国前段时间生物界出的问题一样,也可以解释为什么生物是造假重灾区,数学却无法造假。第二是你无法解释,也就不知道如何最好的改进结构,结果变好变差全凭运气。接着演讲说,教授接着从生物启发的角度进行了很多归纳,比如记忆问题(sequence learning),启发问题(transfer learning),多神经元等。教授基本上字字珠玑、全程无尿点,强烈推荐。
Session B的主题是AI学术前沿,由杨强教授主持。对于杨强教授,他的“迁移学习”理论深受广大学术青年们关注。迁移学习研究的是不同domain之间的迁移。例如,我会中文,我有本中英词典,理论上我可以就看懂英文文献了。再比如,我们平时的场景是3D,但是我们的大脑仍然可以理解2D的电影场景。
Session B中第一个做演讲的是来自CMU的金出武雄教授。计算机科学方向有四个吊炸天的学校的存在,江湖人称Top 4,MIT, CMU, Stanford, UC Berkeley。金出武雄同时享有ACM, IEEE, AAAI三个Fellow,国内只有周志华教授同时拿了这三个Fellow。金出武雄的主要工作是机器人方向的视觉,在google scholar上拥有十万的引用次数,相比之下Kambhampati教授的引用次数是八千,杨强教授的引用次数是三万。
金出武雄教授的演讲主要是围绕他们组的工作展开,详细讲解了自动驾驶、自动汽车等实际场景下的视觉解决。就我个人的感觉而言,他们的工作相比较于现在广泛的计算机视觉来说,对于模型的依赖少,但是更侧重于图片处理,甚至是通过硬件去改变成像。中间有个令人印象深刻的例子。下雨和下雪时候的反光会严重干扰车载前头的图片,他们通过在摄像头之前加一个类似于偏振片的镜片,使得雨滴在图片里面的成像变得很淡。另外,演讲里面还有很多各种好玩的机器人的视频,我才不要告诉你,你自己去看吧。
第二个做演讲的是伦敦大学学院教授汪军,他的论文引用次数在4000次左右,他的研究方向是AI在社群和团体方向的应用。比如说多个多智能体的强化学习(游戏里面的不同AI单位的合作)、购物区域的自动规划、分拣机器人。他里面提出了一个类似与GAN的想法就是在强化学习里面生成环境。这个想法还是很新颖的。
这些演讲者的演讲内容可以总结为三类:打广告的(给协会、给研究组、给公司)、分享研究成果和宣传的、有总结和思考的。
下午是张宏江教授,他可是大有来头的。他引用次数是5.5万,曾经是微软亚洲工程院院长,所以和下午很多做演讲的嘉宾都有渊源。下午第一个演讲就不说了,纯做广告的。第二为演讲嘉宾为旷视科技首席科学家孙剑。孙剑有着2.4万的Google scholar引用次数,研究方向为深度学习在计算机视觉方面的应用。
他总结了计算机的核心也是经典问题可以归纳为分类(图像)、检测(区域)、分割(像素)和序列(视频)。分类的意思是识别,举个例子,图片里面的动物是猫是狗?两张不同的图片里面的人脸是不是属于同一个人?因此识别都是图像级别的。检测最著名的一个例子是大家手机里面拍照的时候都会显示出框来标识人脸,也就是要找到物体所在的区域。分割是把图像上面的不同物体的轮廓给区分出来。视频可以看成是图像的序列。这几个任务看似简单,但实际上不是。很多的计算机视觉问题都可以最后转化为这几个问题。因为篇幅愿意就不细说了。
孙剑最后还提到了他觉得现在计算机视觉方向的难点,供大家研究。
Session C最后一个演讲的是360首席科学家颜水成,他的论文引用次数为3.5万。颜水成主要讲述了他们在360内部的工作研究工作,都是一些比较熟悉的内容。然后,他提到了一些他在工业界使用深度学习的一些思考,千言万语总结起来就是与其为了场景研究开发算法(追求精度),同等重要的,是为一些达到一定精度的算法找到好的应用场景(追求体验)。
第二天笔者参加的是金融专场。Session G是陈邦道主持,首位分享嘉宾为牛津大学教授、英国皇家工程院院士、欧洲科学院院士Prof. Bill Roscoe,陈邦道正是Bill Roscoe的学生。Prof.Roscoe 的演讲方向笔者不太熟悉,主要介绍了一些安全、区块链、哈希签名等,个人感觉和AI的关系不太大。
第二个位演讲嘉宾为香港科技大学教授张晓泉,他的演讲中介绍了很多Business Intelligence的方面,也就是金融和AI的融合,举的例子里面主要是quant了,即量化。笔者曾经对这一方向有所涉及,读者感兴趣可以自行研究。不过,张教授的部分观点笔者不太认同,这里和大家讨论一下。
张教授说机器学习是无法解释可以预测的。实际上,机器学习的其中很重要的一部分工作就是模型的可解释性和模型的预测能力评估,比较著名的成果是拿了图灵奖的PAC。而且在Machine learning中,statistical based machine learning也是一个很重要的部分,而这一部分基本上都是可以解释的。可能是因为Deep learning目前主流看法是不能严格证明和解释,所以造成了很多错觉。个人理解,关于神经网络其实也是有部分可解释性,其中比较有名的是Universal approximation theorem,关于计算机理论的会议非常有名的有COLT和AISTATS。
接下来的三个演讲都是从企业界来的,其中一个是笔者的校友。因为其实精华比较少,这里就总结在一起。首先,企业做得模块大同小异。比如都有一些反欺诈、智能获客、客户画像、智能客服等。模块里面的技术点也差不多。其次,大数据很重要,人工经验的融合(专家系统)也是很必要的。最后,他们说自己做得都很成功,AI能成功解决他们的大部分问题。对此,你怎么看?
最后一天必然去的是机器学习专场Session Q,但是大部分内容其实仍然不是机器学习。下午是CV+专场,因为篇幅原因就不展开了,但MSRA的梅涛博士的演讲是值得强烈推荐的,要知道MSRA基本上撑起了亚洲计算机视觉的半壁江山。
先说说个人收获。说几个直观的方面。
1)现在的AI技术的的确确在很多方面达到了工业要求,但是AI本身和人类的智能仍然差很多。所以从学术的角度来说,我们在深度学习之后又一次来到了一个新的瓶颈期,如果你是真心搞学术而不是想灌水的话有几个方向这些嘉宾觉得可以突破。一个是理论方向,可解释性为什么重要我之前也说过。如果深度学习(神经网络)可以在数学上透彻分析,我们很有可能马上找出深度学习的短板,从而马上可以突破瓶颈。还有一个是仿生学角度,大自然往往是最好的老师。虽然生物学的角度并不能让我们得到数学证明,但是如果效果的确有突破性的飞跃,比如说我们能够发现总结哪些结构很好哪些不行,那么对AI的研究也有很大的促进。最后一个是在目前的基础上补足一些明显不好的地方,比如环境影响很大等。这个简单来说就是应用方向了。从工业上来说,为一个靠谱的算法找一个新颖的应用是重中之重。
2)学术圈也存在马太效应,也就是好的导师往往能带出好的学生,好的学生反过来会促进原来的研究组,比如像这会围绕MSRA的几个演讲者和主持还有牛津的一对师徒。这里说的好是包括人品和学术水平,人品是主要的。学术水平的话,你感兴趣的领域的世界领先的组就那么几个,大部分学生是无缘的。拥有好人品的导师至少能在他拥有的资源上给你利用,包括让你去更好的地方做访问、让你想去工作的时候可以实习、发了论文可以去参加会议。这样的老师都有一个共同点,就是他门下的很多学生毕业之后还都会和他有学术上的合作、项目上的联系甚至生活中经常访问。我身边中很多朋友因为少不更事,碰上了一些人品差的导师(这些导师不少是国外的),这些导师对学生来说真的是人生的一场灾难。关于这方面以后有时间和读者再详细介绍。
3)本次大会也有很多嘉宾做得非常认真,比如像谭铁牛院士。他的PPT中的引用都很规范,而且那些引用都不是乱放的。学术经验少的读者可能对这个就会产生疑问。实际上,作为一个比较好的研究者必然需要阅读大量的论文并且对最新论文都有跟进。所以在高层次的学术活动中的引用都不是乱放的,而谭院士放出的引用的论文质量都非常高。第一说明他仍然活跃在科研一线、第二说明他做事很认真。我和他利益完全不相关。很多读者对搞研究的方法还不是很懂,一言以蔽之,读论文是一个非常基本的指标。
最后对回忆本身总结一下。笔者之前在国外的时候就发现,他们特别喜欢举行一些类似的活动,我个人觉得这个对整个行业促进是非常有用的。对于还只是第二届的GAIR大会,雷锋网已经远超我的预期了,再次感谢雷锋网。能请到一些水平高、仍然在科研一线、有诚意来演讲的大牛真的非常不容易。不过,有些地方可以改进的,比如学术会议一般会安排茶歇和会餐方便大家互相交流、演讲最后和圆桌会议应该提供观众提问等(雷锋网小编已经记下了,明年的GAIR 大会欢迎大家现场提问)。
最后,我想说的是,国内其实已经在很多方面慢慢超越国外了。我每次开国际学术会议,中国人的比例远远高于中国人口比例,虽然参加的中国人是从各个国家来的。至于中国能不能在AI方向快速超车从而实现中华历史伟大复兴呢?让我们拭目以待!