资讯 人工智能开发者
此为临时链接,仅用于文章预览,将在时失效

深度学习之经典卷积神经网络的技术浅析 | 硬创公开课预告

作者:恒亮
2017/02/23 18:14

卷积神经网络(Convolutional Neural Networks)是人工神经网络的重要分支,目前已经成为语音和图像识别领域的一大研究热点。特别是在图像识别领域,由于其特有的权值共享网络结构,大大降低了模型复杂度,减少了权值数量,因此可以直接将多维图像作为输入数据展开训练,有效避免了传统识别算法中复杂的特征提取和数据重建过程。

逐本溯源,卷积结构最早出现于 1984 年的神经认知机(NeoCognitron)。发展到 1998 年,诞生了第一代经典卷积神经网络 LeNet,但随着支持向量机 SVM(Support Vector Machine)的出现,卷积神经网络一度归于沉寂。后来,随着 ReLu(Rectified Linear Units)和 Dropout 等激活函数的提出,以及 GPU 和大数据带来的历史机遇,卷积神经网络在 2012 年迎来了一个历史性的突破 —— AlexNet 网络。AlexNet 在当年的 ImageNet 图像分类竞赛中,Top-5 错误率比上年冠军下降了十个百分点,而且远远超过当年的第二名,震惊了整个行业。随后,以 AlexNet 为基础,又出现了 VGG(Visual Geometry Group)、Inception 和 ResNet 等多种不同的子类。

那么问题来了,这些各不相同的卷积神经网络究竟有哪些不同,它们各自的技术特点是什么,又都应用于哪些领域?面对所有这些疑问,雷锋网有幸请到了PPmoney 大数据算法总监黄文坚来做一个彻底的解答。

嘉宾介绍:

黄文坚,PPmoney 大数据算法总监,谷歌 TensorFlow 贡献者,畅销书《 TensorFlow 实战》作者(该书获得到了谷歌 TensorFlow 团队的官方推荐)。前明略数据技术合伙人,领导了对诸多大型银行、保险公司、基金的数据挖掘项目,包括建立金融风控模型、新闻舆情分析、保险复购预测等。曾就职于阿里巴巴搜索引擎算法团队,负责天猫个性化搜索系统。曾参加阿里巴巴大数据推荐算法大赛,于 7000 多支队伍中获得前 10 名。本科、研究生就读于香港科技大学,曾在顶级会议和期刊 SIGMOBILE MobiCom、IEEE Transactions on Image Processing 发表论文,研究成果获美国计算机协会移动计算大会(MobiCom)最佳移动应用技术冠军,并获得两项美国专利和一项中国专利。

课程内容:

本期公开课内容包括但不限于:

1. 卷积神经网络概述以及经典网络介绍

2. AlexNet 网络的技术特点介绍

3. VGG 网络的技术特点介绍

4. Inception 网络的技术特点介绍

5. ResNet 网络的技术特点介绍

活动详情:

2月28日 下午3点 微信直播群准时开课

扫描下方海报上的二维码,关注“AI科技评论”,在菜单里点击“公开课”添加管理员,管理员拉你进群交流。转发海报到朋友圈,还有机会赢取《Tensorflow 实战》书籍。

本次课程优先学术、技术开发人士进群,敬请知悉。

深度学习之经典卷积神经网络的技术浅析 | 硬创公开课预告

长按图片保存图片,分享给好友或朋友圈

深度学习之经典卷积神经网络的技术浅析 | 硬创公开课预告

扫码查看文章

正在生成分享图...

取消
相关文章