资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

作者:杨文 编辑:郭奕欣
2017/05/19 20:40

雷锋网AI科技评论按:谷歌在17日举行的年度开发者大会上发布了一系列基于人工智能技术的新产品和服务,预示将未来重心将转向人工智能方面。谷歌云中心—人工智能和机器学习首席科学家李飞飞在大会上发表了演讲。以下是雷锋网编辑对此次演讲内容的听译。

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

我(李飞飞)做人工智能研究至少二十年了,可以很实在地说,过去的几年里是我职业生涯中最兴奋的时刻.

人工智能正在改变谷歌所做的一切

人工智能正在扩展人自身的能力。无论是金融业还是医疗健康行业,建立人工智能专业知识都是一项巨大投资,要知道单单靠自己是没有这个机会的。这就是我为什么加入谷歌的原因,就是为了确保在将来每个人都可以来影响人工智能的发展,解决那些困扰人工智能的问题,保持它的竞争力。换句话说,谷歌称之为大众化人工智能。下面用行动来分享几个例子,首先,谷歌正在开发大众化算法,通过一个高水平的机器学习ALPS收集数据,让人工智能变强,可以让你的应用不费力就可以了解图像,视频,音频和自然语言中的内容。不管你的专业知识是什么水平,你都可以将这些工具立即投入使用,并看到结果。另外,谷歌对开发者自己构建的模型持同等的关注。2015年11月,谷歌开源了tensorflow,它是一个在谷歌中广泛使用,用于机器学习的软件框架。今天,谷歌继续升级,在tensorflow 1.2版本中带来新的高水平ALPS,只需用你能用到的最好硬件,加上自己的数据就可以立刻来训练机器学习模型。谷歌鼓励大家去看TensorFlow说明,会了解的更多。

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

第二代TPU问世,性能强劲

补充一点,谷歌还推出了云机器学习引擎来帮助大家在云端管理大型TensorFlow训练和预测工作。当然,不可避免的是人工智能需要大量的计算资源, 这对开发者来说是一个很大的障碍。为了解决这个问题,Sundar今天上午宣布,谷歌已经开发了第二代TPU(tensor processing unit 张量处理单元),可以用它来训练机器学习模型并且运行第二代TPUs实现了惊人的180万亿次每秒的浮点运算,为驱动机器学习的进步建立了特大数量的数字计算。在今天,用32个世界上市售最好的GPU训练大规模翻译模型任务需要一整天,但是使用1/8的TPU pod,只需要一个下午就能完成。TPU规格只是今天要讲的一部分。真正的突破在于我们如何让它们作为一个整体将算法大众化。

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

谷歌云平台把这个不可思议的新硬件提供给大家。你将很快就能租个云TPU,不需要任何的前期资金投入。同样方式,你也可以在谷歌计算引擎租其他的基础设施。无论你是在CPU、GPU、还是TPU上运行代码,我们都努力确保一致的操作体验和流畅的平台互通性。如果你对训练机器学习模型的云TPUs开发的感兴趣,可以点击这个链接了解更多。g.co/tpusignup

谷歌的云TPU阿尔法计划

作为一个人工智能研究者,我可以告诉你,TPU的研究意义是明显的。举个例子,当谷歌把云TPU消息分享给哈佛医学院后,他们很期盼能用上谷歌的TensorFlow研究云在全国范围内做医学研究。这就是为什么我对TensorFlow研究云很兴奋。更让人激动的是,谷歌为顶级机器学习研究者提供1000个免费的云TPUs。

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

谷歌现在正在建立一个用来授权应用(APP)接入tensorflow研究云的程序。

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

谷歌多年来一直在开发世界上最先进的人工智能技术,云的出现意味着你可以与每个人分享,从创业公司到企业,从医疗保健到零售业,以及他们任意两者之间。谷歌创造了云人工智能团队让人工智能大众化,大多数强大的AI工具,从你投入使用之时,即伴你一路成长。你在人工智能道路上走的每一步,谷歌都会为你提供支持。

via 雷锋网编辑杨文听译

长按图片保存图片,分享给好友或朋友圈

Google I/O 2017:李飞飞 ——我为什么对TensorFlow研究云感到兴奋

扫码查看文章

正在生成分享图...

取消
相关文章