注册

Google资深研究员Jeff Dean谈AI 机器进步将越来越快


来源:凤凰科技

Google资深研究员、Google Brain负责人Jeff Dean在演讲中谈到了AI的工作机制和具体应用。

乌镇围棋峰会

凤凰科技讯(作者/花子健)5月24日消息,乌镇围棋峰会进入第二天,在今天的人工智能高峰论坛中,Google资深研究员、Google Brain负责人Jeff Dean在演讲中谈到了AI的工作机制和具体应用。

Google资深研究员、Google Brain负责人Jeff Dean

人工智能由来已久,对于用户来说,人工智能最直白的定义就是机器学习。Jeff Dean表示,以前用户需要的是智慧的电脑,帮助人类进行计算,现在需要的是会学习的电脑,在帮助人类工作的同时自我学习,形成自己处理问题的能力。

对于Google来说,神经网络学习模型是目前在深度学习中最常应用的方法,并且这个模型逐渐成为一个强大的系统。

他以最初的图像学习为例子,神经网络最初的功能就是识别这些图片,比如图片中的是猫、狗还是鲜花或者汽车。不断的训练之后,进行的是感官的识别,比如看到图片的雪花,会联想到“冷”这种感觉,输入“天气变冷”的结果;然后是对没有标签的图片进行翻译,再然后就是根据图片的内容输出一句完整的话。这就是神经网络在学习中进步的过程。

神经网络的准确度与数据和自身的规模大小成正比。在2011年,Google的神经网络识别豹子的图片,错误率为26%,人类是5%。而到了2016年,它只有3%错误率,打败了人类。五年间,它积累了更多的数据,接受了更多的图片识别训练,并开始具备深度的自我学习能力。

在过去的五六年中,Google在深度学习的应用量迅猛增长,2016年,包含神经网络学习模型的数量超过了4000个。

在这些应用中,他着重提到了谷歌翻译、Google Photos、Google Assistant等。

在谷歌翻译中,神经网络的深度学习帮助提高翻译的准确率。早前的翻译是基于短语的机器翻译,特征是采用离散型、局部性的决策,也就是说,解码器对原语言解码的时候,分解成词语,编码器也是按照词语的顺序排列,并没有形成完整的话。

但是在神经网络机器翻译中,神经网络模型采用的是连续型、全局性的决策,对原语言解码之后,按照目标语的语法和表述习惯进行编码,再输出易于被用户接受的翻译结果。

Google Photos根据照片中的景物自动分类照片,比如照片有狗的照片,都可以归为一类。对于动态摄影还可以自我进行动态稳定,自动让发暗的照片变亮。还有Google Assistant,用户快速通过语音获取许多知识和问题的答案。

在演讲过程中,Jeef Dean还展示了一段Demo,一个机器臂通过视觉系统捕捉他的动作,然后模仿他的肢体动作。

在这个强大的神经网络背后,是Google的第二代TPU,这款Tensor Processing Unit V2在今年的Google I/O大会上发布,它专门针对机器学习的训练和推理而设计,支持相互连接组成TPU舱并形成处理器网络,每个处理器输出每秒180万亿次的浮点计算能力,拥有高达64GB带宽的存储器。

Jeff Dean表示,为了积累更多的数据和训练模型,Google将向研究开放式机器学习的研究人员免费开放配有TPU的云虚拟机。

[责任编辑:刘正伟 PT005]

责任编辑:刘正伟 PT005

  • 好文
  • 钦佩
  • 喜欢
  • 泪奔
  • 可爱
  • 思考

频道推荐

凤凰网公益基金救助直达

凤凰科技官方微信

凤凰新闻 天天有料
分享到: