Google资深研究员Jeff Dean谈AI 机器进步将越来越快
2017年05月24日 12:29:25
来源:凤凰科技
作者:花子健
Google资深研究员、Google Brain负责人Jeff Dean在演讲中谈到了AI的工作机制和具体应用。
乌镇围棋峰会
凤凰科技讯(作者/花子健)5月24日消息,乌镇围棋峰会进入第二天,在今天的人工智能高峰论坛中,Google资深研究员、Google Brain负责人Jeff Dean在演讲中谈到了AI的工作机制和具体应用。
Google资深研究员、Google Brain负责人Jeff Dean
人工智能由来已久,对于用户来说,人工智能最直白的定义就是机器学习。Jeff Dean表示,以前用户需要的是智慧的电脑,帮助人类进行计算,现在需要的是会学习的电脑,在帮助人类工作的同时自我学习,形成自己处理问题的能力。
对于Google来说,神经网络学习模型是目前在深度学习中最常应用的方法,并且这个模型逐渐成为一个强大的系统。
他以最初的图像学习为例子,神经网络最初的功能就是识别这些图片,比如图片中的是猫、狗还是鲜花或者汽车。不断的训练之后,进行的是感官的识别,比如看到图片的雪花,会联想到“冷”这种感觉,输入“天气变冷”的结果;然后是对没有标签的图片进行翻译,再然后就是根据图片的内容输出一句完整的话。这就是神经网络在学习中进步的过程。
神经网络的准确度与数据和自身的规模大小成正比。在2011年,Google的神经网络识别豹子的图片,错误率为26%,人类是5%。而到了2016年,它只有3%错误率,打败了人类。五年间,它积累了更多的数据,接受了更多的图片识别训练,并开始具备深度的自我学习能力。
在过去的五六年中,Google在深度学习的应用量迅猛增长,2016年,包含神经网络学习模型的数量超过了4000个。
在这些应用中,他着重提到了谷歌翻译、Google Photos、Google Assistant等。
在谷歌翻译中,神经网络的深度学习帮助提高翻译的准确率。早前的翻译是基于短语的机器翻译,特征是采用离散型、局部性的决策,也就是说,解码器对原语言解码的时候,分解成词语,编码器也是按照词语的顺序排列,并没有形成完整的话。
但是在神经网络机器翻译中,神经网络模型采用的是连续型、全局性的决策,对原语言解码之后,按照目标语的语法和表述习惯进行编码,再输出易于被用户接受的翻译结果。
Google Photos根据照片中的景物自动分类照片,比如照片有狗的照片,都可以归为一类。对于动态摄影还可以自我进行动态稳定,自动让发暗的照片变亮。还有Google Assistant,用户快速通过语音获取许多知识和问题的答案。
在演讲过程中,Jeef Dean还展示了一段Demo,一个机器臂通过视觉系统捕捉他的动作,然后模仿他的肢体动作。
在这个强大的神经网络背后,是Google的第二代TPU,这款Tensor Processing Unit V2在今年的Google I/O大会上发布,它专门针对机器学习的训练和推理而设计,支持相互连接组成TPU舱并形成处理器网络,每个处理器输出每秒180万亿次的浮点计算能力,拥有高达64GB带宽的存储器。
Jeff Dean表示,为了积累更多的数据和训练模型,Google将向研究开放式机器学习的研究人员免费开放配有TPU的云虚拟机。
[责任编辑:刘正伟 PT005]
责任编辑:刘正伟 PT005
- 好文
- 钦佩
- 喜欢
- 泪奔
- 可爱
- 思考
凤凰科技官方微信
视频
-
李咏珍贵私人照曝光:24岁结婚照甜蜜青涩
播放数:145391
-
金庸去世享年94岁,三版“小龙女”李若彤刘亦菲陈妍希悼念
播放数:3277
-
章泽天棒球写真旧照曝光 穿清华校服肤白貌美嫩出水
播放数:143449
-
老年痴呆男子走失10天 在离家1公里工地与工人同住
播放数:165128