英伟达最新发布1200美元显卡,第一个竟然送给了他

2016-07-28 12:22:42     作者:Blake      来源:雷锋网

美国时间2016年7月21日,英伟达发布了售价高达1200美元(人民币超过8000元)的最新显卡Nvidia TITAN X,并把第一个显卡送给了他——吴恩达。

美国时间2016年7月21日,英伟达发布了售价高达1200美元(人民币超过8000元)的最新显卡Nvidia TITAN X,并把第一个显卡送给了他——Andrew Ng(吴恩达)。

美国时间2016年7月21日6:00 PM,在斯坦福教师俱乐部中,英伟达与百度美国研究院举行了一个小规模的ARIFICIAL INTELLIGENCE MEETUP(人工智能聚会),会上请到了Andrew Ng(吴恩达)——现任百度美国研究员首席科学家,也是现代人工智能研究奠基人之一,以及百度硅谷实验的的Bryan Catanzaro和Eric Battenberg。

交流会上发布了最新显卡Nvidia TITAN X,其具体参数如下:

11 TFLOPS FP32

44 TOPS INT8 (新的深度学习架构)

12B晶体管

3584 个CUDA 1.53GHz核心  (之前的TITAN X中只有3072 个1.08GH核心 )

比之前的TITAN X快了60%

最大超频状态下高性能表现

12 GB的GDDR5X内存 (480 GB/s)

在这次发布会中,英伟达提到:

每个人都有自己的英雄,Andrew Ng(吴恩达)——深度学习的先行者,现任百度美国研究员首席科学家就是我们心中的英雄之一。现任英伟达CEO黄仁勋(Jen-Hsun Huang)选择在斯坦福大学与深度学习专家举行一个小规模的交流会,在会上发布当下性能最强悍的GPU,并且把第一个Nvidia TITAN X显卡送给Andrew Ng(吴恩达)!

原来早在2012年,Andrew Ng(吴恩达)就将GPU应用到人工智能领域。之后它建立有史以来第一个深度神经网络,然后通过观看1000万个YouTube视频来训练这个人工智能神经网络。在观看了超过20000个不同的物体后,使用深度学习算法的人工智能开始能够认出“猫”的图片。Andrew Ng(吴恩达)当时接受采访时提到“与其让一大帮研究人员努力去探索如何发现图像边缘,不如直接将一大堆数据一股脑儿丢给人工智能算法,让软件自身从数据中进行学习。”在那之后,GPU在深度学习中的应用不断加大,到目前为止深度学习系统的运行速度已提高了近50倍。

Andrew Ng(吴恩达)与其他研究学者通过使用GPU来进行深度学习给整个业界带了翻天覆地的变化,所以英伟达认为第一个TITAN X显卡给Andrew Ng(吴恩达)相当有意义。

在交流会中Andrew Ng(吴恩达)认为就像100年前电力的发明改变了整个工业界并且持续带来技术革新一样,接下来的十年里人工智能(ARIFICIAL INTELLIGENCE)将会持续改变并革新所有行业。但是在人工智能(ARIFICIAL INTELLIGENCE)行业中,使用最尖端的研究设备是非常必要的。Andrew Ng(吴恩达)认为如果你能拥有一台2倍速度的学习机器,那你的研究出成果的速度也会提高2倍。这是否意味着当下的深度学习已经到了拼硬件、拼财力的程度了?

与此同时,与会人员超过500位学者、研究员以及学生全部聚集在斯坦福教师俱乐部中。当黄仁勋宣布发布最新一代的GPU时,他们全部都变得十分兴奋、激动并马上拿起手机拍照分享。这是为什么呢?

因为目前在深度学习领域中,GPU发挥了相当重要的作用。以前需要大量的CPU以及超级计算机进行的运算工作,现在只需要少数GPU组合就可以完成。这大大加速了深度学习领域的发展,为神经网络进一步发展提供了计算基础。熟悉深度学习的人都知道,深度学习是需要训练的,所谓的训练就是在成千上万个变量中寻找最佳值的计算。这需要通过不断的尝试实现收敛,而最终获得的数值并非是人工确定的数字,而是一种常态的公式。通过这种像素级的学习,不断总结规律,计算机就可以实现像像人一样思考。如今,几乎所有的深度学习(机器学习)研究者都在使用GPU进行相关的研究。

深度学习是利用复杂的多级「深度」神经网络来打造一些系统,这些系统能够从海量的未标记训练数据中进行特征检测。 虽然机器学习已经有数十年的历史,但是两个较为新近的趋势: 

海量训练数据

GPU 计算所提供的强大而高效的并行计算能力

这些大大促进了机器学习的广泛应用。人们利用 GPU 来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。GPU 还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。

将 GPU 加速器用于机器学习的早期用户包括诸多规模的网络和社交媒体公司,另外还有数据科学和机器学习领域中一流的研究机构。 与单纯使用 CPU 的做法相比,GPU 具有数以千计的计算核心、可实现 10-100 倍应用吞吐量,因此 GPU 已经成为数据科学家处理大数据的处理器。例如下图中使用GPU加速深度学习与CPU进行对比:

Ian Lane 教授 —卡耐基梅隆大学

借助 GPU,预先录制的语音或多媒体内容的转录速度能够大幅提升。与 CPU 软件相比,执行识别任务的速度超级高可提升 33 倍。

在这些领域中,GPU确实是非常适合的,这也体现在所有的这些工业界的大佬如BAT、Google、Facebook等等都在使用GPU在做训练。做深度神经网络训练需要大量模型,然后才能实现数学上的收敛。深度学习要真正接近成人的智力,它所需要的神经网络规模非常庞大,它所需要的数据量,比做语言识别、图像处理要多得多,希望Andrew Ng(吴恩达)在收到这份礼物后能用它来进一步加速深度学习领域的发展。

与此同时,也有部分人认为虽然利用GPU来进行深度学习为人工智能领域做出了相当巨大的贡献,但是这也造成了现在几乎所有的相关学者都在追捧深度学习。诚然利用更先进的GPU、更快的运算速度就能实现比前人更好的实验结果,也更容易发表文章,但是这对于整个行业的进步是最好的么?这类观念也不由得让人思考,深度学习的未来该往哪个方向走。

PS : 本文由雷锋网(搜索“雷锋网”公众号关注)独家编译,未经许可拒绝转载!

via Nvidia Blog Twitter

返回沙发首页  
沙发管家微信
扫描关注沙发管家微信 QQ群: 沙发网官方群 微博:

资讯评论

亲,你需要登录后才能进行评论喔!

还没有评论,快来抢沙发吧!

提示

热门设备安装方法 查看更多>>

最新设备

智能电视 / 盒子评测

安装指南

应用

热门专题