首页 >
内容详细
北大AI课程 Lesson 13 — 英伟达董方亮:为AI而生的GPU
打印 分享 来源:  | 日期: 2017年12月12日
懂方亮:英伟达自动驾驶业务中国区负责人,目前负责AI 和自动驾驶方面的工作,并且在 GPU 的研发、设计上也有多年的经验。
 

北大对 GPU 的贡献

北大的天之骄子应该感到很自豪,因为GPU 的发展有一个很重要的技术叫 Pixel Shader(像素着色器),像素着色器是决定了今天能够做gaming、video  等很多呈现在大家面前功能的技术之一。核心的发明人是北大本科 87 级物理系的一位同学,所以北大人应该非常骄傲。北大对 GPU 的技术发展起到了很关键的作用。

 

董方亮从四个角度表述了GPU与AI的前世今生

 

对 GPU 进行一个简单介绍

 

英伟达是一家以 GPU技术为核心的公司,从成立那天起就做 GPU,到今天也在做 GPU。公司从一个视觉计算的公司转变到今天 AI 计算的公司,这一转变当然有时代的原因:1)现在产生大量数据,其中有很多的语音、图像数据;2)在人工智能方面,我们的一些基础研究有了长足的发展,同时在基于DNN(深度神经网络)架构上也有不错的发展,与现在 CPU 的计算模式不同。

将 GPU与 deep learning 相联系

 

为什么 GPU非常合适于今天的AI的计算,也就是 deep learning?

 

从 GPU 计算年谱可以看到,英伟达在 06年的时候做了一个CUDA(computing unifieddevice architecture),核心意思是,GPU 是一个多核的计算体。我们如果能用一套架构把计算核完整、方便地调动起来,就形成了并行计算的基础。CUDA 包含了从底层到应用层完整的 SDK,公司之前就已经做了并行计算的充分准备。从 06年到现在,英伟达每一代产品,都原生地支持 CUDA。年谱中有另一个重要的时间点——2012年,当时 AlexNet 用 GPU 做了一个9 层的 DNN 架构来做图像识别,取得了很好的效果。2012年可以认为是 GPU 应用于 deep learning 的爆发元年。随着时间的发展,DNN 不断演进。在各类 framework 不断演进的今天,GPU 与 deep learning紧紧地被绑在了一起。

 

如今,摩尔定律是否能够适应如今崭新的计算架构?摩尔定律是以蓝线表示,有一个难以突破的平台期。主要难点之一在于,线程做的比较小会有很大的挑战。但是deep learning 还在不断发展,因此需要全新的架构支持,并且需要沿着比摩尔定律更高的计算量趋势发展,才能匹配全新的计算模式,才能在 AI 时代体现良好的计算能力。

 

预计到 2025年,GPU 有很大的需求量。GPU 时代兴起的原因在于,GPU 提供了与之前 general purpose computing 不同的模式。GPU 在支撑全新架构的前提下,能够支撑现有的计算力。

 

对 CPU 与 GPU 做一个简单的比较。GPU 与 CPU 的特点不同,GPU是一个简单的多核处理器,再结合CUDA之后,很有利于做并行运算。这是GPU的简单架构,当然也有很多有特色的东西,包括多个streaming multiprocessor,即流的多处理器,上面会包int F16,F32,F64的处理核。因此,GPU很适合做并行运算。

 

Deep learning 是并行运算很好的应用场景。这是一个简单的神经网络。可以与大家简单分享一下我们为何这么设计 deep learning 的网络。最早,是对于人脑假说性的理论模拟。70 年代,两位德国的生物学家解剖猫的大脑时,认为神经元是一层一层的,神经元之间有反射弧,他们假说当电流通过神经元之间的反射弧时,是一个激活的状态。他们提出了一套理论。之后,在DNN 架构出来之后,用 DNN 做具有特征的数据识别,有良好的效果。前层的 layer 是后层的浅层表现,因此带有 pattern 的语音、图像数据能够分类。在深度神经网络中,每一个节点都可以被模拟成计算核。GPU承担了每一个深度神经网络节点的计算,这也是 GPU 符合 DNN架构的原因。因此,GPU是线下训练的唯一选择。

 

Deep learning 其实包括两部分,第一部分是线下的训练,在云端或者加载GPU 的服务器端做训练;另一部分是做线上的推理。在线下训练,之后将训练好的模型放到线上去做推理,这是目前 deep learning 较为普适的模式。

 

Deep learning 的模式较为适合三类数据,computer vision 数据,语音数据,自然语言处理数据。这张PPT展现从 GPU 到 SDK 到 framework 到上层的应用。GPU带来的 deep learning 创造了全新的计算时代,也给初创公司带来很多机会。

 

探讨当今时代的 AI,以及今后的AI会朝什么方向发展

 

AI的机会很多,在单一技术和组合式产品中,都有良好的市场。从初创公司中看 deep learning 中有哪些机会:1)健康医疗,比如皮肤癌的研究在用 deep learning 做;2)零售,主要解决商品选择和支付问题。Focal 公司解决如何让传统零售业爆发活力的方案,核心技术是对物体的识别。客户进入实体店后,有类似于pad 的装置,用手推车进行购物,当挑选完商品后,不用结账,自动识别。

 

同时,当商品从货架取下后,系统会自动补货。这个公司主要面向零售业的细分市场;3)金融。美国有一家投资公司,用了无人机和卫星图片,天天在美国上空扫庄稼地,利用 DNN 网络做图片识别,看看某几类庄稼的长势如何,并在期货交易所做对冲。可以通过历史数据比对,看是欠收还是多收;4)安全;5)IoT,比如机器人、无人机公司。目前有陪伴机器人,服务机器人,用无人机撒农药,这些都是针对特殊场景的很好的应用;6)无人驾驶,代表了 deep learning 技术与未来交通行业的结合;7)网络安全。有些公司用 deep learning 做对于病毒、恶意模式的判断,这些方案能够实时升级,判断新来的病毒属于哪一类。

与大家分享一下一些 AI 的典型应用。第一个应用是在车里用语音与车进行交互;第二个应用是基于图像的物体识别,能够在图片库中找到心仪的物品。在数据库领域,这种基于图片的应用也很有意思。比如 SAP 在训练 DNN中,将广告中公司的图标抓取出来,并给客户一个报告,在这段视频中,图标出现多少次,出现在什么位置,并判断投资和品牌曝光度是否合理。这一特性,给SAP带来很好的客户反馈;第三个应用是基于用户行为作出判断,比如喜欢什么类型的电影。
我们与祖母可能交流困难,如何应用 NLP 技术与她进行交流,增强人与人之间的沟通;第二张图片与医疗相关;第三张图片中是微软的工程师,是一个天生的盲人,微软现在有一种眼镜能够进行物体识别,这也是基于deep learning很好的应用。
第一张图是我们在平安城市中抓取特征点;第二张图是服务型机器人;第三张图是在农业方面的应用。因此,在 AI月 deep learning 的时代,有很多领域大家可以尝试去做。

这张图想与大家分享一下英伟达在自动驾驶领域的应用。我们将自动驾驶变为AI 的任务,模拟人进行驾驶。当人驾驶时,人需要知道周围环境,车的位置,并作出相应的驾驶策略,这也是AI的任务。1)感知:我们会用多样的传感器将周围环境情况了解清楚;2)reasoning:判断周围环境是否安全;3)驾驶:依托于高精度地图,高精度地图能够提供丰富的环境信息和精确的定位。

 

GTC 新产品解读

第一个就是,英伟达在 GTC上宣布了新一代的 GPU,VOLTA100。我们每一代的GPU有一个科学家的名字,这一代的GPU 对我们来说,有几方面的提高,第一是它有 210 亿个晶体管,12纳米线程,然后整个核心板的面积在815毫米平方,这是一个非常大的进步,整个架构上有一个非常大的进步。

 

这一代,我们的架构有一个很好的一个提升,我们会在这一代架构里面放入一个Tensor 核,它完成了以前矩阵式同步这种的矩阵式相乘,实现非常高速的运转。这样的结果会让我们产生120Teraflops 的计算能力,这种计算能力无论针对 Training 端还是 Inference 端都是非常好的进步。这一代产品是英伟达最新在 GTC上发布的。

这是我们叫 ISAAC 的 SIMULATOR,其实是把深度学习和模拟结合在一起,它其实是用一个模拟的平台去训练机器人,比如说我训练一个机器人做一个动作,做什么动作呢?我做一个比如说打高尔夫球的动作,那他就去做模拟,他一遍一遍的做,这样的话,如果一个机器人的公司,它以使用这样的模拟器。它去做这种模拟的时候,可以同步去做多个,或者是把一种机器人同步做多个机器人的模拟,然后做多个场景的模拟,甚至是一个场景多个机器人去模拟,这样去做。这样的话,会极大的提升模拟和开发的效率。

返回列表