在 NVIDIA 的 GPU 中构建高速计算的大脑,带 Python 玩的那种 | Q推荐

百家 作者:InfoQ 2021-02-22 15:20:46 阅读:44

据 Gartner 报道,“2019 年 5 月,前四大云计算供应商在 97.4% 的基础设施即服务(IaaS)计算实例类型中部署了 NVIDIA GPU,并配备了专用加速器”。

可以说,只要在云上环境进行高强度的深度学习计算,NVIDIA GPU 是无法绕过的那个『坎』。

尽管对于部分需要用到训练和部署的数据科学工作而言,CPU 这种通用处理芯片的能力就已经足够,但由于近年来在人工视觉、NLP 自然语言处理等神经网络体系结构领域的创业与研究热潮不断上涨,CPU 性能已经无法满足如此高密度、高性能的计算需求。针对能够执行并行计算、数据吞吐量更高的 GPU 开发已经成为领域下的『刚需能力』,这也才有了本文开头前四大云厂商纷纷部署 NVIDIA GPU 的那句话。

因此,NVIDIA 推出了 CUDA(Compute Unified Device Architecture)运算平台,其并行计算架构赋予了 GPU 解决复杂计算问题的能力,其中的 Numba 是一个支持 Python CUDA 的编译器,它为 Python 开发人员提供了一个简单的进入 GPU 加速计算的入口,目前已广泛应用在深度学习,计算机视觉,生物医疗,环境科学,气象预报,石油勘探等大量的使用场景之下。

对此,NVIDIA 联合 InfoQ 为广大有高性能计算和人工智能开发需求的开发者提供一系列的 CUDA Python 编程实战在线培训课程。2021 年 2 月 25 日 20 点 - 21 点 30 分,NVIDIA 开发者社区经理何琨 (KEN) 将为大家带来主题为【CUDA Python —— 最新的 CUDA 11 编程基础以及图像处理】的线上课程分享。

为什么我推荐你参加此次线上课程?
  • 快速了解 CUDA11 的最新特性

  • 快速掌握 CUDA Python 计算环境的部署与搭建方法

  • 学习如何使用 CUDA Python 进行快速的迭代开发

  • 掌握 CUDA 计算模型的基本原理

  • 学习使用 CUDA Python 进行图像处理的方法

  • ......

扫描下方二维码或点击【阅读原文】即可免费报名。



点个在看少个 bug 

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:http://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

图库
关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接