全球首部NVIDIA DPU编程书籍来了!为AI开发提供“武林秘籍”

芯东西(公众号:aichip001)
作者 |  ZeR0
编辑 |  漠影

10月17日,NVIDIA宣布《数据处理器:DPU编程入门》新书正式上市发行。这是全球首部NVIDIA DPU和DOCA编程入门书籍,由机械工业出版社出版、NVIDIA十余位资深系统架构师历经数月编写而成,将为开发者提供快速学习如何在DPU上灵活编程的实用指南。

全书共有五大部分、十个章节,让读者可以对DPU的市场需求、技术趋势、应用场景、相关功能、安装使用、软件开发、实践用例、生态体系解决方案等有一个整体了解。本书目前可在机械工业出版社的京东自营官方旗舰店、当当自营官方旗舰店和天猫旗舰店等线上渠道购买,同时也可在各大新华书店等线下渠道购买。

全球首部NVIDIA DPU编程书籍来了!为AI开发提供“武林秘籍”

NVIDIA创始人兼CEO黄仁勋将DPU(数据处理器)称作与CPU、GPU并肩的未来计算三大支柱,认为数据中心将成为新的计算单元。通过把数据中心基础设施操作从CPU卸载到DPU上,可将CPU和GPU的计算资源集中到应用程序和业务负载上,这是数据中心演变的大势所趋。

NVIDIA DOCA是一个为NVIDIA BlueField系列DPU量身定做的软件开发环境,让开发者能够快速创建基于DPU加速的高性能应用程序和服务,是释放DPU潜力的关键。

目前,中国是全球最大的DOCA开发者社区,DOCA开发者中将近一半来自中国。新发布的《数据处理器:DPU编程入门》为中国DOCA开发者提供了官方的参考书籍,可帮助没有DPU开发经验的人快速掌握DOCA软件开发技能,帮助具有DPU开发经验的从业人员更系统地学习DOCA软件开发环境,并辅助数据中心管理人员和开发运维人员更好地在数据中心部署和使用NVIDIA DPU和DOCA应用程序或服务。

一、全球首部NVIDIA DPU编程书籍:为加速AI大模型开发提供捷径

在NVIDIA新书发布会上,NVIDIA全球副总裁、中国企业营销负责人刘念宁与NVIDIA中国区工程和解决方案高级总监赖俊杰博士,分别一副古风武侠扮相,为在座媒体揭晓了AI背后的“武林秘籍”——全球首部NVIDIA DPU编程书籍《数据处理器:DPU编程入门》。

“上个礼拜,我去总部请教我们的 CEO 黄仁勋,要在百花齐放的大模型中胜出,需要练成盖世神功,有什么秘诀、有什么秘籍?他告诉我,秘诀是有的,秘籍也是有的。”刘念宁在开场致辞中分享到,“秘诀就是‘三芯+二意,打造AI世界’,三芯即GPU+CPU+DPU,二意即CUDA+DOCA。”

刘念宁认为,在生成式AI时代,DPU是企业构建加速计算平台、AI工厂的关键。NVIDIA BlueField 系列 DPU在DOCA软件开发环境的支持下,能帮助企业构建一个软件定义、硬件加速的数据中心基础设施,从而更好地支撑大模型训练的苛刻要求,值得广大开发者投入研究和学习。

在NVIDIA中国区工程和解决方案高级总监赖俊杰博士看来,全球企业正在从通用计算向加速计算和生成式AI转变,DPU作为全新的处理器类型,满足了数据中心基础设施在性能、效率、规模、弹性、安全和能效等方面的需求。

“今天我们要想做好AI这件事情,或者说更好地做好AI这件事情,不仅仅是买几张GPU卡,还要有很好的网络互连,也要有很好的编程环境。”赖俊杰在致辞时谈道,“NVIDIA在不同芯片数据中心的参考架构、编程语言上都有非常多的投资,其中一环就是最新发布的“武林秘籍”,能够帮助开发者更好地在数据中心做数据在不同处理器之间的快速搬移,把宝贵的CPU、GPU资源释放出来,做到最快速的用户需求响应。”

“我们成书的背景就是扑面而来的AI时代,用黄仁勋的话说,现在是人工智能的「iPhone时刻」。”NVIDIA网络市场总监孟庆谈道,从去年年末ChatGPT兴起后,很多行业都在慢慢面临革命性的变化,用AI改变生产力。

自2020年开始,NVIDIA就在不断强调DPU,如今已是第三代DPU投入使用。在他看来,采用DPU是帮助AI大模型开发提高效率、减少工作量的一条捷径,掌握DPU技术是必不可少的必修课。对于数据中心管理人员、开发运维人员来说,DPU处理基础设施通信、流量、虚拟化和安全,可以极大地改变和简化管理,也会更加高效。

二、系统性教你掌握DPU及软件开发,第一阶段目标销量10000册

孟庆分享了一些本次新书的发布亮点。

考虑到很多学生没有接触到网络、对DPU不熟悉,《数据处理器:DPU编程入门》的定位为NVIDIA BlueField系列DPU和NVIDIA DOCA开发环境的入门学习参考,内容由浅入深,涉及到DPU及其编程开发的方方面面,以便开发者参照官方资料开展编程实践。

本书目标读者覆盖广泛,包括从初学者到有DPU开发经验的工程师。读者可以从书中收获系统性的DPU和DOCA学习过程,了解DPU应该怎么使用,怎么满足数据中心应用需求。

NVIDIA网络技术专家崔岩谈道,本书对读者的画像和定位大概是三个方面:(1)对网络基础有一定的知识理解,但门槛并不是很高;(2)对Linux的命令、日常使用需要有一定的基础知识和要求;(3)会C语言开发。

以上三个方面是比较容易上手DPU的基础。如果再进一步,最好是有配备了DPU的服务器环境,这样会更容易实现想要创新的软件或服务。但没有环境也没关系,本书还介绍了如何在x86环境下配置模拟开发环境来进行相应的编程工作,最后还要到真实的环境运行、调试和优化。

全书内容涵盖DPU的简介、技术优势、未来技术发展路径及应用范畴,包括NVIDIA BlueField系列DPU在结构通用化、功能多样化、应用广泛化和场景丰富化方面的前景展望,NVIDIA DOCA软件开发环境配置,以及基于NVIDIA BlueField系列DPU利用NVIDIA DOCA软件开发环境的程序开发实践案例。

在书籍的前几页,列有一些在线资源的短链接,以便查阅DPU及其编程开发的最新技术更新、突破性进展及免费课程。

本书还介绍了将DPU和GPU融合的产品解决方案,旨在读者能够打开对DPU的认知,扩展对DPU应用领域的范畴,更好发挥开发的主观能动性和实现创新。

读者可以通过本书对DPU硬件架构与软件开发有一个整体了解,学习如何启用DPU以及搭建DOCA软件开发环境,通过深入了解DOCA应用程序开发实例来掌握如何实现软件定义、硬件加速数据中心基础设施的应用程序或服务,并利用DPU和DOCA构建云和AI应用所需的数据中心基础设施。

VMware资深总监兼中国区云平台部门总经理宋向军评价说:“本书是全球第一本系统性介绍DPU及其软件开发的书籍,对DPU在现代数据中心中的应用有重要的普及作用。广大读者能深入了解DPU的技术发展、软硬件特性、软硬件安装、开发环境实践、应用用例和生态体系。对期望从事基于NVIDIA BlueField系列DPU进行软件开发的开发人员有非常好的学习和借鉴意义。”

据机械工业出版社华章分社计算机图书事业部总经理杨福川分享,本书第一阶段目标是销量达10000册,因为在当下的计算机领域10000册属于畅销书级别,未来还会有更多相关书籍和课程被开发出来。

三、由中国资深系统架构师编撰,为DOCA开发者社区提供官方教材

“2021年6月,DOCA中国的开发者社区成立以来到今天,很荣幸在中国的土壤中诞生这本书。”孟庆说。

为什么首部DPU入门书籍在中国诞生?孟庆分享说,超过42%的DOCA开发者社区在中国,主要来源是有一部分初创公司、很多企业客户和云服务商、生态合作伙伴工程师,高校师生等。

NVIDIA陆续提供很多开发文档、开发免费的DLI课程、翻译相关的博客、白皮书及开发环境,供DOCA开发者进行实操。

“我们希望能够有一个书、一个册子,能够很官方、很系统性地从概念由浅入深,尤其是初学者不用东找一个文档,西找一个博客,而是能够有一个很权威的东西,像教材一样。”孟庆说。

DOCA开发者社区成立至今举办了两届线上比赛。NVIDIA正在进行的重要活动是DOCA应用代码开源活动,面向所有开发者,大家可以学习DPU和使用DOCA去做开源代码分享。该活动开展了6个月,已有超过200人注册。

DOCA与CUDA不同之处在于,每个人只要有内置NVIDIA GPU的台式机或笔记本电脑,就可以安装CUDA开发套件,但不是每个人都有数据中心、服务器和DPU来运行DOCA进行学习。

怎么解决呢?对此,NVIDIA从2021年开始陆续和合作伙伴分别采购相关的设备、服务器和DPU去做小的集群,并分享出来。只要是DOCA的注册开发者都可以申请免费使用相关的DPU集群,然后做自己的验证和开发,这些也是NVIDIA为中国开发者提供的全球独一份的福利。

“我们相信未来DOCA和DPU会在所有数据中心和AI中心出现,灵活地转变自身的功能。”孟庆说,“当初CUDA问世的时候,没有人能想像它未来会变成什么样、能有什么用,而到今天已经完完全全是颠覆世界的天才开发者诞生的地方。我们也希望DOCA和DPU以后会有更加天才的开发者赋予它更多的能力,让它进一步改变世界。”

结语:数据中心未来,DPU将无处不在

正如黄仁勋所言,数据中心基础设施需要进行大量的计算,安全性和性能方面会吃掉很多算力,而将虚拟化、网络、安全存储、数据控制等迁移到DPU上,有助于极大地加速数据中心的性能。

今天,程序员和工程师考虑的问题已经和以前有很大的区别,光考虑一台服务器的性能是远远不够的,需要更多地去想训练和部署服务的任务在数据中心该怎么做,需要考虑包括DPU在内的整个系统。

在AI工厂和生成式AI云两种数据中心的设计范例中,NVIDIA均使用DPU来加速数据中心基础设施,从而为大规模AI模型所需的大量GPU计算提供高性能、低延迟网络平台。随着更多企业采用生成式AI,DPU编程入门书籍为越来越多想要了解或考虑采用DPU的开发者、工程师及数据科学家们提供了便捷的学习渠道。

“我们要真正能够让我们的开发者更简单、更容易上手、让更多人知道怎么去应用DPU。”刘念宁相信,以前讲的是CUDA无处不在,以后还将有DOCA和DPU无处不在。