机器学习容器云公开课上线!两位专家深度讲解AI Max机器学习平台的大规模容器调度方案 | 直播预告

随着人工智能技术的发展,AI技术逐步从研究实验走向工业生产与应用。而在实际的开发过程中,总会出现各种问题,如:GPU价格昂贵,是否有充分利用每一块GPU资源;开发环境多样化,cuda、cudnn、TensorFlow、PyTorch等工具版本众多、且更新快,那么如何进行兼容与框架选择等等。

针对开发环境多样化的问题,目前比较主流的方法是Docker技术。Docker是基于LXC容器技术使用Go开发的开源软件,可以打包代码的运行环境+代码,并且移植性强,可以把代码的运行环境+代码打包成Docker镜像,在不同的平台上进行运行。相比于传统的基于硬件层面的虚拟化,Docker是基于操作系统层面上的虚拟化,可直接利用本地主机的操作系统,更加轻量化。因此在开发过程中,Docker成为了开发者解决不同开发环境依赖的首选方法。

少量Docker容器相对来说比较好管理与调度, 那么基于云端的大规模容器之间又该如何调度呢?又如何对容器中的机器学习进行推理加速呢?为了让大家更好的了解容器云中的机器学习加速原理与构建,智东西公开课推出机器学习容器云公开课。8月20日晚7点,由超集信息中国平台研发总监李盘宵与NVIDIA解决方案架构师黄煜主讲,为大家带来主题为《AI Max机器学习平台的大规模容器调度方案解析》的直播讲解。

超集信息的李老师将从NVIDIA GPU在当前AI领域的应用现状出发,对大规模容器调度方案进行解析,并深度讲解机器学习平台AI Max的架构及应用。而NVIDIA的黄老师将会向大家介绍NVIDIA DGX A100系统与A100 GPU,以及NVIDIA NGC软件中心的底层加速原理。

李盘宵是超集信息中国平台研发总监,在AI、云计算平台方面具有丰富的架构和研发经验,带领团队研发了基于k8s和docker的大规模容器AI云平台,产品在行业处于领先地位。其个人擅长k8s、docker,微服务等多项技术。黄煜是NVIDIA解决方案架构师,本科和硕士毕业于北京邮电大学。他在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富经验,致力于为NVIDIA合作伙伴在GPU软硬件、深度学习开发等方面提供解决方案支持。

专场内容

主题:
AI Max机器学习平台的大规模容器调度方案解析

提纲:
1、NVIDIA GPU在当前AI领域的应用现状
2、大规模容器调度方案解析
3、机器学习平台AI Max架构及应用
4、NVIDIA DGX A100系统与A100 GPU
5、NVIDIA NGC软件中心介绍

讲师介绍

李盘宵,超集信息中国平台研发总监,在AI、云计算平台方面具有丰富的架构和研发经验,带领团队研发了基于k8s和Docker的大规模容器AI云平台,产品在行业处于领先地位。个人擅长k8s、Docker,微服务等多项技术。

黄煜,NVIDIA解决方案架构师,本科和硕士毕业于北京邮电大学。在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富经验。现为英伟达解决方案架构师,致力于为NVIDIA合作伙伴在GPU软硬件、深度学习开发等方面提供解决方案支持。

直播信息
时间:8月20日19点
地点:智东西公开课小程序

报名方式

添加智东西公开课小助手芒芒(ID:zhidxclass005)报名,添加时请备注“姓名-公司/学校-职位/专业”,因报名人数过多,优先通过备注者。