
「智猩猩AI新青年讲座」由智猩猩出品,致力于邀请青年学者,主讲他们在生成式AI、LLM、AI Agent、CV等人工智能领域的最新重要研究成果。
AI新青年是加速人工智能前沿研究的新生力量。AI新青年的视频讲解和直播答疑,将可以帮助大家增进对人工智能前沿研究的理解,相应领域的专业知识也能够得以积累加深。同时,通过与AI新青年的直接交流,大家在AI学习和应用AI的过程中遇到的问题,也能够尽快解决。
「智猩猩AI新青年讲座」现已完结236讲,错过往期讲座直播的朋友,可以点击文章底部 “ 阅读原文 ” 进行回看!
如何合成语义信息合理、真实且多样化的三维室内场景是计算机图形学中一个长期存在的问题。当前主流的方法包含:传统场景建模与合成、基于学习的生成场景合成、三维扩散生成模型。前两者在合成任务中通常伴随着效率低下、多样性差以及难以捕获对象间的关系等问题。
基于此,慕尼黑工业大学在读博士唐佳鹏提出了一种基于去噪扩散模型的三维室内场景生成方法DiffuScene。相关论文《DiffuScene: Denoising Diffusion Models for Generative Indoor Scene Synthesis》收录于CVPR 2024。
场景去噪扩散模型DiffuScene旨在学习包括语义类别、表面几何形状和多个对象位置的3D室内场景分布。
首先,假设室内场景位于以地板中心为原点的坐标系中,每个场景由最多N个对象组成,把这个场景表示为无序集合X0。
其次,利用去噪扩散模型DiffuScene学习3D室内场景的数据分布:在前向过程中,逐渐向X0添加噪声,直到得到一个标准高斯噪声XT;在反向过程(即生成过程)中,去噪网络通过ancestral sampling的方式迭代地清除噪声场景。
最后,引入去噪类别标签和形状潜在编码进行形状检索,并通过去噪的位置、大小和方向来确定物体的几何特征。
该方法在场景补全、场景重建、文本引导的场景合成等下游应用中都表新出了优异的性能。
6月4日晚7点,智猩猩邀请到论文一作、慕尼黑工业大学视觉计算与人工智能实验室在读博士唐佳鹏参与「智猩猩AI新青年讲座」237讲,主讲《基于去噪扩散模型的三维室内场景生成》。
主讲人
唐佳鹏
慕尼黑工业大学视觉计算与人工智能实验室在读博士
师从Matthias Niessner教授。主要研究方向为三维物体/场景/数字人头的生成与重建。科研成果曾多次发表于计算机视觉与图形学顶级会议(如CVPR、ICCV、NeurIPS、SIGGRAPH),并多次担任人工智能顶级会议审稿人。
第237讲
主 题
基于去噪扩散模型的三维室内场景生成
提 纲
1、3D场景生成的研究现状与进展
2、基于扩散的3D室内场景生成模型DiffuScene
3、DiffuScene的应用领域及方法对比
4、3D室内场景生成的局限性与展望
直 播 信 息
直播时间:6月4日19:00
直播地点:智猩猩知识店铺
成果
论文标题
《DiffuScene: Denoising Diffusion Models for Generative Indoor Scene Synthesis》
论文链接
https://arxiv.org/abs/2303.14207
项目网站
https://tangjiapeng.github.io/projects/DiffuScene
对本次讲座感兴趣朋友,可以扫描下方二维码,添加小助手米娅进行报名。已添加过米娅的老朋友,可以给米娅私信,发送“237”即可报名。
我们会为审核通过的朋友推送直播链接。同时,本次讲座也组建了学习群,直播开始前会邀请审核通过的相关朋友入群交流。