V
主页
基于扩散模型的可控4D引导视频生成
发布人
【加群】 一起来刷arxiv,请加vx: pwbot02(请备注:b站arxiv) 【论文标题】 基于扩散模型的可控4D引导视频生成 【论文简述】 本文提出了一种新颖的基于扩散模型的方法,用于生成受控的4D引导视频。该方法结合了动态3D网格的控制性和新兴扩散模型的表现力和可编辑性。通过将一个动画的低保真度渲染网格作为输入,并在各个阶段注入从动态网格获得的地面实况对应信息,输出高质量且时间一致的帧。该方法在各种示例中展示其优点,其中运动可以通过动画刚性资产或改变相机路径获得。实验结果表明,该方法在各种场景下都能生成高质量的动画,并且在时间一致性方面优于现有方法。 【论文链接】 https://arxiv.org/abs/2312.01409
打开封面
下载高清视频
观看高清视频
视频下载器
零延迟实时生成游戏拿到2100万美元融资模型代码完整开源
一张图生成3D和4D场景的开源视频扩散模型
FastDiT-3D:高效生成高质量三维点云的扩散变换器
ReconFusion:基于扩散先验的三维重建
千人千图,AI实时生成游戏画面,CS:GO也被攻略了
直观理解Vision Transformer(ViT)及Diffusion Models使用扩散模型进行图像合成,
ICCV 2023 通过语言引导实现持续学习
NeurlPS'24 开源 | 使用VoxSplats 进行即时大规模场景重建,仅用3张 图像就可在20秒内重建百米大场景
一种基于物理信息纠正的交互扩散模型
2024.11.24组会-生成模型专题汇报
动态3D高斯分布与合成扩散模型:实现文本到4D动画的生成
HiFi Tuner:基于扩散模型的高保真度个性化图像生成
【生成式AI】李宏毅大佬2024新课:【扩散模型-diffusion model 背后的数学原理】内容优质且易懂,看完直接跑通!(含配套资料)
生成高质量的长视频:SEINE视频扩散模型
FreeInit:弥合视频扩散模型初始化鸿沟以提升生成视频的时间一致性
DeepCache:无需训练加速扩散模型的创新方法
综述:大模型的可解释性研究
Concept Sliders: LoRA Adaptors for Precise Control in Diffusion Models
极速高效的生成4K图像的文生图模型Sana,强于超大型扩散模型,可在16GB笔记本上部署
FineControlNet:基于空间对齐文本控制注入的图像生成细粒度文本控制
UFOGen: 一步高效文本到图像生成模型
Prompt2Model实现提示驱动的AutoML
基于扩散模型的360度全景图像生成任务
Diffusion Model(扩散模型)!2024年公认最通俗易懂的扩散模型来了!3小时入门到精通!建议收藏!(人工智能/深度学习/机器学习/神经网络/AI)
单张图像到3D的高效生成:基于分摊生成的3D高斯模型
Implicit Diffusion: Efficient Optimization through Stochastic Sampling
扩散模型论文概述(一):OpenAI系列工作
Alchemist:基于扩散模型的材质属性参数化控制
基于多注意力卷积神经网络的细粒度图像识别研究
无需相机参数的3D高斯散射:COLMAP-Free 3DGS实现稳健的视角合成与姿态估计
基于共享注意力的风格一致图像生成方法
讲座 | HiDiffusion:高效、无需训练的更高分辨率图像生成框架——旷视研究院高级研究员张慎
基于扩散模型的文本到图像合成
PhysGaussian: Physics-Integrated 3D Gaussians for Generative Dynamics
【斯坦福吴恩达】2024公认的最好的扩散模型原理课程-How Diffusion Models Work~
DiLightNet: Fine-grained Lighting Control for Diffusion-based Image Generation
Unity 6 的光, 是真的光啊
基于文本和图像的高质量视频生成技术研究
EmerDiff: Emerging Pixel-level Semantic Knowledge in Diffusion Models
Pyramid Flow:高效的视频生成