V
主页
[大佬讲paper第三期] 腾讯AI实验室胡文博大佬讲神经渲染中的Anti-Aliasing问题,以及SIG24中的新作Rip-NeRF等相关工作
发布人
Rip-NeRF: https://junchenliu77.github.io/Rip-NeRF/ Tri-MipRF: https://wbhu.github.io/projects/Tri-MipRF/ Analytic-Splatting: https://arxiv.org/abs/2403.11056 Zip-NeRF: https://jonbarron.info/zipnerf/ 感谢胡博士假期的时间!
打开封面
下载高清视频
观看高清视频
视频下载器
[CVPR大佬讲paper第二期] 上海AI实验室鲁涛大佬讲Scaffold-GS, GSDF, OctreeGS录制内容
2024最强 AI 集合!12个领域,47款AI工具,每一个都变态又好用!打工人必备!【建议收藏】
[3D生成] 浙大、字节SIG 24工作Coin3D,使用粗糙模型三维控制,可控且交互地生成三维资产,提升导出带纹理网格的质量
[动态3DGS与场景编辑] 请香港大学黄熠华博士一起讲讲SC-GS和Deformable 3DGS两项工作
【全198集】不愧是吴恩达!一口气讲完CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等深度学习神经网络算法,简直不要太爽!
[NeRF进展] 香港中文大学提出双边滤波器引导的NeRF重构,可以消除相机拍摄变化引起的artifact,也可以进行3D风格化渲染
TUM AI Lecture Series - Ben Poole(Google Brain)基于2D先验的3D生成方法(2023.07.18)
[NeRF开源框架,快速试错]SDFStudio,统一模块化的开源神经隐表面重建框架,快速尝试各种想法,支持UniSurf, VolSDF, NeuS等主要工作
[NeRF+自动驾驶]浙江大学提出READ,使用神经渲染方法完成大尺度级别的街景场景渲染,合成、缝合、编辑真实感自动驾驶场景(AAAI 2023)
吹爆!这可能是导师都不讲的Chatgpt论文写作指导教程,哈工大博士手把手带你亲历论文从选题到投稿完整版,还搞不定一篇论文你来打我!
[NeRF进展] 神经网络反向渲染的多视角光度立体视觉算法 (ECCV 2022)
[Transformer进展] ViewFormer,基于codebook+transformer模型的视角生成方法(优于NeRF,ECCV 2022)
[NeRF进展] MoFaNeRF,基于NeRF的面部可变形模型,让面部拟合、生成、面部绑定、面部编辑更容易,效果更好(ECCV 2022)
[NeRF进展,体渲染几何优化] UCSD,Adobe, ETH,蒂宾根大学提出NeuManifold,结合体渲染与流形生成精确网格的高速渲染,与传统管线兼容
【自用】北航研究生矩阵理论【课堂回放】
[动态NeRF进展] ETH,微软,苏黎世大学提出ResFields,将复杂的时域层合并至神经场,解决MLP时域复杂信号表达力弱问题,合用于动态形状建模问题
[NeRF编辑进展,开源] Seal-3D(浙江大学CS&AUS, CAD&CG实验室),一种可让用户自由在像素级别NeRF编辑的方法,并可实时预览编辑结果
[NeRF+Diffusion进展,少量输入重建] CMU提出SparseFusion,在最少两个输入视角情况下,可以完成3D一致性高的高质量重建
[NeRF机器人] 斯坦福报告:Perception-Rich Robot Autonomy with Neural Environment Models
[NeRF进展,带纹理的Mesh重建] 北京大学、百度提出NeRF2Mesh,优化现有Mesh重建方法,达到更好的Mesh效果、实时的渲染效果和后期处理能力
[NeRF编辑] 腾讯Pixel Lab,上科大提出Neural Imposters,一种将四面体网格与隐式表达混合的方法,可以实现神经场的编辑和控制操作
【2024版SD教程】这可能是B站唯一能将Stable Diffusion讲明白的教程,存下吧,比啃书好太多了!7天从入门到精通商业变现!拿走不谢,允许白嫖!
[Generative AI,自然场景生成] 山东大学、腾讯、北大提出Sin3DGen,一个3D生成模型,使用单个patch生成3D场景
[3DGS几何优化]上科大、图宾根大学提出2DGS,一种从多视图图像中建模和重建几何精确辐射场的新方法,解决3DGS几何一致性差的问题
[NeRF进展,3D形状表达] KAUST和TUM发表3DShape2VecNet,面向扩散生成模型的形状神经场表达,对3D形状编码和生成及多个下游任务非常有效
[Diffusion+NeRF进展]慕尼黑工业大学、Meta研究院提出DiffRF (也许是首次)基于扩散模型的3D辐射场生成方法
[Diffusion生成NeRF] TUM, Apple提出HyperDiffusion,用Diffusion计算神经场权重,统一框架下生成3D权重或4D动画
[NeRF进展,稀疏视角+depth先验] 南洋理工大学ICCV提出SparseNeRF,利用现实世界不准确观测的深度先验来蒸馏深度排名,达到较好的重建效果
[NeRF进展,效果提升] TUM与Meta推出GANeRF,使用GAN来解决视角观察缺陷以及小的光照变化带来的重建质量不佳问题,提升1.4dB以上
[NeRF进展,大规模城市场景建模] CMU, Argo AI提出SUDS,构建最大的动态NeRF,可快速重建大规模城市场景,并因分支建模,支持一定后期处理能力
[NeRF进展] Oppo, Buffalo, 上科大提出NeuRBF,使用自适应的RBF进行神经场表达,相比INGP, TensoRF等取得更好的渲染效果
[群友SIGGRAPH工作] 上科大等推出DressCode,使用文本生成真实感服装,通过大语言模型交互生成CG友好的服装
[3D特征] 克莱姆森大学,微软,CMU提出CVRecon,一个新的端到端 的3D神经重建框架,挖掘cost volume中的几何信息,提供了优质的3D特征
[点云+神经渲染进展] Apple, CMU, UBC提出Pointersect,给定一个点云,在不转换为其他表达的情况下,进行推理光线与表面相交性
可视化SGD、Adam优化器在深度学习中的作用,以及为什么特征选择在机器学习中很重要
[NeRF进展,实时渲染方向]格拉茨科技大学与Meta提出AdaNeRF,通过双网络模型自适应采样实现NeRF的实时渲染(ECCV 2022)
[NeRF进展] 浙江大学、阿里提出Mirror-NeRF,可以学习镜子准确的几何和反射效果,并可以支持多种不同的场景操控应用,如在场景中添加物体或镜子等
[3D生成] 南洋理工、香港中文、上海AI实验室提出DiffTF,一个基于扩散模型和三平面的前馈框架,用于生成多样化的、大语料量规模的真实世界3D物体
[数据集] 上海AI实验室、商汤等提出DNA-Rendering,一个多样化的,高精度,以人物为中心的,包含2D/3D人体关键点,前景mask等大规模人体数据集
[NeRF+强化学习]柏林工业大学、MIT、Google使用NeRF监督强化学习agent的方法,加强自动物体操控能力(NeurIPS 2022)