SVGS:通过高斯散布技术实现从单视图到三维对象编辑的转换

《ACM Transactions on Multimedia Computing, Communications, and Applications》:SVGS: Single-View to 3D Object Editing via Gaussian Splatting

【字体: 时间:2026年03月30日 来源:ACM Transactions on Multimedia Computing, Communications, and Applications

编辑推荐:

  针对基于隐式表示的3D场景编辑方法存在的处理速度慢和区域控制有限问题,本文提出单视图到3D物体编辑的高效方法SVGS,结合稀疏高斯 splatting实现快速编辑,并在多视图一致性优化中提升结果一致性。

要查看此由 AI 生成的摘要,您必须具有高级访问权限。

摘要

摘要

基于文本的 3D 场景编辑因其便捷性和用户友好性而引起了广泛关注。然而,依赖隐式 3D 表示方法(如 Neural Radiance Fields (NeRF))虽然在渲染复杂场景方面效果显著,但受到处理速度慢和对手动控制场景特定区域能力有限的限制。此外,现有的方法(包括 Instruct-NeRF2NeRF 和 GaussianEditor)在执行文本指令时,经常在不同视图之间产生不一致的结果。这种不一致性会不利地影响模型的整体性能,使得在编辑结果的一致性和编辑效率之间找到平衡变得更加复杂。为了解决这些挑战,我们提出了一种名为“通过高斯点扩散实现单视图到 3D 对象编辑”(Single-View to 3D Object Editing via Gaussian Splatting,简称 SVGS)的新方法,这是一种基于 3D 高斯点扩散(3DGS)的单视图文本驱动编辑技术。具体来说,我们引入了一种基于多视图扩散模型的单视图编辑策略,仅利用那些能够产生一致编辑结果的视图来重建 3D 场景。此外,我们采用稀疏 3D 高斯点扩散作为 3D 表示方法,显著提高了编辑效率。我们对 SVGS 与现有基线方法在各种场景设置下进行了比较分析,结果表明 SVGS 在编辑能力和处理速度方面均优于其他方法,代表了 3D 编辑技术的重大进步。如需更多详细信息,请访问我们的项目页面:https://amateurc.github.io/svgs.github.io/

AI 摘要

AI 生成的摘要(实验性)

该摘要是使用自动化工具生成的,并非由文章作者编写或审核。它旨在帮助发现、评估相关性,并协助来自相关研究领域的读者理解本文内容。它旨在补充作者提供的摘要,后者仍是论文的正式摘要。完整文章才是权威版本。点击此处了解更多

点击 此处 对此摘要的准确性、清晰度和实用性进行评论。您的反馈将有助于改进未来的版本。

要查看此由 AI 生成的通俗语言摘要,您必须具有高级访问权限。

订阅生物通快讯

订阅快讯:

最新文章

限时促销

会展信息

关注订阅号/掌握最新资讯

今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

版权所有 生物通

Copyright© eBiotrade.com, All Rights Reserved

联系信箱:

粤ICP备09063491号