基于文本的 3D 场景编辑因其便捷性和用户友好性而引起了广泛关注。然而,依赖隐式 3D 表示方法(如 Neural Radiance Fields (NeRF))虽然在渲染复杂场景方面效果显著,但受到处理速度慢和对手动控制场景特定区域能力有限的限制。此外,现有的方法(包括 Instruct-NeRF2NeRF 和 GaussianEditor)在执行文本指令时,经常在不同视图之间产生不一致的结果。这种不一致性会不利地影响模型的整体性能,使得在编辑结果的一致性和编辑效率之间找到平衡变得更加复杂。为了解决这些挑战,我们提出了一种名为“通过高斯点扩散实现单视图到 3D 对象编辑”(Single-View to 3D Object Editing via Gaussian Splatting,简称 SVGS)的新方法,这是一种基于 3D 高斯点扩散(3DGS)的单视图文本驱动编辑技术。具体来说,我们引入了一种基于多视图扩散模型的单视图编辑策略,仅利用那些能够产生一致编辑结果的视图来重建 3D 场景。此外,我们采用稀疏 3D 高斯点扩散作为 3D 表示方法,显著提高了编辑效率。我们对 SVGS 与现有基线方法在各种场景设置下进行了比较分析,结果表明 SVGS 在编辑能力和处理速度方面均优于其他方法,代表了 3D 编辑技术的重大进步。如需更多详细信息,请访问我们的项目页面:https://amateurc.github.io/svgs.github.io/。