LGM(Large Multi-View Gaussian Model)是由北京大学和南洋理工大学的研究团队开发的新型3D内容创作框架。它可以从文本提示或单视角图片快速生成高分辨率的3D模型。LGM采用多视角高斯特征进行3D表示,通过可微渲染生成逼真的3D图像,并使用不对称的U-Net作为3D主干网络,支持高通量操作和多视角高斯特征的生成。LGM具有高分辨率、高效率和高灵活性的特点,适用于各种3D任务和场景。
GRM是一个用于3D重建和生成的大型高斯重建模型,能够在极短的时间内(约0.1秒)重建出精确的3D模型。它支持将文本或图像直接转换成3D模型,适用于多种应用场景。该项目由Yinghao Xu等人开发,相关代码和模型即将发布。