Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26
AI交流(进群备注:)

Diffusion-Planner是一个创新的自动驾驶规划项目,利用扩散模型进行运动规划。该项目在nuPlan数据集上表现优异,特别是在闭环规划场景中,能够以20Hz的频率实现实时规划。它采用基于变换器的扩散模型架构,支持多模态驾驶行为建模,无需依赖基于规则的细化。项目功能包括未来轨迹生成、分类器引导确保安全性和舒适性,以及灵活的引导组合以适应不同驾驶风格。Diffusion-Planner在复杂交通场景中展现出强大的闭环性能和多样驾驶风格的鲁棒性,适用于实际应用场景。
Diffusion-Planner的特点:
- 1. 采用基于变换器的扩散模型(DiT-based architecture)进行闭环规划
- 2. 联合建模运动预测和规划任务,生成未来轨迹
- 3. 支持多模态驾驶行为建模,无需基于规则的细化
- 4. 实现约20Hz的实时性能,适合实际应用
- 5. 通过分类器引导机制确保安全性和舒适性
- 6. 在nuPlan数据集和200小时配送车辆驾驶数据集上表现优异
Diffusion-Planner的功能:
- 1. 自动驾驶车辆的运动规划
- 2. 复杂交通场景中的多模态行为建模
- 3. 实时闭环规划,适用于实际驾驶场景
- 4. 研究自动驾驶规划算法的性能和泛化能力
- 5. 测试不同驾驶风格下的规划效果
相关导航

AniTalker开源项目 – 生成生动说话面部动画的开源工具
AniTalker是一个开源项目,通过身份解耦的面部动作编码技术,生成生动多样的说话面部动画。它能够从单张图片和音频中生成动态视频,支持生成超过3分钟的超长视频,并且能够匹配表情和头部动作。AniTalker采用通用的运动表示法捕捉复杂面部动态,利用自监督学习策略实现精确的运动描述,并通过扩散模型生成多样且可控的面部动画。项目分为两个阶段,第一阶段聚焦于动作编码器和渲染模块的训练,第二阶段基于diffae和espnet进行扩散训练。AniTalker提供了一个demo,用户可以使用特定的音频输入和图片,生成对应的动画效果,并鼓励社区成员进行进一步的开发和贡献。
暂无评论...