阿里巴巴开源视频生成模型Wan2.1,引领AI视频创作新潮流

AI快讯2周前发布 admin
0 0

开源背景与意义

2024年2月25日晚间,阿里巴巴宣布将其视频生成大模型Wan2.1全面开源。此次开源采用Apache2.0协议,标志着阿里巴巴在AI视频创作领域的又一重大突破。开源内容包括14B和1.3B两个参数规格的推理代码和权重,支持文生视频与图生视频任务,全球开发者可在Github、HuggingFace、魔搭社区等多个平台下载体验。

Wan2.1的技术优势

Wan2.1模型在多个方面表现出色,尤其是在指令遵循、复杂运动生成、物理建模和文字视频生成等方面。在权威评测集VBench中,Wan2.1以总分86.22%大幅超越Sora、Luma、Pika等国内外模型,稳居榜首位置。具体优势包括:

  • 复杂运动生成:能够稳定展现各种复杂的人物肢体运动,如旋转、跳跃、转身、翻滚等。

  • 物理建模:精准还原碰撞、反弹、切割等复杂真实物理场景。

  • 指令遵循:准确理解中英文长文本指令,还原各种场景切换、角色互动。

开源对开发者的影响

此次开源不仅提供了14B和1.3B两个参数版本模型,还支持在消费级显卡上运行,仅需8.2GB显存就可以生成480P视频。这使得Wan2.1模型不仅适用于二次模型开发,还非常适合学术研究。开发者可以通过以下平台下载体验:

  • Github

  • HuggingFace

  • 魔搭社区

未来展望

阿里巴巴此次开源Wan2.1模型,不仅展示了其在AI视频创作领域的技术实力,也为全球开发者提供了强大的工具和资源。未来,随着更多开发者的参与和贡献,Wan2.1模型有望在更多应用场景中发挥重要作用,推动AI视频创作技术的进一步发展。

通过这次开源,阿里巴巴再次证明了其在AI技术领域的领先地位,也为全球AI社区注入了新的活力。开发者们可以充分利用这一资源,探索更多创新的可能性。

© 版权声明

相关文章

暂无评论

暂无评论...