GenRL是一个多模态基础世界模型,旨在为通用具身智能体提供支持。它能够将语言和视频提示嵌入到具身领域,通过解码模型的潜在状态序列来可视化预期行为,进而训练智能体执行任务。该项目适用于强化学习和多模态任务的研究,是开发具身智能体的基础模型。