OpenVLA是一个开源的视觉-语言-动作模型,旨在通过高效微调的方式支持多机器人控制,结合了先进的语言和视觉编码技术,能够在多种任务中表现出色,适用于广泛的机器人应用场景。
EdgeVLA是一个开源的边缘视觉-语言-行动模型,旨在增强机器人对视觉信息的理解和执行指令的能力。该项目专为边缘计算环境设计,支持社区贡献和改进。
智元灵犀X1所使用的强化学习训练代码,可配合智元灵犀X1配套的推理软件进行真机和仿真的行走调试,或导入其他机器人模型进行训练。
AgiBot-World是全球首个大规模高品质机器人操作基准测试平台,提供百万级轨迹数据和百种真实世界场景,支持精细操作、工具使用和多机器人协作,旨在推动机器人技术的发展与应用。
VL-PET是通过粒度控制实现视觉与语言模型的参数高效调优,旨在提升模型在特定任务上的表现。
这是一个完整的管道,用于在消费硬件上使用LoRA和RLHF微调Alpaca LLM。基于Alpaca架构实现人类反馈的强化学习(RLHF),基本上是ChatGPT的一个变体,但使用的是Alpaca。
mink是一个基于MuJoCo的Python逆向运动学库,旨在为多种机器人提供高效的差分逆向运动学解决方案。该库使得机器人在复杂环境中的运动规划和控制变得更加简便,适合研究和应用于多种机器人平台。
基于AutoDL快速部署开源大模型,提供完整指南,包括环境配置、部署和微调,助你轻松掌握各类大模型应用
iSEE项目旨在研究导航代理在其环境中学习到的知识,探索代理与环境的交互及其学习过程的结果。