xfeat 是一个利用GPU加速和Optuna进行超参数优化的灵活特征工程与探索库。它提供了强大的工具,用于高效的特征生成和转换,旨在实现可扩展性和高性能。xfeat 特别适合处理大规模数据集,帮助用户加速特征工程任务,探索和生成新特征,优化特征工程管道,并通过高级特征转换提升机器学习模型的性能。
这是一个非常通用且功能丰富的模板,专为快速且可扩展的机器学习实验流程设计。它集成了PyTorch Lightning、Hydra、Optuna和Weights & Biases,能够显著提升深度学习工作流的效率,并提供灵活的配置管理、超参数优化、实验跟踪与可视化等功能。
Optuna是一个专为易用性、可扩展性和灵活性设计的下一代超参数优化框架。它支持剪枝和并行化,能够自动停止无希望的试验,并在多个进程或线程中进行并行优化。Optuna提供了动态搜索空间的定义-by-run API,并提供了多种采样器以适应不同的优化策略。此外,Optuna还集成了可视化工具,用于分析优化结果,并支持与TensorFlow、PyTorch、XGBoost等流行机器学习框架的无缝集成。
RePlay是一个全面的端到端推荐系统框架,集成了最新的推荐算法模型。它提供了数据预处理和切分、多种推荐模型支持、超参数优化、全面的评估指标、模型集成和混合,以及从离线实验到在线生产的无缝切换。该框架支持CPU/GPU和分布式计算,适用于大规模推荐系统的构建和评估。
Zeno Build旨在帮助开发人员快速构建、比较和迭代使用大型语言模型应用的工具,提供简单的代码示例和实验管理功能。
一个高效的深度学习训练框架,旨在简化模型训练和优化过程,提供了多种预训练模型和工具,适用于计算机视觉任务。
这是一个用于分布式PyTorch训练的基础项目,旨在帮助用户快速定制自己的网络。
tinyzero是一个使用Python编写的项目,旨在轻松训练类似AlphaZero的智能体,适用于任意环境,并提供了训练和评估智能体的功能。
RLx2是清华大学团队提出的一种强化学习专用的稀疏训练框架,能够完全基于稀疏网络训练深度强化学习模型。
BitNet是微软发布的1-bit LLM变体研究,支持在CPU上快速无损地推理1.58位模型。该项目通过将每个参数表示为三进制数 {-1, 0, 1},显著改善了时延、内存利用、吞吐量和能耗,能够在苹果M2等CPU上运行,适用于1.58位模型的无损推理。
LLM-Tuning 是一个专注于简化大语言模型(LLM)微调过程的工具,支持多种模型与数据集,旨在帮助用户轻松实现模型训练与评估。
多智能体自动生成框架,基于LLM的自动智能体生成的实验性开源应用,由LLM驱动,自主生成多智能体以实现设定的目标。
PushT环境:基于gymnasium的仿真环境,用于训练智能体将特定形状的块推至目标区域,支持多种观察空间和连续动作空间