MLOps-Basics是一个通过Jupyter Notebook形式逐步引导读者掌握MLOps核心概念和实践技能的系列教程。项目涵盖了从数据获取与处理、模型定义与训练、推理实现等基础环节,逐步深入到模型监控、配置管理、数据版本控制、模型打包、CI/CD、容器注册、无服务器部署以及预测监控等高级主题。教程通过每周一个主题的方式,帮助读者全面理解MLOps的各个方面。
吴恩达的课程,旨在引导学员完成LLM预训练流程,包括数据准备、模型架构配置、训练和评估。学员将学习如何使用HuggingFace获取训练数据,配置Transformer网络,运行训练并进行性能评估,同时探讨深度升级技术以降低计算成本。
建立在HuggingFace模型和PyTorch Fully Sharded Data Parallelism基础上的训练套件,旨在优化吞吐量,简化在资源受限环境中训练中型模型的分布式方案设置工作流程,尤其适用于学术集群。
LLaMA-O1 是一个大型推理模型框架,专为 PyTorch 和 HuggingFace 设计,支持训练、推理和评估。它集成了蒙特卡洛树搜索(MCTS)、自我对弈强化学习、PPO 和类似 AlphaGo Zero 的双策略范式,适用于大型语言模型的开发和应用。
HugNLP是一个基于HuggingFace Transformer的综合自然语言处理库,支持多种NLP任务,具有易于使用的API接口和丰富的预训练模型,同时允许用户自定义模型训练。
一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练和融合、量化。
Epoching-Blog是一个集成了PyTorch、fastai和HuggingFace的自然语言处理实战教程,旨在帮助用户通过实践深入理解深度学习及其在NLP领域的应用。项目提供了丰富的代码示例和详细的教程,适合希望提升NLP技能的学习者。
OpenLM是一个与OpenAI兼容的库,可以调用其他供应商(如HuggingFace,Cohere等)的LLM。它的使用方式与OpenAI的Completion API相似,返回的响应结构也相似。
该项目演示了如何使用HuggingFace和DeepSpeed对EleutherAI的GPT-Neo模型进行微调,以生成Netflix电影描述,整个过程仅需47行代码,便于实现高效的文本生成。
JAXSeq建立在Huggingface的Transformers库之上,可用JAX训练非常大的语言模型,目前支持GPT2,GPTJ,T5和OPT模型。它结合了JAX的高效计算能力与Huggingface的丰富模型资源,提供了一个灵活且高效的训练平台,适用于不同规模和类型的语言模型的训练与微调。
Diffusers是HuggingFace官方推出的生成模型工具包,集成了Stable Diffusion 3、DALL-E 3等前沿模型,支持文生图、图生图、视频生成等全流程。该库支持多种新功能和pipeline,包括UniDiffuser、DiffEdit、IF DreamBooth和A1111 LoRA等,适用于数字内容创作、工业设计原型生成和教育可视化内容制作等领域。
关于大型语言模型(LLM)评估的指南,提供了从实践经验到理论知识的见解,旨在帮助用户确保 LLM 在特定任务上表现良好
这是一个精心策划的资源列表,涵盖了有关在不进行昂贵再训练的情况下更新大型语言模型(LLMs)的优秀论文和资源,基于EMNLP'23的调查结果。
Llog是一个为大型语言模型(LLM)设计的协作分析与洞察工具,能够通过简单的请求记录最终用户的交互,并便于所有商业利益相关者从这些日志中提取、分享和推导洞察。
Algomax是一个平台,旨在简化您的LLM和RAG模型评估,提升提示开发效率,并通过独特的定性指标洞察加速开发过程。该平台提供直观的仪表盘,便于您轻松集成到工作流程中,评估模型性能,评估引擎设计精准,能够深入洞察模型行为。
Hegel AI Prompt Playground是一个供团队实验大型语言模型(LLM)和提示的工具,用户可以跟踪尝试过的历史记录并添加评估,帮助开发者更高效地迭代出适合其用例的工作提示和模型组合,附带SDK。
Github上ninehills整理的一份DeepSeek R1 阅读清单,并标注了重点内容,涵盖多篇关于Reasoning LLMs的文章和论文,提供GRPO开源实现和复刻项目。
用于实验、评估和部署基于检索增强生成 (RAG) 的系统的工具包,支持各种大语言模型 (LLM),旨在减少 LLM 幻觉风险并提高可靠性。