FastLLM是一个动态策略选择的深度学习模型训练代码库,集成了Deepspeed、Megatron、FlashAttention、CudaFusionKernel和编译器技术,旨在优化大规模语言模型的训练效率,提供更加灵活和高效的训练方案。
RAGoon是一个用于批量生成嵌入、极速基于Web的RAG和量化索引处理的高级库,旨在提升语言模型的性能。它通过搜索查询、网页抓取和数据增强技术,为用户提供上下文相关的信息,帮助更好地理解和利用数据。
OpenDelta是一个开源框架,旨在实现高效的参数调优(Delta Tuning),支持多种机器学习模型和任务,具有易于集成和扩展的特点,能够优化计算资源的使用。
CodeCompose是一个面向大规模工业部署的人工智能辅助代码编写工具,旨在通过智能算法提高代码编写效率,支持多种编程语言,并实现自动化代码审查,帮助开发者和团队提升代码质量。
LLPhant是一个功能全面的PHP语言框架,专为构建基于OpenAI GPT-4的生成式AI应用而设计。它提供了从加载训练数据到生成嵌入,再到向量搜索的完整流程,支持多种数据源,适合多种应用场景。
OneFlow-ONNX v0.6.0是一个用于将ONNX模型转换为OneFlow格式的工具,提升了转换接口的易用性,并新增支持多种模型和算子。
研究团队从学习搜索算法中得到启示,利用文本生成的关键特性,应用了强化学习和引导反馈。该算法在IMDB正面评论和文本生成任务上超越了默认的PPO基线,证实了与指导型语言大模型交互的优势。
llama-jax是LLaMA的JAX实现,旨在利用Google Cloud TPU进行训练,提供高效、灵活的模型训练解决方案。
Hugging Face Transformers 是一个广泛使用的开源NLP框架,专注于大规模预训练语言模型的实现与部署。它支持BERT、GPT-3、T5等数百种顶级模型,涵盖文本分类、情感分析、命名实体识别等多种NLP任务,并支持多模态任务。该库提供简洁的API接口,便于快速加载、微调和优化模型,适用于学术研究与工业应用,社区驱动更新迅速,是自然语言处理领域的重要工具。
Eko是一个用自然语言构建生产就绪的智能工作流框架,让开发者能轻松创建从简单命令到复杂流程的可靠Agent,统一在电脑和浏览器环境中运行。
Hugot 是一个用于 Golang 的 huggingface transformer pipelines,可以轻松地将 Python 中的 huggingface 模型部署到 golang 应用中。该项目支持多种 Hugging Face 模型,简化模型部署过程,轻松与 Golang 应用集成,提供高性能的推理和用户友好的 API。
RLAIF通过人工智能反馈扩展人类反馈的强化学习,表明可以在不依赖人类注释者的情况下产生与RLHF相当的改进。
NanoLLM 是一个专门为大语言模型(LLM)提供优化本地推理的平台,支持 HuggingFace 风格的 API,具备量化、视觉/语言模型、多模态Agent、语音处理、矢量数据库集成和检索增强生成(RAG)等功能。
Anthropic Cookbook是一个包含多个笔记本和食谱的集合,展示了使用Claude的有趣且有效的方法,旨在帮助用户通过互动式学习掌握Claude的功能。
Gorilla CLI通过自然语言命令进行命令行交互,只需陈述目标,Gorilla CLI将自动生成潜在命令供执行,无需记住繁琐的命令行参数,从而提高工作效率。
一个由AI驱动的数据科学团队,旨在帮助你以更快的速度完成常见的数据科学任务,比如数据清洗、特征工程等,就像是拥有一支数据科学的“私人部队”
Helibrunna是一个兼容Hugging Face的xLSTM训练框架,旨在探索xLSTM在AI领域的潜力,提升模型训练效率并支持实验性研究。
《解构大语言模型:从线性回归到通用人工智能》配套代码,提供了大语言模型的实现与分析,展示了线性回归与语言模型之间的关系,并支持多种数据集与训练配置,易于扩展与自定义。
一个 Chrome 扩展程序,能跟踪用户的浏览器交互,并利用 OpenAI 的 GPT 模型自动生成 Selenium 测试脚本,以简化自动化测试的创建过程。
开源复现Moshi模型训练过程,包括音频编解码器Mimi及文本和音频的层次化语言模型。该项目为研究人员和开发者提供了一个完整的框架,用于训练和实现先进的语音和文本处理能力,支持实时对话和多模态学习。
Mistral Large 2 是一个拥有 123B 参数的稠密模型,支持多种语言和编程语言,具备强大的指令遵循能力和代理功能,能够在单个 H100 节点上进行推理,提供 128k 的上下文窗口,且在 MMLU 测试中表现优异。
一个开源工具,提供一套高效的算法,用于解决字符串对字符串的问题,支持多种先进技术和传统算法,帮助用户进行字符串的配对、对齐和分析。
一个强大的Python框架,用于轻松管理和协调AI Agent,支持创建、管理和协调多个AI Agent之间的复杂交互。它提供了智能体管理、互动编排、进度控制、数据生成等多种功能,旨在提升AI Agent的运行效率和交互质量。
Nano是一个自制的168M大语言模型,具备完整的模型结构和多种推理方式,适用于多种场景的AI应用。
Backtrack Sampler是一个易于理解的框架,用于大型语言模型采样,能够撤销和修改生成的Token,适合实验和研究用途。
一个可定制、简洁、用户友好且高效的工具包,用于训练和微调大型语言模型,支持多种训练和优化方法,以提高模型性能和稳定性。
MGDebugger是一款多粒度LLM代码调试工具,采用分层调试方法,能够精确定位并解决代码错误,从而有效提升代码的正确率和调试效率。
一个追求极简但强大的AI Agent框架,轻量级设计,支持多种LLM接入,提供安全的代码执行机制。
Run:ai Model Streamer是一个用于将张量从文件流式传输到GPU内存的Python SDK,支持并发和流式处理。
精简版网站爬虫工具,专为自托管优化的网页抓取和转换工具。可将任意网站内容抓取并转换为LLM友好的markdown格式,移除了原版中的计费逻辑和AI功能,支持批量爬取和格式转换,适合需要构建AI训练数据的场景。