NeMo-Skills是一个专注于提升大型语言模型在数学问题解决能力的项目,同时支持多种任务的优化和改进,利用深度学习技术增强模型表现,且为开源项目,便于社区贡献和扩展。
mlx-llm是基于苹果MLX框架的一个应用平台,旨在为用户提供一个运行和测试语言模型的环境。它支持多种语言模型,并提供交互式实验环境,使得机器学习实验和原型开发变得更加高效。用户可以轻松集成和扩展功能,进行模型输出的可视化和调试,满足各种实验需求。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
这个项目展示了如何借助MLX在Mac上运行微软的2.7B小语言模型Phi-2以及Mixtral 8x7B混合专家模型,支持在Apple M2 Ultra上进行高效的模型训练和推理,提供简化的模型权重下载和加载流程,同时兼容Python环境。
AI Docs是一个平台,允许用户塑造和训练多个语言学习模型(LLM),以自动化各种任务。这些模型可以导出为API、Telegram机器人或WhatsApp机器人。用户可以使用提供的工具和资源创建和训练自己的LLM,指定所需功能并相应地训练模型。一旦训练完成,LLM可以被导出并集成到不同的应用程序或平台中。
PlatonAI致力于利用机器学习技术解决从大规模网页中构建知识图谱的问题,提供高效的数据提取和集成解决方案。
ProbSem是一个利用大型语言模型(LLMs)为查询字符串分配上下文条件概率分布的框架,默认支持所有OpenAI引擎和HuggingFace CausalLM模型。
基于MLX框架的GPT-2模型实现,提供从零开始训练生成式预训练语言模型的教程,使用Python代码约200行,依赖mlx和numpy,适用于Macbook等设备,能在约10分钟内训练完成并生成类似莎士比亚文本的输出
关于大规模预训练语言模型工具使用和代码生成的论文集合,涵盖了相关研究和复杂推理的内容,提供对当前研究趋势的深入分析。
通过增强推理和信息获取能力,AutoAgents旨在提升大型语言模型(LLM)在处理复杂问题时的表现。这一项目通过结合多种算法和技术,帮助用户更有效地获取信息并进行深入推理,适用于多种语言模型的应用场景。
Hugot 是一个用于 Golang 的 huggingface transformer pipelines,可以轻松地将 Python 中的 huggingface 模型部署到 golang 应用中。该项目支持多种 Hugging Face 模型,简化模型部署过程,轻松与 Golang 应用集成,提供高性能的推理和用户友好的 API。
Moxin是一个纯Rust编写的AI大型语言模型平台,展示了Makepad UI工具包和Project Robius框架在多平台Rust应用开发中的强大能力,当前处于Beta测试阶段。
TapeAgents是一款支持大型语言模型(LLM)Agent开发全周期的框架,能够通过处理会话日志(Tape)来辅助代理进行思考和行动,具有灵活性和调试工具。
该项目基于 QLoRA 技术对 Falcon-7B 大型语言模型进行微调,专注于心理健康领域的对话数据集,从而提升模型在特定领域的性能。该模型支持多种对话场景的处理,旨在为心理健康相关应用提供更优质的支持。
本教材主要讲解支持人工智能的计算机系统设计,帮助本科生高年级和研究生完整了解支持深度学习的计算机系统架构及相关研究。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型