MPO项目通过Meta Plan Optimization技术,为大型语言模型(LLM)代理注入强大的规划能力。该项目不仅显著提升了代理的规划准确率,还优化了代理的整体性能,如Llama-3.1-8B-Instruct模型的性能提升了30.1%。此外,MPO提供了完整的数据集和优化框架,帮助用户快速复现和拓展优化效果。
InSTA是一个旨在实现互联网规模Agent训练的项目,通过让AI在海量网页中自主学习,提升其在网页交互任务中的性能。该项目利用LLM生成任务,覆盖超过15万个网站,无需人工标注,显著提高了训练效率。在Mind2Web和WebLINX基准测试中,InSTA的性能提升高达156.3%。
该项目专注于对独立成分进行对齐,以改善多任务学习的效果。通过利用独立成分分析技术,提升多任务学习场景中的性能,适用于多种机器学习任务。
一个合并预训练大型语言模型的工具,能够将多个模型组合成一个独特的、性能更优的模型。
LLM-Blender是一个通过配对排名和生成融合技术来集成多个语言模型的项目,旨在提升文本生成的准确性和质量。它结合了不同语言模型的输出,以提高性能,适用于需要高质量文本生成的多种应用场景。
一个让Python测试环境搭建更高效的工具,用uv代替virtualenv和pip,提升性能。tox-uv简化了测试环境的搭建过程,并与tox无缝集成,使得开发者能够更轻松地管理Python项目的依赖和环境。
为ComfyUI打造的全能推理优化方案,旨在实现通用、灵活且快速的推理加速。它支持多种推理场景,并且通过灵活的配置选项来满足不同用户的需求。该项目的设计目标是提升推理性能,并且能够轻松集成到现有的ComfyUI项目中。
这是一个基于Mojo编写的Llama 2实现,旨在显著提升推理速度,充分利用Mojo语言的优势,支持Llama 2模型,并采用优化的内存管理,便于在各种环境中使用。
RoRF路由森林是一个基于随机森林的模型路由框架,能够通过智能选择不同模型来降低成本,同时保持或提升性能,特别适用于大规模语言模型(LLM).
LLMBox是一个用于实现大型语言模型的综合库,提供统一的训练流程和全面的模型评估,支持多种训练策略和数据集构建策略,以及高效的数据预处理工具。其可扩展的插件系统使得用户可以根据需求灵活定制,适用于多种大语言模型架构。
直接偏好优化 (DPO) 是一种新算法,旨在改变大语言模型(LLM)与人类反馈的对齐方式,提供强化学习的替代方案,从而提高模型对人类偏好的理解和响应能力。
ATalkAI是一个多模型聚合平台,支持GPT、ERNIE Bot、通义千问、豆包等AI模型,能够进行在线对话和知识库问答,作为AI工具的使用足够方便。
AdaTest 是一个用于自适应测试的工具,旨在发现并修复自然语言机器学习模型中的缺陷,支持多种语言模型并提供自动化缺陷修复建议。
该项目演示了如何利用大模型进行蒸馏来构建小模型,从而在某些领域实现比大型模型更强的推理效果。
self-adaptive-llms 是一个自适应框架,可以使大型语言模型实时适应未见过的任务,像是为模型装上“智能调节器”,从而在面对新任务时迅速调整,更好地完成任务。
Aidan Bench是一个专门用于评估大型语言模型(LLMs)创新性与可靠性的工具。通过一系列开放式问题,它测试模型的创造力、可靠性、上下文注意力和指令遵循能力,旨在揭示在标准基准测试中可能被低估的能力。
该项目实现了一种参数高效的迁移学习方法,专注于点云分析,通过结合动态适配器和提示调优来提升模型在特定任务上的表现。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型