RoRF路由森林是一个基于随机森林的模型路由框架,能够通过智能选择不同模型来降低成本,同时保持或提升性能,特别适用于大规模语言模型(LLM).
LLMBox是一个用于实现大型语言模型的综合库,提供统一的训练流程和全面的模型评估,支持多种训练策略和数据集构建策略,以及高效的数据预处理工具。其可扩展的插件系统使得用户可以根据需求灵活定制,适用于多种大语言模型架构。
直接偏好优化 (DPO) 是一种新算法,旨在改变大语言模型(LLM)与人类反馈的对齐方式,提供强化学习的替代方案,从而提高模型对人类偏好的理解和响应能力。
ATalkAI是一个多模型聚合平台,支持GPT、ERNIE Bot、通义千问、豆包等AI模型,能够进行在线对话和知识库问答,作为AI工具的使用足够方便。
AdaTest 是一个用于自适应测试的工具,旨在发现并修复自然语言机器学习模型中的缺陷,支持多种语言模型并提供自动化缺陷修复建议。
该项目演示了如何利用大模型进行蒸馏来构建小模型,从而在某些领域实现比大型模型更强的推理效果。
self-adaptive-llms 是一个自适应框架,可以使大型语言模型实时适应未见过的任务,像是为模型装上“智能调节器”,从而在面对新任务时迅速调整,更好地完成任务。
Aidan Bench是一个专门用于评估大型语言模型(LLMs)创新性与可靠性的工具。通过一系列开放式问题,它测试模型的创造力、可靠性、上下文注意力和指令遵循能力,旨在揭示在标准基准测试中可能被低估的能力。
该项目实现了一种参数高效的迁移学习方法,专注于点云分析,通过结合动态适配器和提示调优来提升模型在特定任务上的表现。