Self-Instruct是一个对齐自生成指令的项目,旨在提升语言模型的适应性,支持多样化任务的处理,适合自适应聊天机器人和自然语言处理任务。
PAIR是一款利用机器学习技术开发的AI驱动的编码辅助REPL工具。它将GPT-4与开发人员配对,通过交互式编程对话提高编程效率和准确性。PAIR是开源项目,为开发人员提供更高效、更智能的编程工具。
DeepSeek-V3 的Q4_k_m 量化版本,大小比原本的小一半,兼容性强,适用于多种环境,提升处理效率,同时保留大部分原始模型性能。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
一种特殊的神经网络架构,可以在不增加推理成本的情况下,为语言大模型(LLM)增加可学习的参数。该研究发现模型比密集模型更能从指令调优中获益,因此提出将MoE和指令调优结合起来。
LLM Giraffe🦒可以用来扩展LLM的上下文长度,它实现了将LLAMA v1 2K的上下文长度扩展为4K和16K,支持长文本处理,优化上下文管理,易于集成到现有的LLM工作流中。
DB-GPT是一款AI原生数据应用开发框架,支持本地化部署,不依赖外部服务器或云服务,确保数据隐私和安全性。它具备多模型管理、Text2SQL效果优化、RAG框架优化、Multi-Agents框架协作等功能,助力企业数字化转型与业务增长。DB-GPT在自然语言转SQL准确率达92.8%,并在TPC-H基准测试中超越GPT-4大模型。
InstantLLM是一个移动应用和Python包,旨在通过简单的几行代码,实现语言模型的快速和轻松集成。
Aquila语言大模型是在中英文高质量语料基础上从0开始训练的开源语言模型,具备更高效的训练效率和优秀的性能。
semchunk是一个快速且轻量的纯Python库,旨在将文本拆分成语义上有意义的区块,方便进行自然语言处理和文本分析。
EasyContext 是一个用于内存优化和训练配方的项目,旨在将语言模型的上下文长度扩展到100万令牌,同时对硬件要求最小化。该项目提供了多种方法来提升模型性能,并兼容现有技术的实现,帮助开发者在资源有限的情况下有效地进行模型训练。
GPT-Minus1是一个通过随机替换文本中的单词为同义词来帮助迷惑GPT的工具。它旨在通过引入微妙的变化来增强文本生成模型的性能和准确性。用户只需输入文本并点击'Scramble'按钮,该工具就会随机替换单词,从而创建修改后的文本版本,用户可以使用该文本来迷惑GPT或其他文本生成模型。
Chatmate.dev 是一个平台,用户可以通过组合不同的聊天完成和/或文档检索来创建基于 GPT-4 的聊天机器人。用户可以将不同组件串联在一起或并行运行,并在未来的提示或组件中使用它们的响应。