ExLlamaV2是一个高效的推理库,旨在让用户能够在现代消费级GPU上本地运行各种大型语言模型(LLMs),并优化内存使用,以实现快速推理。
一个深度学习论文的学习项目,包含超过60篇论文的代码实现和详细注释,支持在线阅读和中文版。
BitNet是微软发布的1-bit LLM变体研究,支持在CPU上快速无损地推理1.58位模型。该项目通过将每个参数表示为三进制数 {-1, 0, 1},显著改善了时延、内存利用、吞吐量和能耗,能够在苹果M2等CPU上运行,适用于1.58位模型的无损推理。
开源深度学习平台
一个自托管的 GitHub Copilot,GitHub Copilot 的开源/本地替代方案,旨在提供灵活的开发体验。它可以在本地运行,无需依赖外部数据库或云服务,同时具备可视化界面和强大的API接口,方便集成到现有开发环境中。
dstack是一个开源工具,可以在任何云环境中简化大型语言模型(LLM)的开发。它使开发者能够利用开放的LLM,降低云成本,避免对供应商的锁定。
这是一个完整的管道,用于在消费硬件上使用LoRA和RLHF微调Alpaca LLM。基于Alpaca架构实现人类反馈的强化学习(RLHF),基本上是ChatGPT的一个变体,但使用的是Alpaca。
一种优化视觉语言提示上下文的方法,通过知识引导提升交互效果。