一个强大的框架,通过集成sparse kernel、量化、剪枝和注意力键/值的缓存,进一步优化了在CPU上进行的能力。
AiInfer是一个C++版的AI推理库,目前专门支持TensorRT模型的推理,旨在提供高性能和易用性。
一个用于非因果建模的双向线性注意力实现项目,通过Triton优化模型性能,特别适合需要高效处理大量数据的AI应用
基于ONNX Runtime的Java的Stable Deffusion管线,具有GUI界面和负面文本支持,展示了如何在Java中使用ONNX Runtime进行推理,并提供了性能优化的最佳实践
一个开源框架,专为大型语言模型提供高级推理能力,支持数据生成、策略训练和多种搜索策略,让机器更聪明地理解和解决问题。
开源深度学习编译器堆栈,专为CPU、GPU和专业加速器设计,支持简化和高性能的GPU内核编写。
小型模型的妙用:在大型语言模型时代,探索小型模型的独特角色和应用,包括数据筛选、推理增强和知识蒸馏等
LOMO是复旦大学提出的新论文,旨在使用单台8片24G的RTX 3090对Llama 65B模型进行全参数微调。该项目通过优化训练效率和性能,为用户提供了兼容多种深度学习框架的解决方案,并附带详细的实验结果和分析,帮助用户更好地理解模型的表现。