LLaMA-O1 是一个大型推理模型框架,专为 PyTorch 和 HuggingFace 设计,支持训练、推理和评估。它集成了蒙特卡洛树搜索(MCTS)、自我对弈强化学习、PPO 和类似 AlphaGo Zero 的双策略范式,适用于大型语言模型的开发和应用。
Inferflow是一个高效且高度可配置的大型语言模型推理引擎,旨在优化推理性能,支持多种自定义配置,以满足特定需求。
SciBench旨在评估语言模型在复杂科学问题解决中的推理能力。通过开放和封闭数据集的深入基准测试,研究发现当前的语言模型在整体性能方面表现不佳,仅得到35.80%的分数。
这是最大的约 100 万个数学竞赛问题解决方案对的集合,难度从初级挑战赛到数学奥林匹克预选赛不等。
sherpa 是一个针对 llama.cpp 模型的演示应用,专为移动设备设计,提供高效的模型推理和用户友好的界面。
Kokoro 82M 是一个高质量的 TTS 模型,能够生成极高音频质量的语音,同时模型大小不到 300M,便于部署和使用。该模型在 T4 上能够快速生成语音,并支持通过架构训练其他语言,且只需不到 100 小时的音频数据进行训练。
该项目演示了如何利用大模型进行蒸馏来构建小模型,从而在某些领域实现比大型模型更强的推理效果。
本项目提供了一份关于大型预训练基础推荐模型的文献综述,探讨了推荐系统的基础模型及其演变,包括ID嵌入的必要性、替代方案,以及推荐系统向生成范式转变的可能性。此外,还研究了如何利用大型语言模型增强推荐系统的性能,并论述了多模态推荐系统的未来发展方向。