PySpur是一个可视化大型语言模型推理路径的图形界面,旨在帮助开发者构建、测试和部署复杂的计算图,从而增强模型的思考能力。
Web LLM 是一个可以在浏览器中直接运行大型语言模型的工具,支持通过 WebGPU 加速。它支持多种大型语言模型,包括 Llama 2 7B/13B、Mistral 7B 和 WizadMath,并能够在设备内存为 64GB 的情况下运行 Llama 2 70B 模型。利用 WebGPU 提供更快、更流畅的模型运行体验,仅需约 6GB 的显存即可运行 Llama 7B 和 Vicuna-7B。
AtomGPT是基于LLaMA的模型架构,通过从零开始训练,旨在展示模型的进化过程及学习能力的提升,帮助研究人员深入理解模型的学习过程。
A.I Framewerks是一个强大而全面的人工智能框架,旨在帮助开发者轻松创建和部署AI模型。它提供广泛的功能和工具,以加速开发过程并提高性能。
Multipack Sampler是一种专门为大型语言模型设计的分布式采样器,旨在实现快速的无填充训练,提升训练效率同时优化资源使用。
Taylor AI 是一个高效的工具,旨在帮助用户在几分钟内微调开源大语言模型(如Llama2、Falcon等)。它让用户专注于实验和构建更好的模型,而不用花时间在繁琐的Python库上或跟进每一个开源LLM的更新。同时,用户拥有自己的模型,提升了数据安全性和控制权。
o1推理链旨在利用Groq、OpenAI或Ollama等技术,创建类似o1的推理链,以提高大型语言模型(LLMs)的逻辑推理能力。该项目提供了创建和管理推理链的工具,具有优良的可扩展性和灵活性,适合多种应用场景。
Ollama是一个能创建、运行和共享自包含大型语言模型(LLM)的工具,将模型的权重、配置、提示等打包成自包含的文件,可以在任何地方运行。
Composable Prompts是一个顶尖平台,旨在快速构建、测试和部署基于大型语言模型(LLMs)的任务和API。它为LLMs的世界带来了组合、模板、测试、缓存和可视化等功能,使开发者能够高效地创建强大的提示,重用它们,并在不同环境中进行测试。同时,它通过智能缓存优化性能和成本,并允许轻松切换模型和运行环境。
该教程是连接基础微积分与深度学习实践的桥梁,适合希望摆脱“黑箱”使用框架、深入理解模型数学本质的开发者。
Local AI Stack是一个入门套件,旨在帮助开发者构建可以在本地运行的AI应用,运行成本为零,适合从文档问答功能开始,用JavaScript进行开发,方便易用。
MLGB是一个包含50+点击率预估和推荐系统深度模型的、通过TensorFlow和PyTorch撰写的库,旨在提供高效的模型和工具,帮助开发者快速构建和优化推荐系统。