MLX Engine是一个开源项目,旨在利用Apple M系列芯片的硬件加速能力,以超快的速度和100%本地、离线的方式运行大型语言模型(LLM)。它能够在M3芯片上以约250 tok/秒的速度运行Llama 3.2 1B模型,始终以结构化JSON格式输出,支持通过代码或Chat UI与模型进行交互,并能同时运行多个模型,用户还可以从Hugging Face下载任何模型。
Jsonformer 是一个强大的工具,能够将自然语言转换为结构化数据,支持多种数据格式的输出,灵活的模板系统使其能够与大型语言模型(LLMs)兼容,适用于各种场景。
llm.mojo是Andrjey Karpathy将大型语言模型(LLM)最小化代码移植到Mojo编程语言的版本,旨在提供高效的模型推理和简化的学习体验。
SuperAPI是一个基于网络的SaaS平台,用户可以通过AI模型快速轻松地构建智能网络服务。它提供了一个基于聊天的界面,可以与像ChatGPT和Google PaLM API这样的AI模型进行交互,从而创建强大而多功能的AI交互。
机器人算法实践:基于《概率机器人学》书籍的机器人算法在ROS 2上的实现,旨在通过Python和C++代码,将书中的理论与现实世界中的机器人应用相结合,实现快速原型开发和深入理解
Minima是一种高效的面向对象脚本语言,旨在简化编程过程,提供友好的开发体验。它支持跨平台操作,并具备丰富的库和工具,适合各种开发需求。
Kokoro 82M 是一个高质量的 TTS 模型,能够生成极高音频质量的语音,同时模型大小不到 300M,便于部署和使用。该模型在 T4 上能够快速生成语音,并支持通过架构训练其他语言,且只需不到 100 小时的音频数据进行训练。
TinyZero是一个以不到30美元的成本,利用veRL强化学习训练框架,在qwen2.5模型基础上进行训练的项目,能够复现DeepSeek R1论文中的'Aha moment',并提供完整实验日志和开源代码,方便复现和学习。
mlc-llm 使每个人都能在每个人的设备上本地开发、优化和部署 AI 模型,支持多种 AI 模型架构,并提供模型优化工具和简化的部署过程。
react-llm是一个易于使用的无头React Hooks库,允许在浏览器中通过WebGPU运行大型语言模型(LLM)。只需调用useLLM(),即可在不离开浏览器的情况下使用Vicuna 13B,并支持自定义系统提示。
这个仓库收集了日常非常有用的小工具,例如Token生成器、文本Hash(支持MD5、SHA1、SHA256、SHA224、SHA512等)、加解密文本、日期时间转换器、Base64转换、YAML到JSON转换器等等。
mjc_viewer是一个基于浏览器的3D查看器,专为MuJoCo设计,支持实时可视化仿真,允许用户交互式操作3D模型,具有用户友好的界面和丰富的渲染选项。
LangFlow是基于LangChain和React-Flow搭建的一套工作流系统,通过简单的拖拽就可以完成。工作流生成好后可以导出成Json格式,然后LangChain可以直接调用。
modelkit是一个极简但功能强大的Python MLOps库,方便将机器学习模型快速部署到产品中,兼容多种框架,提供模型版本控制和多种数据源支持。
Teste.ai 是一个利用人工智能创建测试场景和用例的智能软件测试平台,提供多种工具和功能,帮助测试人员提高创建、执行和管理软件测试的生产力和效率。
FluxKits是一个包含Flux-mini和Flux-NPU的工具集,其中Flux-mini是一个3.2B参数的文生图模型,经过蒸馏自12B的Flux-dev模型,显著降低了硬件需求;而Flux-NPU则是支持在NPU设备上运行Flux模型的工具库。
APIMyLlama是一个用于为Ollama服务器提供API的项目,旨在简化与Ollama模型的交互。通过该API,用户可以方便地进行模型请求和管理,从而提升开发效率。