UMbreLLa是一个使大型语言模型在普通设备上高效运行的工具,通过独特的技术组合,使得70B级别的模型在RTX 4070Ti上能够达到类似人类阅读速度的性能,尤其擅长处理编程任务。
Web LLM 是一个可以在浏览器中直接运行大型语言模型的工具,支持通过 WebGPU 加速。它支持多种大型语言模型,包括 Llama 2 7B/13B、Mistral 7B 和 WizadMath,并能够在设备内存为 64GB 的情况下运行 Llama 2 70B 模型。利用 WebGPU 提供更快、更流畅的模型运行体验,仅需约 6GB 的显存即可运行 Llama 7B 和 Vicuna-7B。
AirLLM 可以让你的 70B 大型语言模型在单个 4GB GPU 卡上运行推理,或者让 405B Llama3.1 在 8G 的 GPU 卡上运行。
mlc-llm 使每个人都能在每个人的设备上本地开发、优化和部署 AI 模型,支持多种 AI 模型架构,并提供模型优化工具和简化的部署过程。
picollm是一个基于X-Bit量化的设备端大型语言模型(LLM)推理引擎,专为运行压缩的大型语言模型而优化。它提供跨平台、高准确性的SDK,支持本地运行以确保隐私安全,适合在资源受限的设备上使用。
StackAI是一个综合平台,致力于为用户提供最新的AI技术。它提供了一系列精心挑选的AI工具,并定期更新新发布的AI。
GitGab通过将ChatGPT与您的代码相结合,使其能够实现功能、查找bug、编写文档和优化代码。用户只需注册账户,链接自己的Github仓库,即可开始与ChatGPT协作。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
Dynamiq是一个专为Agentic AI和大型语言模型应用设计的AI智能协同框架,旨在简化AI应用的开发过程,擅长协调检索增强型生成与大型语言模型代理,同时支持多种AI技术的集成,提供高效的任务调度和资源管理。
Adaline Gateway是一款本地生产级别的超级软件开发工具包SDK,提供简单、统一且强大的接口,可调用200多种大型语言模型LLMs,支持本地部署,功能丰富,不依赖外部代理。
这是一本全面介绍Go应用程序性能分析、追踪和可观察性的指南,涵盖了多种工具和技术,提供实际示例和最佳实践,重点关注可观察性和监控解决方案。
Function Calling Studio 是一个允许用户构建和测试函数调用方案的平台。用户可以设置函数及其参数,并一次性运行一组测试提示。这使得用户能够快速迭代他们的函数并观察其性能。
Digma Continuous Feedback 使开发者能够在 IDE 中发现代码运行时回归、异常和代码异味。通过运行时信息,Digma 集成到您的 IDE 中,持续突出问题、回归和代码问题,提供关于代码性能和可扩展性的实时洞察,帮助开发者识别瓶颈和减速。Digma 还增强了 GitOps 循环,使拉取请求反馈和代码审查注释变得更容易。
Firefly是一个新型的BEAM语言编译器和运行时,旨在提升编译和运行效率,提供更好的开发体验。它支持多种BEAM语言,具备高效的编译过程和优化的运行时性能,同时还提供实时错误检测和调试功能,方便开发者快速定位问题。