一个开源免费的 NSFW 内容检测器,使用 Google 模型,准确度高,支持多种文件类型的检测。
llama2.cpp 是一个高效的推理库,专为 C++ 开发,支持 CPU 计算,并且未来将支持 CUDA 和 AVX512,旨在提供高效的 Llama 2 模型推理体验,方便集成到各种 C++ 项目中。
Refact.ai推理服务器是一个自托管的服务,基于Docker镜像,提供高可扩展性和灵活性,支持多种机器学习模型,并提供RESTful API接口,方便用户进行模型推理和管理。
Wavu.ai通过先进的人工智能技术,提供主动、适应性的垃圾信息检测服务,旨在帮助应用程序开发者消除用户生成内容中的垃圾信息,确保用户享有无垃圾信息的体验。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
OpenAI兼容的API,用于TensorRT LLM triton backend,提供了与langchain集成的功能,支持高效推理和灵活后端配置。