GLM-4-Flash 是一款支持 26 种语言的大型语言模型,包括中文、英语、日语和韩语,专注于简单、低成本、快速响应的任务。它具备多轮对话、网页浏览、函数调用和长文本推理等功能,支持最大 128K 上下文,生成速度高达每秒 72.14 个 token(约每秒 115 个字符)。该模型适用于客户服务、内容生成、数据分析等领域,开发者可通过智谱 AI 开放平台免费使用,并提供一键微调工具,方便用户快速定制化模型以适应不同业务场景。
AI Chat Bestie是一个为ChatGPT设计的增强用户界面,旨在提升其能力。它提供更快的响应时间、随时可用的聊天记录、可搜索的聊天记录和持久的连接性。同时,它还提供仅限浏览器的存储,确保隐私和可靠性。
Cronbot.AI是一个利用AI技术将数据转化为简单对话的平台,通过引人入胜的聊天互动简化信息交流。它集成了先进的AI模型,如GPT-3.5 Turbo,能够提供深刻而精准的数据交互。用户只需上传数据,即可与AI机器人进行无缝对话,从中提取所需信息,省去手动筛选数据的麻烦。平台还提供“空间”功能,帮助用户整理和管理数据,确保高效的对话流。支持多种数据文件格式,如PDF。
Chatboat是一个先进的AI聊天机器人,通过智能扫描文档,能够高效地提供快速和清晰的回答。用户可以在几秒钟内构建个性化的聊天机器人,并轻松将其集成到网站、Slack及其他应用中。
ChatGPT Web 是一个基于 express 和 vue3 搭建的 GPT-3 模型演示网页,提供用户友好的界面,支持多种语言的实时对话。该项目响应快速,能够轻松部署到多种平台,用户可以通过该网页与 GPT-3 模型进行自然语言交流。
Promptable是一个平台,通过提供先进的工具和功能,简化用户的GPT-3提示工程工作流程。用户可以轻松组织提示、跟踪更改、评估有效性,并将其部署用于GPT-3。
这个开源项目名为FreeGPT WebUI,是一个基于GPT 3.5/4模型的Web界面应用程序。它提供了一个聊天界面,让用户可以直接与ChatGPT进行交互。与其他类似项目不同的是,该应用程序无需API密钥,用户可以直接使用而无需认证。该项目是由开发者Ramon Victor Cardoso O开发的,并且完全免费。
Everyprompt是一个供用户探索和玩转最新语言模型的在线平台,用户可以构建和分享与GPT-3相关的工具,并了解人工智能的未来。
AutoGPT.js 是一个可以在浏览器中运行的 Auto-GPT 项目,支持多种自然语言处理任务,提供用户友好的界面和实时交互体验。用户可以自定义设置和参数,以满足特定需求。
ChatGPT Deutsch 是一个专为德语开发的自然语言处理模型,利用 OpenAI 的 GPT-4 技术,提供行业中最全面和准确的文本预测。用户可以通过访问 GPTDeutsch.com 来体验这一强大的工具,进行各种类型的对话和文本生成。
Web LLM 是一个可以在浏览器中直接运行大型语言模型的工具,支持通过 WebGPU 加速。它支持多种大型语言模型,包括 Llama 2 7B/13B、Mistral 7B 和 WizadMath,并能够在设备内存为 64GB 的情况下运行 Llama 2 70B 模型。利用 WebGPU 提供更快、更流畅的模型运行体验,仅需约 6GB 的显存即可运行 Llama 7B 和 Vicuna-7B。
在MiniGPT4的基础上对齐了Qwen-Chat语言模型,使用高质量的指令微调数据,通过单阶段预训练达到了很好的效果。
DeepSeek-R1 是一个在 Hugging Face 上发布的大型模型,具有强大的性能表现,能够全面与 OpenAI-o1 竞争。该模型参数量达到685B,支持 BF16 和 int4 量化,并包含蒸馏模型 DeepSeek-R1-Distill-Qwen-32B。它适用于自然语言处理任务,能够进行文本生成和理解,同时也可用于模型评测和比较。
这个开源项目的目的是模拟 openai api 并将其移植到手机端,使得用户可以更方便地利用该功能,实现物尽其用的效果。
BestRegards是一款Chrome扩展,通过AI帮助用户快速生成个性化和专业的邮件及消息回复,节省时间,提高效率。
Bot3 AI 是一个开创性的多语言聊天机器人平台,用户可以与独特的虚拟角色对话,并根据自己的想象力打造个性化的NSFW聊天机器人角色。现在就来体验这段奇妙的AI旅程吧!
实时创建、自定义和与您的 AI 角色/同伴交谈(全部在一个代码库中!使用LLM OpenAI GPT3.5 / 4,Anthropic Claude2,Chroma Vector DB,Whisper Speech2Text,ElevenLabs Text2Speech)
由百川智能开发的一个开源可商用的大规模预训练语言模型,支持中英双语,基于Transformer结构,训练于约1.2万亿tokens,具有70亿参数,提供4096的上下文窗口长度,在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。