HunyuanDiT是腾讯混元发布的文生图大模型,首个中文原生的DiT架构文生图开源模型。它支持中英文双语输入及理解,提供LoRA小规模数据集训练方案与可控制插件ControlNet。该模型通过专属加速库显著缩短生图时间,支持微调和个性化模型创建,并基于ComfyUI的图形化界面或Hugging Face Diffusers通用模型库调用。
Hunyuan-Large是腾讯推出的大型MoE(Mixture of Experts)模型,拥有3890亿参数和520亿激活参数,是业界目前最大的开源Transformer基础MoE模型,专注于自然语言处理和长文本理解。
Frame Semantic Transformer是一个基于T5模型的框架语义解析器,利用FrameNet进行深度语义分析,支持多种自然语言处理任务,具备灵活的模型训练和微调能力,能够高效地进行推理。
大语言模型集成工具LangChain的TypeScript版本,支持在不依赖Python的情况下实现各种功能,如Embeddings、文本分割等。
LangChain推出的标准化LLM代理API协议,提供了Runs(执行)、Threads(多轮对话)、Store(长期记忆)三大核心功能模块,实现了代理服务的框架无关部署标准。
LLM-X 是一个提供安全令牌管理、统一大型语言模型集成,且无需基础设施烦恼的单一安全API,旨在简化工作流程中的AI应用。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
LLaMA是Facebook研究开发的一款先进语言模型,旨在处理多种自然语言处理任务,声称在性能上优于GPT-3。它具备高质量文本生成能力,支持多种规模以满足不同的部署需求,同时采用高效的训练技术,能够先进地处理上下文信息。
这个开源项目是一个基于 OpenAI API 的对话引擎,它使用了官方 ChatGPT 模型实现。它可以通过 Joel GitHub 上的代码实现。
Claude 2 AI是由Anthropic开发的先进语言模型,提供无地域限制的直观对话体验,能够处理大量文本并同时支持与最多5个文件的交互。
Gnius是一款AI驱动的WhatsApp助手,通过回答问题、提供建议、分析文本、翻译语言和生成原创内容等高级功能,彻底改变了消息传递的方式,增强了创造力和生产力。
TLDR This 是一款免费的在线文本摘要工具,利用人工智能将长文章、文档、论文等压缩成关键摘要段落,帮助用户克服信息过载,提供简明易懂的摘要。
VERSE-65B 是由深圳元象科技自主研发的支持多语言的大语言模型,参数规模为 650 亿,开源的底座模型。
AAGPT是一个实验性开源应用,展示了大型语言模型(如GPT-3.5和GPT-4)的能力,适合研究和学习使用。它支持多种自然语言处理任务,便于社区的贡献与合作。
Alpaca 是斯坦福大学基于 LLaMa-7B 训练的开源语言模型,其性能可与 173B 的 GPT-3.5 媲美。通过优化数据集,Alpaca 能够在微调 7B 和 13B 参数的语言模型时显著提高效果。
基于MLX框架的GPT-2模型实现,提供从零开始训练生成式预训练语言模型的教程,使用Python代码约200行,依赖mlx和numpy,适用于Macbook等设备,能在约10分钟内训练完成并生成类似莎士比亚文本的输出
SentenceX是一个支持多种语言的句子分割库,针对速度和实用性进行了优化,适用于文本到语音和机器翻译等多种应用场景。
UniMoCap是一个社区实现,旨在统一文本-动作数据集(HumanML3D、KIT-ML和BABEL)以及全身动作数据集(Motion-X)。