Transformer语言模型域自适应工具包,用于将基于Transformer的语言模型适应于新的文本领域。该工具包支持多种预训练模型,并提供灵活的配置选项,使得用户能够轻松调整和评估模型在特定领域的表现,从而有效提升自然语言处理任务的效果。
Janus-Pro是DeepSeek发布的多模态大模型,专注于图像生成和理解。它采用自回归框架,通过分离视觉编码为‘理解’和‘生成’两条路径,提升了框架的灵活性和性能。该模型在图像生成、图像描述、地标识别、视觉常识、OCR等任务上表现出色,并在多模态理解和文本到图像生成基准测试中取得了SOTA性能。模型规模扩展至70亿参数,支持多种输入形式的理解和生成,适用于各种多模态应用场景。
OuteTTS是一个实验性的文本到语音模型,采用纯语言建模方法生成语音,致力于提升语音合成的自然性和可控性。
这是一个无监督的词汇和定义提取技术,利用自然语言处理技术自动从给定文本中提取词汇及其定义,适用于各种文本类型。
DB-GPT是一款AI原生数据应用开发框架,支持本地化部署,不依赖外部服务器或云服务,确保数据隐私和安全性。它具备多模型管理、Text2SQL效果优化、RAG框架优化、Multi-Agents框架协作等功能,助力企业数字化转型与业务增长。DB-GPT在自然语言转SQL准确率达92.8%,并在TPC-H基准测试中超越GPT-4大模型。
mcts-llm是一个集成了蒙特卡洛树搜索(MCTS)和提示工程技术的轻量级项目,旨在提高大型语言模型(LLMs)的性能。该项目通过结合MCTS算法与大型语言模型,优化提示工程,来提升模型的响应质量。其轻量级的设计使得该项目易于集成和使用,并且支持多种语言模型,适用于各种自然语言处理任务。
mm-cot是亚马逊开源的多模态链式思维(Multi-modal Chain of Thought)模型,旨在提升大语言模型在复杂任务中的表现。它支持多模态输入,包括文本和图像,并通过链式思维增强推理能力,特别针对复杂任务进行了优化的架构设计,方便研究人员和开发者进行二次开发。
Frosty是一个利用大型语言模型(LLM)技术构建的Streamlit聊天机器人,旨在帮助用户在Snowflake数据库中进行数据探索和问题解答。它通过自然语言处理技术,提供用户友好的界面,使得数据查询和分析变得更加直观和高效。
由vivo AI全球研究院自主研发的大规模预训练语言模型,具有更大量的优质数据、更优的效果及长文本支持。
liteLLM-proxy是一个代理服务器,提供对超过50种大型语言模型的访问,具备错误处理、缓存等功能,并支持包括Azure、Llama2、OpenAI、Claude、Hugging Face和Replicate等多个平台。
WebCPM是一个专注于提升搜索引擎能力的开源项目,已被ACL 2023接收。
提供一个方便的基于LLM的问答系统,可与多个本地文档集合进行交互,通过自然语言处理实现高效的信息检索和文档查询。
该数据集包含从播客“津津乐道”的 281 集中提取的 18,663 个中文问答对。使用 OpenAI Whisper 转录工具提取字幕,并使用 GPT-3.5 生成问答对。
Speech To Code项目让你通过口述来编写代码,结合语音识别和自然语言处理技术,能够将复杂的自然语言指令转换为多种编程语言的代码,理解上下文生成准确的代码。
这是一个轻量级的Transformers.js封装,用于将其API代理到Pyodide环境中,使得Python可以无缝调用JavaScript中的机器学习模型。
InternLM 是一个高效的语言模型开源平台,旨在为开发者提供构建高性能模型的便捷工具,支持从研究到应用的完整生命周期。最新版本书生·浦语2.0(InternLM2)经过2.6万亿token高质量语料训练,包含7B及20B两种参数规格,支持超长上下文和优秀的数学推理能力。
Dromedary是IBM开源的一个基于LLaMA的大语言模型,旨在通过最少的人工监督训练实现高效的自然语言处理,结合基于原则的推理与LLMs的生成能力,致力于解决人类监督在质量和可靠性方面的问题。
该项目汇集了多个开源的中文预训练语言模型及其对应的指令数据集,旨在为中文自然语言处理提供丰富的资源。
Flappy Monorepo 是一个面向开发者的生产级 LLM 代理 SDK,旨在简化 AI 的集成和使用。它支持多种大语言模型,确保稳定性,并提供易于扩展和定制的功能,适合各种应用场景。
Qwen是阿里通义千问开源的多语言处理框架,支持多种自然语言处理任务,提供高效的模型推理和友好的用户接口。它兼容多种开发环境,旨在为开发者提供高效构建语言模型的工具,支持广泛的语言覆盖与任务适配,帮助解决全球化场景下的文本处理需求。最新的720亿参数版Qwen-72B和Qwen-72B-Chat在多个任务上超越LLaMA2-70B和GPT系列模型。
Transformers Notebooks是一组用于自然语言处理的Jupyter笔记本,旨在帮助用户快速上手使用Transformers库,提供丰富的示例和教程,涵盖文本分类、问答、翻译等多种任务,同时支持快速实验和模型评估。
这是一个新的模型,超越其他模型在代理能力基准测试中表现出色,尤其在语言和编码任务上表现优异。
PULSE模型使用约4,000,000个中文医学领域和通用领域的指令微调数据进行进一步调优,支持医学领域的各种自然语言处理任务。
该项目提供了一个系统的路线图,帮助学习者在2024年掌握生成人工智能的各个方面,包括Python编程、基本机器学习、自然语言处理、深度学习、高级NLP概念以及生成式AI的应用和部署方法,同时还介绍了向量数据库和存储的相关内容。
Nanbeige-16B(南北阁-16B)是南北阁大模型实验室研发的160亿参数规模的大语言模型,采用了2.5T Tokens进行预训练,数据包含大量互联网高质量语料、各类书籍、代码等领域脱敏文本,在各个权威测评数据集上都取得了不错的效果。本次发布包含有 Base、Chat 以及扩展上下文长度的 Base-32k、Chat-32k 版本。
nanoChatGPT是在nanoGPT基础上,结合了人类反馈的强化学习层,使用Gumbel-Softmax技巧以提高训练效率,适合进行小型模型的快速实验。
NLP-Knowledge-Graph项目致力于将自然语言处理、知识图谱和对话系统三大技术进行深度研究与应用。该项目不仅支持构建和优化对话系统,还提供多种数据处理与分析工具,具备强大的可扩展性,允许用户自定义模块,并支持多语言处理,满足不同领域的需求。
Talk是一个基于whisper.cpp和llama.cpp的项目,旨在实现与计算机的直接语音对话。它整合了先进的语音识别和生成技术,支持自然语言处理,能够实时响应用户的语音指令,并提供用户友好的界面,方便易用。
StarGLM是一个专为变星数据处理而设计的工具,基于ChatGLM,具备高效的自然语言处理能力,支持多种天文数据格式,旨在为天文学家提供用户友好的数据分析解决方案。
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。