有关大型语言模型(LLM)约束解码的精选论文列表,包含相关代码和资源,旨在实现更可靠、可控和高效的文本生成。
RAG技术通过检索方法与深度学习结合,动态整合最新的外部信息,以提高大型语言模型生成文本的可靠性,并解决生成过程中可能出现的错误信息(幻觉)问题。
这是一个开放的集合,包含最前沿的文本转化(Text to X)方法(论文、代码和数据集)。
一个关于大型语言模型系统相关论文的综合性列表,旨在为研究人员和开发者提供有价值的资源和参考。
MM-LLM是一个增强现有大型语言模型的框架,支持多模态输入和输出,同时保持其推理和决策能力。该项目提供全面的模型架构和训练管道设计,并回顾了在主流基准上的表现,旨在推动多模态任务的发展。
bricks是一个模块化的自然语言处理工具,包含分类器、提取器和生成器等众多基础模块,支持多种NLP任务,具有开源和易于扩展的特点。
该项目汇集了针对大型语言模型的训练数据管理的研究,包括与预训练、数据质量和领域构成相关的资源。
实现了对大型语言模型输出的约束解码,支持多种格式的语法规则,并且具有高效的性能。该项目旨在提高语言模型的输出质量,确保生成文本符合特定的语法和结构要求,适用于多种自然语言处理任务。
一个包含机器翻译的项目,提供有关大型语言模型的论文的中文翻译,支持多种文档格式,方便用户访问和分享。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型