将SOTA多模态能力融入语言模型,改进基础模型、修改训练过程、自定义数据集以及对LLaVA实现的重大架构更改。
Residual Prompt Tuning是一种通过残差重参数化方法来改善提示调优性能的技术,旨在提高自然语言处理任务中的效果,优化预训练语言模型的表现。
该项目能够自回归地完成复杂的标记序列,包括从随机过程中生成的任意序列到更丰富的空间模式。使用语言大模型驱动的策略可能会为词汇模式转化为动作提供新思路,但目前由于延迟、上下文限制和计算成本等问题,还难以在真实系统中部署。这些可以促进领域的发展,为更广泛的任务和应用提供基础和启示。
PrimeQA是一个先进的多语言问答研究与开发的主要资源库,支持最新的深度学习模型,易于扩展和定制,并提供多种数据集与基准测试,适用于实时问答和批量处理场景。
一个自然语言处理任务与实例集,提供多种NLP任务的实现和示例。
CoPE是一种新的位置编码方法,允许根据上下文来调整位置,以关注更高抽象级别的序列元素。它能够根据需要计算每个注意力机制头的距离,解决标准Transformer无法解决的计数和复制任务,并在语言建模和编码任务上拥有更好的困惑度(PPL)。
卡内基梅隆大学团队在首届AI数学奥林匹克竞赛(AIMO)中获得亚军的开源项目,包含完整的训练数据集(AIME、AMC、Odyssey-Math)、验证集、模型微调代码和数据收集脚本,为研究AI解决数学问题提供了宝贵资源
该项目是对多模态大语言模型的全面调查,涵盖最新进展、模型比较和评估以及多种应用场景,信息更新频繁,确保时效性。
SciPhi旨在支持大型语言模型(LLMs)的训练和评估,提供了数据生成和模型输出评估两个关键功能,帮助用户高效地生成合成数据,并对模型的性能进行稳健的评估。
一个合并预训练大型语言模型的工具,能够将多个模型组合成一个独特的、性能更优的模型。
分享 GitHub 上一份开源免费的在线教程,涵盖了 PyTorch 基础知识、神经网络、计算机视觉、自定义数据集处理、模块化代码编写以及模型部署等内容。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型