Residual Prompt Tuning是一种通过残差重参数化方法来改善提示调优性能的技术,旨在提高自然语言处理任务中的效果,优化预训练语言模型的表现。
将SOTA多模态能力融入语言模型,改进基础模型、修改训练过程、自定义数据集以及对LLaVA实现的重大架构更改。
Dolomite Engine是一款用于预训练和微调大型语言模型的超优化库,集成了多项关键创新,包括模型架构、微调方法和系统优化。它旨在提高大型语言模型的训练效率和效果,支持多种模型架构,优化微调过程,并提供系统性能的显著提升。
通过实现环境配置功能以及整合多项优化训练技术,使得用户能以简单高效的方式对语言模型进行训练优化,得到切实可行的产出
该项目能够自回归地完成复杂的标记序列,包括从随机过程中生成的任意序列到更丰富的空间模式。使用语言大模型驱动的策略可能会为词汇模式转化为动作提供新思路,但目前由于延迟、上下文限制和计算成本等问题,还难以在真实系统中部署。这些可以促进领域的发展,为更广泛的任务和应用提供基础和启示。
该项目实现了针对语言模型的攻击方法,特别是在指令调优过程中,旨在提高模型对恶意输入的鲁棒性,同时研究指令调优对模型性能的影响。
高级文本生成工具,旨在提高语言模型输出的质量和多样性,通过动态调整和回溯机制来减少指定的过度使用词汇和短语(即 'GPT slop')的生成概率
SuperCLUE-Llama2-Chinese是基于SuperCLUE的OPEN基准,为Llama2开源模型提供全方位的中文评估,支持多种评测指标,致力于推动中文自然语言处理的发展。
Search-o1是一个增强大型推理模型的搜索工具,类似于为模型装上“搜索引擎”,使其在思考过程中能够随时查找知识,从而减少错误和不确定性,提升完成复杂任务的能力。