一种针对集成了大型语言模型(LLM)的应用的指纹识别技术,能够通过发送精心设计的查询来识别使用的特定LLM版本。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
RAG技术通过检索方法与深度学习结合,动态整合最新的外部信息,以提高大型语言模型生成文本的可靠性,并解决生成过程中可能出现的错误信息(幻觉)问题。
本综述旨在提供关于利用大型语言模型进行NLG评估的全面概述,提出了一个系统的分析框架,以理解和比较这些方法。通过讨论未解决的挑战,包括偏见、鲁棒性、领域特异性和统一评估,本综述旨在为研究人员提供洞见,并倡导更公平和先进的NLG评估技术。
用大型语言模型重新思考自动驾驶,使用GPT-3.5作为默认的大型语言模型(LLM),介绍了LLM在驾驶场景中的闭环交互能力以及通过记忆能提升性能的方法
RAG-Survey是一个汇集了关于大型语言模型检索增强生成(RAG)的最新研究文献资源列表的平台,提供文献的分类和标签功能,方便用户查找和贡献相关文献,促进RAG领域的研究和交流。
该项目汇集了关于故事生成/叙事的大量优秀论文,主要集中在大型语言模型(LLMs)时代的研究。
大型语言模型显著推动了自然语言处理领域的发展,引发了人们对利用其潜力处理各种自然、社会和应用科学领域中特定任务的极大兴趣。
低成本的简单基于live2d TTS文字转语音和大模型聊天的直播解决方案,结合Live2D动画、TTS文字转语音技术与大型语言模型,实现低成本的虚拟主播直播方案,支持自定义背景色、背景图片和眼神跟随功能,为直播提供更加丰富和互动的体验。
imodelsX是一个专注于自然语言处理的可解释性模型,利用大型语言模型为数据集提供自然语言解释,增强NLP任务的透明度,并支持多种提示和模型选择。
Awesome-Agent4SE是一个关于软件工程中Agent的资源列表,汇集了大量关于如何将大型语言模型(LLM)应用于软件工程领域的研究论文。该项目旨在帮助开发者和研究人员更好地理解和利用这些技术,以提升软件开发的效率和质量。通过提供全面的调查、现状和未来展望,Awesome-Agent4SE成为了一个宝贵的资源库,适用于学术研究、开发项目以及教学培训。
LLM微调中心,用于将各种大型语言模型进行微调,以适应个性化用例,提供丰富的微调脚本和最新研究成果,支持模型部署及自定义微调,旨在提高模型在特定数据集上的性能。
这是一个精心整理的LLM水印论文列表,提供关于大型语言模型水印技术的最新研究和资源。
LLM4IR-Survey是一个专注于大型语言模型在信息检索领域应用的文献列表,涵盖了最新的研究成果和发展动态,支持对比不同模型在信息检索任务中的表现,并提供丰富的参考文献和链接,旨在为研究人员提供全面的参考和启发。
LLM4SE是一个专为软件工程设计的大型语言模型,能够理解和生成多种编程语言的代码,自动化代码审查与重构,智能化错误检测与调试,并能自动生成项目文档。同时,LLM4SE可以与多种开发工具和环境集成,提升开发效率。
llmchain是一个基于Rust语言开发的项目,旨在简化与大型语言模型的交互,支持现代数据变换,灵活构建AI服务,灵感来源于LangChain。
实现了对大型语言模型输出的约束解码,支持多种格式的语法规则,并且具有高效的性能。该项目旨在提高语言模型的输出质量,确保生成文本符合特定的语法和结构要求,适用于多种自然语言处理任务。
一个语义查询引擎,允许用户通过类似于 Pandas 的 API 使用大型语言模型(LLM)处理结构化和非结构化数据,支持通过自然语言表达式来执行数据操作。
MarkLLM是一个专门用于在大型语言模型(LLM)中实现水印的研究和应用的工具包,旨在提供水印的生成、检测及其对模型性能的研究,助力学术和工业界的相关探索。
liteLLM-proxy是一个代理服务器,提供对超过50种大型语言模型的访问,具备错误处理、缓存等功能,并支持包括Azure、Llama2、OpenAI、Claude、Hugging Face和Replicate等多个平台。
8个关于在多GPU上训练大型语言模型(或任意神经网络)的挑战性难题,旨在让读者亲身体验关键基本原理,并理解内存效率和计算流水线的目标。
项目描述:表格+大型语言模型(LLM)相关论文整理,汇集了大量关于如何利用大型语言模型处理表格数据的论文,涵盖表格问答、表格到文本、文本到SQL等多种任务,为研究人员提供了一个全面的资源库。
Secondbrain是一款跨平台桌面应用程序,用户可以在本机下载和运行大型语言模型(LLM),实现本地AI对话,无需联网,充分保护用户隐私,让用户可以自由表达思想。
codeqai是一个本地优先的语义代码搜索和聊天工具,利用矢量嵌入和大型语言模型(LLMs)来提供高效的代码查询和理解。
这是一个精心策划的研究论文合集,探讨了大型语言模型在图相关任务中的应用,旨在为研究者和开发者提供丰富的参考资源。
Yi是一个专为高效语言模型设计的开源框架,支持从零开始训练的大型语言模型。它包含两款双语模型Yi-6B及Yi-34B,均自研训练,参数规模分别为6B和34B。Yi通过优化算法与资源管理,提供从实验到部署的完整流程,支持多种语言的文本生成、对话系统和问答任务。
该项目汇集了最新的大型语言模型与自然语言处理(NLP)的研究论文和相关资源,旨在为研究者和开发者提供一个全面的平台,帮助他们了解和应用各种大型语言模型。
利用大型语言模型(LLM)驱动的NPC(非玩家角色)项目,旨在为游戏开发提供高性能的交互式角色,支持多种游戏场景,能够在本地硬件上运行,为开发者提供灵活的API接口,增强游戏的互动体验。
用于构建复杂 LLM(大型语言模型)驱动的文档处理管道系统,通过简单的YAML配置即可实现复杂的数据处理流程,特别适合处理大量文档或非结构化数据集
YaRN是一个高效的上下文窗口扩展工具,旨在提高大型语言模型的上下文处理能力。