关于大规模预训练语言模型工具使用和代码生成的论文集合,涵盖了相关研究和复杂推理的内容,提供对当前研究趋势的深入分析。
一个关于大型语言模型系统相关论文的综合性列表,旨在为研究人员和开发者提供有价值的资源和参考。
该项目根据我们的调查整理了评估大型语言模型的文献,提供了全面的评价方法和研究资料。
LLMPapers是一个专注于大型语言模型(如ChatGPT、GPT-3、Codex等)的文献和研究论文资源平台,旨在为研究人员和开发者提供丰富的参考资料。该项目定期更新,涵盖最新的研究成果和技术进展,同时鼓励用户贡献新的文献资源。
LLM大型语言模型笔记,包含年份、论文、代码等信息,帮助您了解各个模型的发展历程和应用
这是一个关于大规模语言模型的精彩集合,汇聚了最新的研究成果和资源,包括论文、技术进展以及各种语言模型的比较和评估,支持社区的贡献和反馈。
一个包含机器翻译的项目,提供有关大型语言模型的论文的中文翻译,支持多种文档格式,方便用户访问和分享。
该项目汇集了针对大型语言模型的训练数据管理的研究,包括与预训练、数据质量和领域构成相关的资源。
LLM应用实例教程,涵盖langchain、openai、llamaindex、gpt、chromadb和pinecone等多个工具和技术,提供详细的使用指南和示例,帮助开发者快速上手并实现AI应用。
该项目汇集了关于大型语言模型(LLM)规划能力的重要文献,提供对LLM规划能力的深入理解,支持研究人员和开发者了解最新的研究动态,为相关领域的学习和研究提供参考资料。
这是一个针对高效大语言模型的精心策划的资源列表,涵盖相关研究论文和技术,定期更新以保持信息的时效性,并对资源进行分类,方便用户浏览。包括理论论文和实践实现,旨在为研究人员和开发者提供有价值的参考。
该项目是一个专注于大型语言模型(LLM)终身学习的资源库,收集了相关的精华综述、研究资源和论文,旨在促进LLM的持续学习能力和性能提升。
NeMo-Skills是一个专注于提升大型语言模型在数学问题解决能力的项目,同时支持多种任务的优化和改进,利用深度学习技术增强模型表现,且为开源项目,便于社区贡献和扩展。
这是一个精心挑选的资源高效大型语言模型(LLM)相关高质量论文的列表,涵盖了该领域的最新研究进展,并定期更新。
实用指南,教你如何驾驭大型语言模型(LLM)的陷阱,通过Python示例和开源解决方案,让你深入了解LLM的限制和实施中的挑战
该项目汇集了多个开源的中文预训练语言模型及其对应的指令数据集,旨在为中文自然语言处理提供丰富的资源。
FastLLM是一个动态策略选择的深度学习模型训练代码库,集成了Deepspeed、Megatron、FlashAttention、CudaFusionKernel和编译器技术,旨在优化大规模语言模型的训练效率,提供更加灵活和高效的训练方案。
Awesome_Multimodal是一个精心策划的GitHub项目,提供关于多模态大语言模型(MLLM)的全面资源集合。