LLMSurvey是一个提供LLaMA模型族进化图的项目,用户可以通过该工具查看不同版本模型的性能,比较多种模型参数,并获取相关的训练和评估数据。
《解构大语言模型:从线性回归到通用人工智能》配套代码,提供了大语言模型的实现与分析,展示了线性回归与语言模型之间的关系,并支持多种数据集与训练配置,易于扩展与自定义。
LLM Comparator是一个交互式数据可视化工具,旨在并排评估和分析大型语言模型的响应,由PAIR团队开发。
截至目前,国内已经有了个 188 大语言模型,LLMs-In-China 收录了中国境内的多种大语言模型信息,提供模型的基本参数和性能指标,包含模型的使用案例和应用场景,并支持用户提交新的模型信息。
一个全面的列表,包含与基于基础模型(如LLM和VLM)相关的决策制定的论文、代码库和数据集。
本项目旨在分享大模型相关技术原理以及实战经验,包括大模型工程化和应用落地,降低学习难度,促进技术普及。
WizardLM是一个基于Code Llama微调的模型,专注于代码生成和相关任务,支持多种编程语言的代码编写与理解,提供模型的测试地址和下载链接,经过简单测试表现良好。
整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主,包括底座模型,垂直领域微调及应用,数据集与教程等。该项目收录了100+个中文LLM相关的开源模型和资源,适合企业应用和研究。
xCodeEval是一个大规模多语言多任务基准,用于评估代码理解、生成、翻译和检索的能力,旨在为研究和开发提供支持。
一个全面的移动端和PC端智能代理相关资源集合,包含最新论文、数据集和基准测试。收录了各类移动端智能代理系统的训练方法、输入类型、模型架构等详细对比,以及主流数据集的详细信息统计。
JADE-Database是面向国内开源和国外商用大模型的Demo数据集,包含多种自然文本数据,覆盖多个问题类型,旨在用于大模型的靶向安全评测。
吴恩达的课程,旨在引导学员完成LLM预训练流程,包括数据准备、模型架构配置、训练和评估。学员将学习如何使用HuggingFace获取训练数据,配置Transformer网络,运行训练并进行性能评估,同时探讨深度升级技术以降低计算成本。
Chinese_medical_NLP是一个专注于中文医疗领域的自然语言处理项目,提供丰富的数据集、研究论文、知识图谱、语料和多种工具包,旨在促进医疗文本处理和分析的研究与应用。
代表性LLM文本数据集大列表,包括预训练语料库、微调指令数据集、偏好数据集、评估数据集和传统NLP数据集
专注于动画制作的生成式AI工具库,汇集了最新的论文、项目和数据集,旨在帮助动画创作者利用AI技术提升创作效率和质量,让动画制作更加简单高效
llama2.go是一个基于LLAMA-2模型的纯Go语言实现,提供高性能的机器学习功能,易于集成,支持多种数据格式,适合在Go项目中使用。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
Medical_NLP项目涵盖医疗自然语言处理领域的比赛、数据集、大型模型、相关论文及工具包,旨在推动医疗NLP技术的发展与应用。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型