《Large Language Model 书籍中文版》是一本系统介绍如何从零开始构建、训练和微调大型语言模型(LLMs)的书籍。书中详细讲解了从文本数据处理到注意力机制实现,再到模型预训练和微调的全过程。此外,书籍还提供了结合人类反馈进行模型优化的方法,以及如何将大语言模型应用于实际场景的指导。
本书围绕大语言模型构建的四个主要阶段,详细介绍各阶段使用的算法、数据、难点以及实践经验。
这是国产CPU龙芯团队胡伟武老师等人编写的《计算机体系结构基础》(第三版)的开源版本,强调计算机体系结构的完整性和软硬件的结合。
liteLLM是一个开源库,旨在简化LLM(大语言模型)的完成和嵌入调用。它提供了一个方便易用的接口,使得调用不同的LLM模型变得更加简单。用户只需导入'litellm'库并设置必要的环境变量(如OPENAI_API_KEY和COHERE_API_KEY),即可创建Python函数并使用liteLLM进行LLM完成调用。此外,liteLLM还提供了一个演示平台,用户可以在其中编写Python代码并查看输出,从而比较不同的LLM模型。
这个开源项目是一个响应式聊天应用程序,使用了OpenAI的GPT-4进行动力支持。它具有响应流、代码高亮和各种预设功能,适用于开发人员。这个项目使用了Next.js、React和Joy等技术。
该项目总结了大语言模型的微调技术,探讨了指令微调和对齐微调的方法,旨在提升模型在特定任务上的表现。
大语言模型自我纠错相关论文的精选集合,涵盖内在自我纠错、外部工具辅助纠错、信息检索辅助纠错等多个研究方向,包含详细的论文分类和引用信息,是研究LLM自我纠错能力的重要参考资源
大型语言模型资源手册,汇集模型训练、部署、微调和构建应用的精选资源,覆盖AI社区的热门领域
该项目旨在详细解释AI领域内的重要论文和关键概念,如Transformer、GPT、BERT等,帮助用户更好地理解复杂的机器学习理论和技术。
这是一个精心整理的机器学习工程课程列表,涵盖来自加州理工学院、哥伦比亚大学、伯克利、麻省理工学院和斯坦福大学的公开资源。
这是一个涵盖多种技术话题的笔记项目,内容包括从 Zygisk 到 systrace 到 OpenGL 及 WSLg 等技术,提供了作者的技术探索和研究成果。
这是一本由李宏毅老师和Datawhale团队出品的电子书,整理了李老师的视频教程,涵盖深度学习的理论与实战,提供丰富的学习资源和配套代码,适合各层次的学习者。