从零开始构建具有LLaMA 1架构的2.3M参数大型语言模型(LLM),无需高端GPU,采用简化数据集和基础PyTorch实现。该项目旨在使更多开发者能够在资源有限的情况下,轻松构建和训练自己的语言模型,适用于研究和开发用途。