AI交流(进群备注:CachedEmbedding)

基于ColossalAI的软件缓存方法来动态管理CPU和GPU内存空间中的极大嵌入表,能够在单个GPU上高效训练包括91.10 GB嵌入表的DLRM模型,仅需分配3.75 GB的CUDA内存,适用于大规模数据集。
CachedEmbedding的特点:
1. 动态管理CPU和GPU内存空间
2. 支持极大嵌入表的高效训练
3. 在单个GPU上处理大规模数据集
4. 基于ColossalAI的高效内存使用
CachedEmbedding的功能:
1. 用于训练DLRM模型
2. 适用于Criteo 1TB数据集
3. 可与PyTorch的EmbeddingBag结合使用
相关导航

makeMoE开源项目 – 稀疏专家混合语言模型实现
makeMoE 是一个从头开始实现的稀疏专家混合语言模型,基于 PyTorch 框架,采用自回归字符级语言模型架构。该项目灵感来源于 Andrej Karpathy 的 makemore 项目,旨在通过稀疏专家混合架构实现高效的语言模型训练和推理。它涵盖了模型的基本组成、自注意力机制、专家网络、Top-k 路由、噪声 Top-k 路由等核心组件的代码实现,并提供了模型的初始化方法、训练循环以及文本生成示例。makeMoE 不仅适用于研究和学习稀疏专家混合语言模型的实现,还可作为自回归字符级语言模型的参考实现,适用于自然语言处理领域的实验和开发。
暂无评论...