自然语言处理(NLP)教程,涵盖文本词向量、词法分析、预训练语言模型等常见NLP任务,适合作为入门学习和基线参考。
从零开始构建自己的大型语言模型,提供详细教程和代码实现,覆盖编码、预训练和微调过程,适用于对自然语言处理和人工智能领域感兴趣的开发者和研究者
一个包含多种自然语言处理教程的项目,涵盖了Transformer等模型的实现和应用。
One-GLM是基于GLM架构的项目,移植到了使用OneFlow后端进行训练,能够大幅提升性能和显存利用率。
深言科技联合清华大学NLP实验室开源的语鲸-8B模型,其能力大致介于ChatGLM2和3之间。该模型支持多种自然语言处理任务,适用于各种应用场景。
悟道·天鹰Aquila2包含基础语言模型Aquila2-7B和Aquila2-34B,支持对话模型AquilaChat2-7B和AquilaChat2-34B,以及长文本对话模型AquilaChat2-7B-16k和AquilaChat2-34B-16k,适用于各种自然语言处理任务。
这是2022搜狐校园算法大赛NLP赛道第一名的开源方案,包含实验代码,旨在提供高效的自然语言处理解决方案。该项目经过优化,能够支持多种数据预处理方式,并提供详细的实验结果和分析,帮助用户更好地理解和应用自然语言处理技术。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
Lightning AI是一个使用PyTorch训练、部署和构建AI模型的平台,以其超快的性能而闻名。它由PyTorch Lightning的创作者开发,提供用户友好的界面来管理训练过程和监控模型性能,适用于计算机视觉、自然语言处理、推荐系统和强化学习等多个领域。
收录NLP相关竞赛经验贴、NLP会议时间、常用自媒体、GPU推荐等,旨在为NLP爱好者提供全面的资源和指导。