AI交流(进群备注:NeuralKG)

NeuralKG是一个基于PyTorch Lightning开发的知识图谱表示学习框架,集成了多种知识图谱表示学习模型。它支持传统知识图谱表示学习模型、基于图神经网络的知识图谱表示学习模型以及基于规则的知识图谱表示学习模型。NeuralKG采用模块化设计,便于个性化和维护,能够高效、可扩展地进行知识图谱表示学习任务。
NeuralKG的特点:
- 1. 支持多种传统知识图谱表示学习模型(如TransE, TransH, TransR等)
- 2. 集成基于图神经网络的知识图谱表示学习模型(如RGCN, KBAT, CompGCN, XTransE等)
- 3. 包含基于规则的知识图谱表示学习模型(如ComplEx-NNE+AER, RUGE, IterE等)
- 4. 模块化设计,便于个性化和易于维护
- 5. 基于PyTorch Lightning,支持高效和可扩展的训练
NeuralKG的功能:
- 1. 使用NeuralKG进行知识图谱表示学习任务
- 2. 扩展和定制已有的表示学习模型
- 3. 比较不同知识图谱表示学习模型的效果
- 4. 应用基于图神经网络的知识图谱表示学习模型进行高级表示学习
- 5. 实现基于规则的知识图谱表示学习模型,将逻辑规则融入知识图谱嵌入
相关导航

Babel-LLM开源项目 – 开源多语言大模型
Babel是阿里巴巴开源的多语言大模型,支持25种主流语言,覆盖全球90%以上的人口。它提供了9B和83B两个版本,9B专为高效的多语言大模型推理和微调设计,适合研究和本地部署;而83B性能更好,但消耗的资源也更多。Babel的创新之一是采用了层扩展技术,通过在模型中插入额外的层来增加参数数量从而提升模型的性能。预训练方面,Babel采用了两阶段预训练策略:第一阶段是恢复阶段,目标是恢复模型在扩展过程中可能损失的性能;第二阶段是持续训练阶段,重点提升模型的多语言能力,尤其是低资源语言。Babel在多个主流基准测试中表现出色,尤其是在多语言推理、理解和翻译方面。
暂无评论...