MinT 是一个轻量级、可扩展的Transformer库,专为自然语言处理任务而设计,提供易于使用的API,支持多种预训练模型,能够高效地进行模型训练和推理。
Lit-LLaMA是一个独立实现的LLaMA,完全开源,遵循Apache 2.0许可证,基于nanoGPT构建,旨在解决原始LLaMA代码在GPL许可证下的限制,以支持更广泛的学术和商业应用。
Kansformers是一个基于知识增强网络(KANs)的Transformer架构,旨在提高自然语言处理任务的性能。它提供多种预训练模型,支持针对特定任务的微调,并具备高效的模型推理能力和灵活的API设计,适合多种应用场景。
在ESP32微控制器上运行大型语言模型(LLM),探索其在资源受限环境下的可能性,特色包括使用tinyllamas模型和对llama.2c的优化以提高性能。
Orca是一个基于GPT-4复杂解释轨迹的渐进式学习模型,旨在推动自然语言理解与生成的前沿。它设计高效且智能的最先进语言模型,能够与OpenAI的GPT-4和PALM相媲美。
Trapper是一个旨在更轻松地在下游任务上训练基于Transformer的模型的NLP库,采用模块化设计,提供一致的API,支持多种下游任务,能够实现最先进的NLP性能。
只依赖pytorch、transformers、numpy、tensorboardX,专注于文本分类、序列标注的极简自然语言处理工具包
我们维护的NLP开源工具包,致力于自然语言处理的研究与应用,提供多种功能以支持学术研究和实际应用。
EnergeticAI是为无服务器功能优化的TensorFlow.js,提供快速冷启动、小模块大小和预训练模型,非常适合在Node.js应用中集成开源AI。
TUMCC是一个用于识别Telegram地下市场中中文术语的语料库,旨在帮助研究者分析在线非法活动的语言特征。该语料库包含对各种术语及其含义的注释,并利用上下文和语言特征提高识别能力。
该项目提供了Vision Transformer在Tensorflow中的完整实现,支持多种数据集和任务,易于扩展和修改,并包含详细的使用示例和文档,帮助用户快速上手并深入了解模型的应用与性能。
Ramen AI 提供完整的文本分类工具集,无需模型训练和预标记数据,开箱即用,轻松构建、测试、监控和扩展应用。