SecretFlow(隐语)是一款由蚂蚁开源的企业级隐私计算框架,采用Python语言编写,支持多种主流隐私计算技术,如安全多方计算、联邦学习、差分隐私和同态加密,适用于医疗、金融等领域的数据合作场景。它通过抽象隐私计算技术为密文设备和明文设备,将数据分析和机器学习工作流表示为计算图,支持自动协议转换和插件式集成,提供灵活的编程接口,便于开发者在不了解底层技术细节的情况下进行隐私计算。
FATE-LLM是基于FederatedAI开发的联邦学习框架,支持大语言模型的分布式训练,旨在促进AI技术在保护知识产权和隐私的前提下的应用。该项目通过联邦学习架构,使得多方在不共享原始数据的情况下,能够协同训练出高效的AI模型,有效应对数据隐私和合规性挑战。
百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。
RWKV Infinite Context trainer 是一个用于训练任意上下文大小的工具,能够处理超过10k的上下文长度,同时在几乎恒定的VRAM内存消耗下运行。
FastLLM是一个动态策略选择的深度学习模型训练代码库,集成了Deepspeed、Megatron、FlashAttention、CudaFusionKernel和编译器技术,旨在优化大规模语言模型的训练效率,提供更加灵活和高效的训练方案。
WaveCoder是一个广泛且多才的项目,专注于增强指令调优和精炼数据生成,采用经过精心调优的代码语言模型和生成器-判别器框架,从开源代码中生成高质量、非重复的指令数据,显著提升大型语言模型在与代码相关任务中的表现和泛化能力。
MAP-NEO/document-convert是一个高效的转换管道,能够将PDF或扫描图像转换为类似Markdown格式,保留文档结构和格式,适用于多模态艺术投影项目。
旨在探索一种新的实验性模型训练流程,以训练高性能的特定任务模型,将训练过程的复杂性抽象化,使从想法到性能优越的完全训练模型的过程尽可能简单。用户只需输入任务描述,系统将从头开始生成数据集,将其解析为正确格式,并微调LLaMA 2模型。
这是一个开放的集合,提供了成功训练大型语言模型的方法论,适用于不同规模和类型的语言模型,包含多种训练技巧和最佳实践。该项目由社区驱动,持续更新和扩展,旨在帮助研究人员和开发者提高语言模型的训练效果。
由TII(Technology Innovation Institute)构建的一个40B参数的因果解码器模型,训练在精选语料库增强的1000B tokens的RefinedWeb上。
该项目探讨了如何将大型语言模型用于各种应用中的工具创建。
Unsupervised-TTS是由Cheng-I Jeff Lai开发的无监督语音合成系统,旨在利用无监督学习算法提高语音合成的质量和效率,同时支持多种语言,便于与现有系统集成。