MiniRBT (中文小型预训练模型) 是由iFLYTEK开发的一个小型中文预训练模型,旨在提供高效的自然语言处理能力。
EnergeticAI是为无服务器功能优化的TensorFlow.js,提供快速冷启动、小模块大小和预训练模型,非常适合在Node.js应用中集成开源AI。
该项目汇集了多个开源的中文预训练语言模型及其对应的指令数据集,旨在为中文自然语言处理提供丰富的资源。
长颈鹿版LongLLaMA是一个专门针对上下文长度达到100K的情况下,保持模型性能的研究项目。它提出了一种新的训练目标,以有效处理长文本中的相关与无关的key-value空间结构,从而解决模型的分心问题,确保在处理超长文本时的高效性和准确性。
深言科技联合清华大学NLP实验室开源的语鲸-8B模型,其能力大致介于ChatGLM2和3之间。该模型支持多种自然语言处理任务,适用于各种应用场景。
ZoeDepth是一个利用深度学习技术从2D图像生成3D模型的工具,经过12个数据集的训练,专注于深度估计和3D模型生成。
CSTS是一个专为中文设计的自然语言推理与语义相似度数据集,包含多种推理场景,提供丰富的标注数据,旨在支持机器学习和深度学习模型的训练,帮助提升中文文本的理解和处理能力。
Appastic是您的AI助手,帮助您高效分析应用评论,从识别关键情感趋势到提取用户建议,确保您的应用潜力得到充分发挥。
DeepSeek V3是由中国AI公司深度求索发布的一款高效开源AI模型,采用专家混组(MoE)架构,仅激活部分参数以减少算力需求,显著降低内存需求。模型规模达到671B参数,激活37B参数,推理成本低,性能接近甚至在某些领域超越GPT-4。在编程、数学等领域表现优异,支持多种部署方式,适用于自然语言处理、文档分析、对话系统等场景。
Hugging Face是一个专注于人工智能的开放源代码平台,旨在通过开放科学推进和普及人工智能技术。该项目提供了一系列工具和库,帮助开发者和研究人员轻松构建和应用自然语言处理(NLP)模型。
这是一个新的简单替代方案,基于计算输入激活的权重大小和范数之间的逐元素乘积。
llm-swarm是在Slurm集群中管理可扩展的开放式LLM推理端点的工具,具备生成合成数据集的能力,主要用于预训练或微调。同时,它集成了huggingface/text-generation-inference和vLLM,以支持大规模文本生成任务。
Openlayer是一个先进的平台,旨在使用机器学习算法构建高质量、可信赖的模型。它提供了一个工作区,用于从头开始评估和设计机器学习模型。用户可以创建账户并访问评估工作区,上传数据集,配置模型参数,并选择合适的机器学习算法进行训练和测试。Openlayer配备了用户友好的界面,提供数据预处理、特征选择、模型评估和可视化工具。
AiInfer是一个C++版的AI推理库,目前专门支持TensorRT模型的推理,旨在提供高性能和易用性。