一个包含大约4675本中文科幻小说的语料库,可以用于中文科幻小说的人工智能研究。
《2000 Machine Learning Prompts》是一个全面的资源,旨在帮助爱好者学习和实验机器学习,使他们熟悉其功能和在不同上下文中的应用。
达摩院开源的视觉-语言预训练的语料库,包含从在线教学视频中提取的多模态数据,支持多种学科的学习和研究。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
这是一个通过远程访问部署在支持国家网内的ChatGPT API服务器,用Go语言编写。它是一个开源项目,主要功能是为ChatGPT提供API服务。ChatGPT是一个机器学习项目,可以用于实现聊天机器人等应用。
在MiniGPT4的基础上对齐了Qwen-Chat语言模型,使用高质量的指令微调数据,通过单阶段预训练达到了很好的效果。
AI2开源的OLMo语言模型核心构建模块,基于PyTorch实现,提供了完整的模型训练和优化组件,支持多种规模模型(1B-13B)训练,包含flash attention、float8训练等高级特性
Fine-Tuner AI是一款强大的工具,利用尖端的微调技术提升您的自然语言处理(NLP)模型性能。它可以在更少的数据下以极短的时间内实现更好的结果。用户只需将NLP模型和数据上传到平台,Fine-Tuner将应用其先进的微调算法,优化模型以提高性能。优化后的模型可以轻松集成回现有工作流程中。
该项目集成了基于 transformers 库实现的多种自然语言处理任务,支持用户使用各种预训练模型,进行文本分类、生成、命名实体识别、机器翻译等操作,并且允许用户自定义数据集,易于使用和扩展。
一种用于视觉-语言预训练的多模态数据集,通过将图像和文本交错排列,提供丰富的基础知识,帮助模型更好地理解和生成多模态内容
大规模机器学习是一个网站,提供来自顶尖科技公司的机器学习系统的见解,涵盖分布式训练、特征存储、设备模型部署、对抗样本的稳健性、行业角色等主题。