fairseq-image-captioning是一个基于Transformer架构的图像自动描述扩展,专为PyTorch/Fairseq框架设计。它支持高效的图像特征提取与文本生成,提供了预训练模型和训练脚本,同时支持用户使用自定义数据集进行训练。该项目可以轻松集成到现有的PyTorch/Fairseq项目中,用于生成图像描述、训练新模型以及进行模型的微调和优化。
CenterMask2是基于Detectron2框架的实时无锚点实例分割模型,是原始CenterMask的升级版,专注于高质量和高效的物体实例分割。它通过改进的实例分割精度和减少计算开销,适用于多种视觉任务,并支持自定义数据集的训练和推理。
ChineseNMT是一个基于Transformer架构的高效英译中翻译模型,使用PyTorch实现,支持自定义数据集训练,提供预训练模型,并且易于扩展和修改。
一种基于Llama-2模型使用自己数据微调的方法,A100显卡就可以对70B模型微调。
AtomGPT是基于LLaMA的模型架构,通过从零开始训练,旨在展示模型的进化过程及学习能力的提升,帮助研究人员深入理解模型的学习过程。
Phi2-mini-Chinese 是一个从零开始训练自己的Phi2中文小模型的项目,支持加载本地知识库进行检索增强生成(RAG),旨在提供强大的中文对话能力和灵活的训练选项。
Movenet.Pytorch是Google推出的MoveNet在Pytorch中的实现,包含训练代码和预训练模型,适用于人体关键点检测任务。
OpenICL是一个开源的框架,旨在支持上下文学习,提供多种算法和灵活的接口,便于集成到现有的自然语言处理模型中。
HCP-Diffusion是一个基于diffusers的stable diffusion模型训练工具箱,旨在提供一个高效、灵活的环境来训练和微调多种stable diffusion模型,支持自定义数据集和模型参数,具有易于使用的API接口和高效的训练推理速度,适应不同用户的需求。
CRUDERRA 是一个为软件开发团队设计的 AI 驱动文档操作平台,能够生成交互式文档和代码架构,使开发人员更容易理解、更新和协作代码库。
Fine-tune Phi-2是一个用于对Phi-2模型进行微调的项目,包含使用QLoRA技术进行微调、创建合成对话数据集以及支持多个GPU并行训练的功能。该项目提供了详细的示例代码和文档,允许用户灵活配置训练参数,以便优化模型的表现。
一个用于算法交易回测的教程,旨在帮助用户理解和实现回测策略。
Lamini是一个为企业软件开发提供支持的AI驱动的LLM平台,通过生成性AI和机器学习,帮助开发者自动化工作流,简化软件开发过程,提高生产力。
将Andrej Karpathy的nanoGPT移植到Apple MLX框架,允许在苹果设备上训练OpenAI的GPT-2模型或自定义的GPT风格模型。该项目利用Apple MLX框架的优势,优化性能,简化模型训练流程,便于开发者在Apple生态中进行AI模型的开发和训练。
DirectAI使用户能够快速构建强大的计算机视觉模型,无需编码或训练数据。它利用大型语言模型和零样本学习,根据用户的描述生成适合的模型。
Awesome ChatGPT Plugins是一个集中展示多种ChatGPT插件的资源库,旨在为用户提供方便的访问和使用这些插件的方式。该项目汇集了众多实用插件,涵盖多种功能,能够帮助开发者和普通用户扩展ChatGPT的应用场景。
《解构大语言模型:从线性回归到通用人工智能》配套代码,提供了大语言模型的实现与分析,展示了线性回归与语言模型之间的关系,并支持多种数据集与训练配置,易于扩展与自定义。
Zeta是一个高性能的AI模型构建框架,采用模块化和可重用的构建块,能够比PyTorch、TensorFlow等框架快80%。它旨在提高开发效率,降低学习曲线,适合各种规模的机器学习任务。