Tiny LLM zh 是一个从零开始的小参数量中文大语言模型,旨在帮助学习者快速掌握大模型相关知识。该项目提供了公开的数据和代码,支持多阶段训练和人类对齐技术,使得用户能够轻松入门并进行相关实验。
一款支持 GPT 以及国产大语言模型通义千问、文心一言等,支持 Stable Diffusion 文生图、图生图、超分辨率、图片上色的全能型 APP。
这是一个集合了最新、最前沿、有趣的针对大型语言模型(LLMs)的越狱方法的项目。它包括相关的论文、代码、数据集、评估和分析,旨在为研究人员提供多样化的越狱技术,适用于不同类型的LLM。
HIA是一个端到端的组织病理学图像分析工具,利用深度学习技术,支持多种图像分析任务,提供用户友好的界面和API,并具备可扩展的模型训练和高效的图像处理流程。
这是一个精心策划的关于GPT、ChatGPT、OpenAI、LLM等相关项目和资源的集合。
Ludwig v0.8是一个开源的低代码框架,旨在帮助开发者轻松构建先进的机器学习模型,特别是优化用于使用私有数据构建定制的大型语言模型(LLM)。它提供了一种声明式接口,使得模型的构建过程更加高效和简便。
HCP-Diffusion是一个基于diffusers的stable diffusion模型训练工具箱,旨在提供一个高效、灵活的环境来训练和微调多种stable diffusion模型,支持自定义数据集和模型参数,具有易于使用的API接口和高效的训练推理速度,适应不同用户的需求。
lightning-uq-box是一个基于PyTorch和Lightning的库,旨在为现代神经网络提供多种不确定性量化(UQ)技术,支持灵活的模型训练和评估,并与现有的PyTorch项目无缝集成。
这是一个开源实现,旨在为Meta的Llama3.2-Vision系列模型提供微调功能,支持高效训练,兼容Liger-Kernel,提升模型性能和训练效率。
DeepSeek-V3 的Q4_k_m 量化版本,大小比原本的小一半,兼容性强,适用于多种环境,提升处理效率,同时保留大部分原始模型性能。
基于AutoDL快速部署开源大模型,提供完整指南,包括环境配置、部署和微调,助你轻松掌握各类大模型应用
minRLHF是基于minGPT构建的最小化RLHF实现,包含一个0.8M参数的积极情感推文生成模型HappyGPT和文本摘要项目。该项目简洁易懂,提供完整的训练和推理功能,适合学习和研究RLHF技术。
专为物理AI设计的世界基础模型平台,旨在帮助物理AI开发者更好更快地构建物理AI系统。