ChatGLM Efficient Tuning 是一个基于 PEFT(Parameter-Efficient Fine-Tuning)技术的高效微调项目,专注于对 ChatGLM-6B 模型进行微调。该项目通过多种微调方法,如 freeze、ptuning 和 lora,提供了一种资源节约且高效的微调方案,适用于多种自然语言处理任务,如对话生成和文本分类。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型