AI交流(进群备注:MiniCPM)

MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。通过 Int4 量化技术,MiniCPM 实现了在手机端的部署能力,提供与人类说话速度相当的流式输出速度。MiniCPM 在中文、数学和编程能力方面表现优异,超越了 Llama2-13B、MPT-30B 和 Falcon-40B 等模型。此外,基于 MiniCPM-2B 开发的多模态模型 MiniCPM-V 在同规模模型中表现最佳,支持高效参数微调和全参数微调,二次开发成本较低。
MiniCPM的特点:
- 1. 经过 SFT 后,在公开综合性评测集上整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
- 2. 经过 DPO 后,在 MTBench 评测集上超越了 Llama2-70B-Chat、Vicuna-33B 等众多代表性开源大模型。
- 3. 以 MiniCPM-2B 为基础构建的多模态大模型 MiniCPM-V 在同规模模型中实现最佳性能。
- 4. 经过 Int4 量化后,可在手机上进行部署推理,流式输出速度略高于人类说话速度。
- 5. 支持高效参数微调和全参数微调,二次开发成本较低。
- 6. 4B 参数,在自然语言理解、知识、代码、数学等能力上赶超GPT-3.5。
- 7. 32k上下文窗口,配备 LLMxMapReduce,理论上可以处理无限的上下文,而无需占用大量内存。
- 8. Function Calling 性能比肩 GPT-4o,端侧最强。
- 9. 超强 RAG 外挂三件套,中文检索第一、生成超Llama3-8B。
MiniCPM的功能:
- 1. 在手机上部署 MiniCPM 进行推理和应用。
- 2. 利用 1080/2080 显卡进行高效参数微调,3090/4090 进行全参数微调。
- 3. 构建基于 MiniCPM 的多模态应用,使用 MiniCPM-V 进行更复杂的任务。
- 4. 自然语言理解与生成。
- 5. 代码解释与生成。
- 6. 数学问题求解。
- 7. 长文本处理与分析。
- 8. 函数调用与执行。
- 9. RAG(Retrieval-Augmented Generation)应用。
相关导航
暂无评论...