Mixtral-8x7B-Instruct-v0.1模型 – 高性能指令跟随模型
Mixtral-8x7B-Instruct-v0.1 是由 Mistral AI 开发的开源指令跟随模型,基于 Mixtral-8x7B-v0.1 架构,采用混合专家(MoE)设计,包含 8 个 7B 参数的专家,总参数量约为 46.7B。该模型支持 32k 令牌的上下文长度,能够处理英语、法语、意大利语、德语和西班牙语。在 MT-Bench 基准测试中得分 8.3,表现出色,特别适合需要指令跟随的应用场景。模型通过 Hugging Face transformers 库加载,支持 GPU 加速,生成文本的能力强大且灵活。