AI交流(进群备注:s1)

s1是一个通过精心挑选的微调样本进行训练的AI模型,使用不到50美元的训练成本。训练过程中,选择了1000个问题,并通过Gemini Thinking Experimental提取这些问题的推理轨迹和答案。实验表明,使用1K样本进行监督微调(SFT)在小型数据集上仅需在16个H100 GPU上进行26分钟的训练。训练后,使用预算强制策略来控制模型测试时的计算量,通过强制终止或延长模型的思考过程来优化生成结果。
s1的特点:
- 1. 低成本训练,仅需不到50美元
- 2. 使用1000个样本进行监督微调
- 3. 训练时间短,仅需26分钟
- 4. 预算强制策略优化生成结果
- 5. 支持多种推理方式(vLLM、transformers等)
s1的功能:
- 1. 使用vLLM进行推理
- 2. 使用vLLM进行预算强制推理
- 3. 使用transformers库进行推理
- 4. 训练自定义模型
- 5. 评估模型性能
相关导航

DeepSeek是一家位于中国杭州的人工智能公司,专注于开发大型语言模型(LLMs)。公司成立于2023年7月,隶属于中国对冲基金High-Flyer。DeepSeek的核心产品包括一系列LLMs,涵盖对话、搜索、编程和推理功能。其模型在性能和成本效益上表现出色,特别是在推理任务和编程支持方面,能够与国际领先模型如OpenAI的GPT-4o媲美。DeepSeek的模型训练成本显著低于行业平均水平,例如V3模型的训练成本仅为600万美元,而OpenAI的GPT-4在2023年耗资1亿美元。2025年1月,DeepSeek推出了同名聊天机器人和DeepSeek-R1模型,迅速在全球AI领域崭露头角。

Intel Extension for Transformers 是一个开源项目,旨在使客户端 CPU 上的大型语言模型(LLM)微调成为可能,特别是在没有 GPU 的情况下。它支持在 CPU 上进行 QLoRA 微调,适用于笔记本电脑环境,并通过优化的性能提升模型训练效率。该项目与 HuggingFace Transformers 兼容,支持 4 位推理,并利用 Intel 神经压缩器提供丰富的模型压缩技术,如量化、剪枝和蒸馏,显著提高了英特尔平台上的推理效率。此外,它还支持自动化的仅限权重的 INT4 量化流程,兼容多个流行的大语言模型,如 Llama2、Llama 和 GPT-NeoX。