该项目研究大型语言模型(LLMs)在推理过程中如何可能侵犯用户隐私,分析潜在的隐私泄露风险,并提供对隐私保护的讨论和建议。
该研究发现,在计算限制范围内,LLM(高达90亿参数)经过四轮训练后,新数据带来的收益微乎其微,增加资源的收益有限。对于嘈杂的数据集,数据过滤的效果更为显著。
一个包含多个样本的基准测试项目,用于大语言模型的测试和评估,旨在帮助研究者和开发者了解模型的性能表现。该项目提供多种语言的测试样本,支持自定义测试用例,易于与现有AI项目集成,方便进行系统性评估。
FinLLMs是一个专注于金融领域的大型语言模型资源汇编,涵盖了模型的发展历史、技术细节、评估方法,以及在金融领域面临的机遇与挑战,旨在为研究人员和开发者提供最新的信息和资源支持。
精选大型语言模型在推理时自我改进的研究论文列表,助力模型性能提升。该项目汇集了大量优秀研究,提供最新的调查结果,旨在帮助研究者和开发者优化大型语言模型的性能。
EricLLM是一个快速批处理API,旨在为各种大语言模型提供高效的服务,支持多种模型配置和资源管理,方便用户进行批量文本处理和集成到现有应用中。
旨在开发支持大规模并行训练的机器学习天气和气候模型的PyTorch框架,Makani 提供高效的计算资源利用,帮助研究人员进行气候变化研究和天气预测。
一个整理的大语言模型在表格数据应用的论文资源列表,汇集了大量与表格数据处理相关的研究资源,并提供对大语言模型在这些应用中的深入分析。项目持续更新,确保资源的时效性和相关性,支持多种表格数据处理任务的参考资料。
高性能生产级API,用于托管MLX模型,包括视觉语言模型(VLM)和语言模型(LM),支持多种模型架构,优化资源管理,提供定制化服务
一个用于评估稀疏自编码器(SAE)模型性能的工具,提供了8种不同的评估方法,帮助研究人员和开发者更好地理解和优化SAE模型。
LLaMA3揭示了模型架构不变的情况下,通过增加数据量可以显著提升模型性能的现实。