《解构大语言模型:从线性回归到通用人工智能》配套代码,提供了大语言模型的实现与分析,展示了线性回归与语言模型之间的关系,并支持多种数据集与训练配置,易于扩展与自定义。
LLMSurvey是一个提供LLaMA模型族进化图的项目,用户可以通过该工具查看不同版本模型的性能,比较多种模型参数,并获取相关的训练和评估数据。
RT-DETR(Real-time DEtection Transformer)是一种在速度和准确率方面均超越YOLO系列的先进物体检测模型,旨在提升计算机视觉任务的效率和效果。该模型采用高效的混合编码器和不确定性最小查询选择方法,支持灵活的速度调整和多尺度特征处理,在COCO数据集上表现出色。
用 Groq API 实现 Deeplearning.ai 定义的 4 种从头实现的 agentic 模式的项目,提升大型语言模型(LLM)的响应性能,支持自定义工具访问外部信息,规划复杂任务的执行步骤,以及多代理协作完成任务。
Logos Shift 提供一个简单的方式来替换昂贵的LLM API调用,自动采用经过定制后的更小更快的模型,有效提升模型调用效率并简化管理流程。
用于微调和评估开源大型语言模型的工具集,目前处于早期开发阶段,旨在为研究人员和开发者提供一个强大、灵活且易于使用的解决方案。
Tonic Validate Metrics 是一个开源的评估指标包,旨在为生成模型的输出提供多种评估指标,支持模型性能对比,易于集成到机器学习工作流,并兼容多种数据格式和输入类型。
Helicone是一个开源平台,用于记录、监控和调试AI应用。它支持一行代码集成,提供使用情况追踪、LLM指标、提示管理等功能,适合开发者和团队使用。
Ludwig v0.8是一个开源的低代码框架,旨在帮助开发者轻松构建先进的机器学习模型,特别是优化用于使用私有数据构建定制的大型语言模型(LLM)。它提供了一种声明式接口,使得模型的构建过程更加高效和简便。
Movenet.Pytorch是Google推出的MoveNet在Pytorch中的实现,包含训练代码和预训练模型,适用于人体关键点检测任务。
LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
Promptfoo是一个专门为测试和增强语言模型数学(LLM)提示而设计的库,提供强大的工具来评估提示质量和模型输出,从而提升结果。
MergeUI是一个直观的用户界面,旨在帮助用户探索在Hugging Face上合并的语言模型(LLMs)。通过合并模型,用户可以以低廉的成本创建强大的语言模型,无需GPU。该工具提供了有关模型合并的建议,帮助用户决定合并哪些模型以及使用什么合并策略。
ml-calibration是一个用于测量校准和绘制可靠性图表的工具包,提供了可视化方法来评估模型的校准程度,并生成可靠性图表以帮助分析模型的可靠性。该工具包支持多种校准方法的比较,易于集成到现有的机器学习工作流中。
OpenDelta是一个开源框架,旨在实现高效的参数调优(Delta Tuning),支持多种机器学习模型和任务,具有易于集成和扩展的特点,能够优化计算资源的使用。
一个韩国团队发布的自我改进的大型语言模型(LLM),能够通过自我较劲和打分的方式进行自我进化。
用于评估和理解大型语言模型的统一评估框架,提供了用户友好的API,方便研究人员进行模型性能评估、提示工程和对抗提示攻击评估等。
一个基于斯坦福的 Alpaca,并进行了中文优化的大语言模型项目,愿景是成为能够帮到每一个人的LLM Engine。