大型语言模型的数据、模型和基准集市,为ChatGPT的大众化贡献力量
截至目前,国内已经有了个 188 大语言模型,LLMs-In-China 收录了中国境内的多种大语言模型信息,提供模型的基本参数和性能指标,包含模型的使用案例和应用场景,并支持用户提交新的模型信息。
这个开源项目的主要功能是为漏洞赏金计划和渗透测试提供ChatGPT提示。用户可以通过该项目生成与漏洞赏金计划和渗透测试相关的ChatGPT提示,以获取相关工作的信息和指导。
LongBench是一个专为中英双语长文本理解而设计的评测基准,支持多种理解任务的评估,并提供标准化的数据集和评测指标,适用于各种长文本处理模型的性能评估。
GPTs-DATA是一个综合性的数据库,包含超过13600个GPT模型、60多个导航网站和每周10多个独家提交门户。该项目致力于提供最新的GPT模型和资源,确保用户获取的信息始终保持新鲜和相关。
TransferAttack是一个基于PyTorch的框架,旨在提升图像分类中的对抗性传递性,提供评估和攻击模型的功能,并对已有的传递性攻击进行分类和评估。
Promptfoo是一个专门为测试和增强语言模型数学(LLM)提示而设计的库,提供强大的工具来评估提示质量和模型输出,从而提升结果。
Diarizers是一个用于微调pyannote说话人辨识模型的库,利用Hugging Face生态系统,提供了便捷的模型训练和评估功能。
Team-GPT使ChatGPT用户能够在线程和提示上进行协作,仅按使用量收费,并公开分享ChatGPT对话。该项目旨在帮助团队实现AI的有效应用,通过互动课程帮助团队轻松启动GPT的使用。
katakomba是一个专为NetHack游戏设计的数据驱动的基准测试工具,提供超过30个标准化数据集,并支持多种基于循环的离线强化学习基线模型,旨在促进研究和开发中的基准测试。
Deepseek-V3-Base是一个参数量达到685B的AI模型,采用MoE架构,虽然官方尚未公开详细信息,但其性能表现优越,已被广泛认可,成为开源领域的亮点。
一个强化学习项目,旨在通过少量示例训练大型语言模型以进行数学推理和解决问题。该项目通过使用少量数据和简化的训练流程,使得AI推理训练更加高效,且小模型也能表现出强大的推理能力。