Self-Retrieval是一个基于大型语言模型(LLM)的自我检索系统,旨在提高信息检索的准确性和效率。它支持多种数据源的检索,并提供用户友好的界面,适用于多种场景。
MAP-NEO/document-convert是一个高效的转换管道,能够将PDF或扫描图像转换为类似Markdown格式,保留文档结构和格式,适用于多模态艺术投影项目。
HF-LLM.rs 是一个命令行工具,旨在便捷地访问 Hugging Face 托管的大型语言模型(LLM)。该工具支持用户选择不同的模型,提供输入提示功能,以及实时输出流和聊天模式,适合开发者和研究人员使用。
gigaGPT是一个用于训练具有数百亿参数的大型语言模型的代码库,仅有500多行代码。它受到Andrej Karpathy的nanoGPT启发,但专为Cerebras硬件优化,能够扩展到GPT-3规模的模型。gigaGPT旨在提供一个干净、高效和可用的代码库,而不是追求训练最先进的模型。
Logic-of-Thought(LoT)旨在通过将逻辑注入上下文,提升大型语言模型的推理能力。该项目利用命题逻辑生成扩展的逻辑信息,并与现有的提示方法无缝集成,显著提升了多种提示方法在复杂任务中的性能。
这是加州大学圣巴巴拉分校、AI2、华盛顿大学、斯坦福大学、麻省理工学院、多伦多大学等单位联合发布的一项调研,旨在缩小知识差距,倡导开放、负责任、协作的进步,关注大型语言模型在数据选择方面的最佳实践和影响。
一种自我对齐方法,通过角色知识的增强和对话模拟,赋予大型语言模型(LLM)强大的角色扮演能力。
一项研究探讨大型语言模型(LLM)在科学发现中的表现,特别是GPT-4在多个科学领域的应用。该研究分析了GPT-4在药物发现、生物学和计算化学等领域的能力,评估其在复杂问题解决和知识整合任务中的有效性,同时进行专家驱动的案例评估和基准测试,旨在加速科学进步和优化资源配置。
self-adaptive-llms 是一个自适应框架,可以使大型语言模型实时适应未见过的任务,像是为模型装上“智能调节器”,从而在面对新任务时迅速调整,更好地完成任务。
本文调查了快速发展的指令调优 (IT) 领域的研究工作,这是增强大型语言模型 (LLM) 功能和可控性的关键技术。
ORGANA是一个灵活且人性化的机器人系统,旨在通过自然语言与化学家进行交互,使用大型语言模型进行推理和规划,提供及时的报告和分析结果,具备3D视觉感知能力,能够准确操作实验对象和监控实验进展,同时通过并行执行实验提高实验效率。
dottxt-ai/prompts 是一个专门用于生成和管理提示(prompts)的库,使用 Jinja 模板来渲染提示,并且支持大型语言模型和提示工程。它提供灵活的提示管理功能,使得用户能够方便地创建和定制用于自然语言处理的提示。
Dynamiq是一个专为Agentic AI和大型语言模型应用设计的AI智能协同框架,旨在简化AI应用的开发过程,擅长协调检索增强型生成与大型语言模型代理,同时支持多种AI技术的集成,提供高效的任务调度和资源管理。
科学探索Agent资源列表:汇集了关于大型语言模型和科学研发Agent的精选论文,旨在促进科学研究与人工智能的结合,提供前沿研究动态和资源
DeepCompressor是一个专为大型语言模型和扩散模型设计的模型压缩工具箱,支持多种数据类型的假量化,旨在提高模型的推理速度和效率。
Multipack Sampler是一种专门为大型语言模型设计的分布式采样器,旨在实现快速的无填充训练,提升训练效率同时优化资源使用。
用蒙特卡洛树搜索与大型语言模型结合解决数学问题的演示项目,就像给AI装上了解题的“指南针”,让它能更高效地找到解题路径
研究论文展示了大型语言模型如何有效地帮助诊断认知行为疗法(CBT)中的扭曲思维,结合自然语言处理技术,为心理健康提供支持。
Time-LLM 是一个通过重新编程大型语言模型来进行时间序列预测的项目,能够高效处理和预测各种时序数据。
Othello-GPT的工作令人信服地证明了大型语言模型能够构建复杂的世界模型,理解世界的结构和规则,超越简单的模式识别。
该项目汇集了针对大型语言模型的训练数据管理的研究,包括与预训练、数据质量和领域构成相关的资源。
一种无需标签的图像分类方法,通过利用大型语言模型和预训练的视觉模型,提升图像分类的准确性,无需大量标注数据,降低了成本
本项目对大型语言模型在不同自然语言处理任务中的提示工程方法进行了调查,展示了如何在不需要大量参数重训练或微调的情况下,增强模型能力,并使非深度学习背景的用户能够与大型语言模型进行交互。同时总结了基于NLP任务的各种提示技术,并分析了在不同数据集上的性能表现。
Time-LLM 是一个重新编程框架,用于将大型语言模型(LLMs)重新用于通用的时间序列预测,同时保持其骨干语言模型的完整性。
TrustLLM专注于LLM(大型语言模型)的可信度研究,制定了不同维度的评估原则,并建立了涵盖真实性、安全性、公平性、鲁棒性、隐私性和机器伦理六个维度的基准评估。
LLaVA-LLaMA-3是基于Llama-3-8b大型语言模型(LLM)的LLaVA-v1.5复现项目,旨在提供预训练模型及相关的训练和演示脚本,方便研究人员和开发者进行自然语言处理任务的探索与应用。
大型语言模型微调用高质量数据集大列表,帮助提升模型的准确性和多样性,使其更好地理解和执行指令。该项目提供了丰富的高质量数据集,支持不同语言模型的微调需求,适合研究人员和开发者使用。
开源的前端项目,旨在在浏览器中运行大型语言模型(LLM),通过 MLC-LLM 和 WebLLM Chat 实现,支持用户通过简单的界面与模型进行交互,无需复杂的配置或安装
LLM4TS是一个整合了大量时间序列相关论文和代码的大型语言模型和基础模型平台,旨在为研究人员和开发者提供便利的工具和资源,以便于进行时间序列数据的处理与分析。该项目不仅提供了应用示例,还支持多种时间序列分析任务,简化了用户的操作流程。
首款利用大型语言模型(LLM)进行零样本漏洞发现的工具,能自动分析代码,检测远程可利用的安全漏洞,帮助开发者及时发现和修复潜在的安全隐患。