XAIsearch是一个专为智能搜索设计的开源框架,为开发者提供构建高效检索系统的工具。它支持语义搜索与多模态查询,优化信息检索体验。通过语义编码、多模态支持和索引优化等功能,XAIsearch能够加速大规模数据检索过程,并提供高效的搜索服务接口。
DeepRetrieval是一个利用大型语言模型(LLM)和强化学习(RL)技术重新定义搜索引擎和检索器的项目。其核心价值在于让LLM学会高效搜索,从而大幅提升信息检索的精准度。通过结合Qwen2.5-3B等强大模型,DeepRetrieval在零样本情况下的召回率高达60.82%,远超传统方法。
Doctran是一个文档转换框架,旨在通过使用大型语言模型(LLM)和开源自然语言处理(NLP)库,将原始文本转换为干净、结构化、信息密集的文档,从而优化向量空间检索的效果。该框架能够有效地处理非结构化文本数据,提升文档的可读性和检索效率。
一个AI模型,用于计算输入与上下文之间的相关性,并给出评分,最大亮点是模型大小仅为~ 0.5B(494M)。
本项目旨在利用合成数据,通过大语言模型从非结构化文档生成查询和相关文档,从而创建合成数据集,以微调开源嵌入模型。这样可以显著提高信息检索的准确性和效率,同时增强模型在特定领域的理解能力。
stablediffusion api是一个强大的API,旨在让开发者专注于构建下一代AI产品,而无需担心GPU的维护。它提供了便捷的接口,支持用户生成和微调Dreambooth Stable Diffusion,极大地简化了图像生成的流程和技术门槛。
基于MindSpore的易于使用和高性能的自然语言处理(NLP)和语言模型(LLM)框架,与Huggingface的模型和数据集兼容,支持多种NLP任务。
eLLMo是一个专属的私有大型语言模型,旨在保护客户数据的隐私。它利用增强检索生成(RAG)技术,能够回答客户数据和文档上的问题,打破团队间的信息孤岛。该解决方案可在本地部署,确保数据安全与合规。
Punica 是一个工具,旨在将多个经过 LoRA 微调的语言模型整合在一起,简化管理和调用,提供灵活的模型组合和优化的性能响应。
FLASK是一个专注于基于技能集的细粒度评估工具,能够对大语言模型(LLM)进行全面分析和比较。它提供了评估模型在不同能力上的表现,并与最先进的开源LLM进行对比,帮助用户了解模型的优势和不足。
MIT证明,机器能够理解含义,哪怕它本来只是训练用作预测下一个字符(LLM)。
Dioptra是一个开源的数据策展和管理平台,旨在支持计算机视觉、自然语言处理和大型语言模型。它帮助用户策划有价值的未标记数据,注册元数据,诊断模型失效模式,并与标注和再训练系统整合。
LiteChain是一个构建LLMs应用的轻量级替代LangChain的选择,专注于拥有小而简单的核心,易于学习、适应,文档完备,完全类型化和可组合,旨在帮助开发者快速实现复杂应用逻辑。
一个用Rust开发的本地LLM接口工具,支持多平台(Mac/Windows/Linux)的CPU和GPU运行。特色是提供了级联提示工作流(Cascading Prompt Workflow)系统,能将LLM的概率性输出转换为确定性信号,大幅提高输出可靠性。
YesChat是一个集成了GPT-4o和DALL·E 3等先进AI技术的平台,旨在提升工作效率和生产力,支持文本生成、图像创建和文档分析等多种功能,适用于专业需求。
Ramen AI 提供完整的文本分类工具集,无需模型训练和预标记数据,开箱即用,轻松构建、测试、监控和扩展应用。
这篇论文研究了长序列问答中的语言模型,探讨了检索在生成答案中的重要性以及如何改进检索器以提高LLM的表现。