IKI.AI 是一个专为知识密集型专业人士(如研究人员、咨询师)设计的平台,旨在提升知识管理效率。它通过整合多种文件格式的存储和云同步功能,辅以基于大型语言模型的智能助手,帮助用户高效管理信息、自动生成分析报告,并解决信息分散和处理效率低的问题。
Shandu 是一款利用大语言模型(LLM)和网络爬虫技术的开源工具,能够对任意主题进行全面研究,并自动生成包含完整引用的综合报告。它通过多搜索引擎和LLM的集成,支持深入迭代探索,省去繁琐的手动资料收集工作,适用于学术研究、市场情报、内容创作等多种场景。
这项新工作引入了注释链(CoN),以提高检索增强语言模型在面对嘈杂、不相关的文档和处理未知场景时的鲁棒性和可靠性。
RAG技术通过检索方法与深度学习结合,动态整合最新的外部信息,以提高大型语言模型生成文本的可靠性,并解决生成过程中可能出现的错误信息(幻觉)问题。
有关大型语言模型(LLM)约束解码的精选论文列表,包含相关代码和资源,旨在实现更可靠、可控和高效的文本生成。
SGLang是针对LLM推理的下一代界面和运行时环境,通过协同设计前端语言和后端运行时,极大改进了复杂LLM程序的执行和编程效率。
Jax GPT是对Karpathy的nanoGPT的重写,基于Jax和Flax框架构建,旨在提供高效的文本生成能力,支持快速训练和推理,具有易于扩展和修改的架构,能够充分利用高性能的并行计算。
一个基于Llama-70B的创新文本分块策略,针对RAG应用优化,使用中文字符'段'作为特殊标记,实现自动语义分块。
autollm是一个用于快速构建基于检索增强生成(RAG)技术的网页应用的框架,提供简化的API接口,支持多种后端数据源,并且易于扩展与定制,方便开发者快速搭建LLM驱动的应用程序。
实现了对大型语言模型输出的约束解码,支持多种格式的语法规则,并且具有高效的性能。该项目旨在提高语言模型的输出质量,确保生成文本符合特定的语法和结构要求,适用于多种自然语言处理任务。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型