一种优化视觉语言提示上下文的方法,通过知识引导提升交互效果。
初步探索复现o1类多模态大型语言模型,旨在通过结合视觉和文本数据,提升模型的推理和理解能力,推动人工智能在复杂任务中的应用
这个开源项目是一个生成式AI模型优化赛的参赛方案,获得了天池NVIDIA TensorRT Hackathon 2023初赛的第三名。该项目的功能涉及到开源、机器学习等领域。
一套评估大语言模型AI研发能力的任务集合,包含7个具有挑战性的任务,涵盖Rust代码编程、GPT-2微调、嵌入修复、LLM训练优化、GPU内核优化等领域,每个任务都有明确的评分标准和基准分数,用于测试AI代理与人类专家的能力对比
该项目提供丰富的学习路线图和Colab笔记本,帮助用户从基础知识到前沿技术,逐步掌握大型语言模型(LLM)的构建与应用。课程内容涵盖数学、Python编程、神经网络核心知识,以及如何构建高性能模型和开发部署LLM应用。
Jan 是一个开源的 GPT 替代工具,支持在本地计算机上 100% 离线运行主流开源大语言模型,如 Mistral、Llama、Mixtral 等。它提供了一个高颜值且操作便捷的图形用户界面,用户无需编写代码即可轻松安装、管理和使用这些模型。Jan 兼容 Windows、Mac 和 Linux 系统,并支持多种硬件架构,包括 Nvidia GPU、Apple M 系列、Apple 英特尔、Linux Debian 和 Windows x64。此外,Jan 还支持与外部人工智能服务(如 ChatGPT 或 Google)的连接,并允许用户根据特定需求定制人工智能模型,将其集成到日常工具和应用程序中。
ExLlamaV2是一个高效的推理库,旨在让用户能够在现代消费级GPU上本地运行各种大型语言模型(LLMs),并优化内存使用,以实现快速推理。
这是一个基于Mojo编写的Llama 2实现,旨在显著提升推理速度,充分利用Mojo语言的优势,支持Llama 2模型,并采用优化的内存管理,便于在各种环境中使用。
该项目提供多种大语言模型微调数据集,旨在帮助用户训练和优化自己的ChatGPT模型,涵盖了多个领域和主题,资源易于访问和使用,适合研究和教育目的。
Reliable LLM是一个旨在缓解知识密集型任务中知识幻觉问题的框架,通过系统化收集关于LLM不确定性和置信度的研究,促进可靠AI的发展。
Agentic RAG 通过引入更高级别的自主性超越了传统的 RAG 系统,能够独立做出决策和采取行动,提供更细致入微的响应。
TypeAri是一个个人AI翻译工具,支持在任何在线文本框中翻译超过85种语言,同时帮助纠正语法和标点错误、重述句子、表达细微差别以及找到恰当的语气。
LongRoPE项目旨在将大型语言模型的上下文窗口扩展至超过200万Tokens,显著提升长文本处理能力,同时保持原始短上下文窗口的性能。它通过引入有效的搜索识别和位置插值,以及采用渐进扩展策略,在256k训练长度内仅需1k微调步骤,从而实现高效的模型训练与优化。