astroNN是一个基于TensorFlow构建的深度学习库,专门为天文学家设计。它提供了丰富的预训练模型,适用于各种天文学任务,并支持高性能计算。astroNN还支持天文学数据的预处理和增强,易于集成到现有的天文学研究流程中,帮助天文学家更高效地处理和分析复杂的天文数据。
该项目是一份关于大语言模型复杂推理能力的深度调研报告,通过‘自我进化’的视角,探索如何让模型更聪明地思考和解决问题。报告涵盖了多种推理方法,提供了丰富的资源链接,并定期更新以紧跟最新研究动态。
Manifold 是一个与模型无关的可视化调试工具,适用于机器学习领域。它能够为任何机器学习模型提供视觉上的性能洞察,帮助用户更直观地理解模型的行为和预测结果。通过交互式探索和比较分析,Manifold 使开发者能够更有效地调试模型、比较多个模型的性能,并识别影响预测的重要特征。
LangGraph 101 是由 LangChain 团队设计的免费教程,旨在帮助用户掌握 LangGraph 框架,用于构建精确可控的 AI 智能体和多智能体应用。通过一系列笔记本教程,涵盖从基础到高级的 LangGraph 知识,并提供开源案例代码,便于快速上手实践。教程还包括环境搭建指南、集成 Azure OpenAI 方案,以及流式处理、断点和状态编辑等人机交互功能。
Lightning IR 是一个基于 PyTorch Lightning 的库,专门用于微调和运行基于 transformer 的语言模型进行信息检索任务。它提供了完整的解决方案,支持多种信息检索任务和数据集,简化了模型训练和推理过程,同时易于扩展和定制。
OWL(Optimized Workforce Learning)是一个基于 CAMEL-AI 框架构建的多智能体协作工具,旨在通过多代理交互完成复杂的现实任务,并在 GAIA 基准测试中排名第一。它支持多模态处理、浏览器操作、文件解析、代码执行等功能,并包含丰富的工具包,满足各类特定任务需求。
SuperCV的Book项目是一个个人书籍学习和收藏的GitHub仓库,包含了广泛的计算机科学和编程相关的书籍。项目涵盖了多个技术领域,如计算机视觉、量化分析、操作系统、人工智能、数据结构和算法、设计模式以及前端开发等,为用户提供了丰富的学习资源。
NeuralScaleID是一个基于约翰霍普金斯大学U. Sharma和J. Kaplan(2020年)研究的项目,旨在从数据流形维度的角度探索神经扩展规律。该项目深入研究了模型性能与数据复杂性之间的关系,并实现了研究论文中的理论发现,支持实验结果的复现。
node-question-answering是一个基于DistilBERT模型的问答引擎,使用Node.js和TensorFlow.js实现,提供高效的问答能力。它快速且适用于生产环境,便于在JavaScript环境中集成,易于部署和扩展,适合多种应用场景。
Autodidact是Matthew Johnson开发的一个教学性质的Autograd实现,旨在帮助用户理解和掌握自动微分的核心概念。该项目代码简洁明了,适合学习用途,能够处理基本的数学操作和函数,并深入揭示Autograd的内部工作原理。
TokenOCR是一款面向文档理解的文本图像基础模型,旨在让机器更好地‘读懂’图文内容。它通过首个token级别的图像文本数据集TokenIT,包含2000万图像和18亿token-mask对,提出首个token级别的文本图像基础模型,支持多种下游任务。基于TokenOCR构建的TokenVL模型,在文档视觉问答任务中表现卓越。
ARFS是一个模型无关的特征选择工具,旨在识别所有与预测相关的特征,包括冗余预测变量。它通过三种不同的方法(Leshy、BoostAGroota和GrootCV)实现特征选择,并与scikit-learn兼容,推荐使用lightGBM模型进行优化。
HAL是一个致敬HAL和费曼物理学讲义的GitHub项目,可能包含与物理学相关的代码或资源,适用于教育或学习目的,也可能涉及与HAL相关的技术或AI内容。
Super-Rag是一个高性能的RAG管道,专为AI应用设计,集成了摘要生成、检索/重排和代码解释器功能,通过简单的API提供服务。它支持多种文档格式和向量数据库,提供可定制的文档分割/分块功能,并允许使用多种模型(包括专有和开源模型)进行数据编码。此外,Super-Rag还内置了代码解释器模式,用于处理复杂的问答场景,并通过唯一ID进行会话管理以实现缓存。
TransMLA是一种将GQA(如LLaMA-3和Qwen-2.5)转化为更强大的MLA(多头潜在注意力)的方法,旨在复制R1能力并探索MoE、MTP、混合精度量化和训练/推理加速等先进技术。
Label Studio是一款功能强大的开源数据标注工具,支持文本、图像、音频、视频等多种数据类型。它结合主动学习策略,能够高效辅助人工完成标注任务,并提供可视化界面,易于使用。此外,Label Studio支持团队协作,提高大规模数据集的标注速度,并可与深度学习模型集成,实现智能标注和自动化数据处理。
Tiny-Universe 是一个从原理出发、以“白盒”为导向、围绕大模型全链路的“手搓”大模型指南。该项目旨在帮助有传统深度学习基础的读者从底层原理出发,纯手搓搭建一个清晰、可用的大模型系统,包括大模型本身、RAG 框架、Agent 系统及大模型评估体系。最近新增了从零开始pretrain Llama3部分。
icml16-dml 是一个专注于音乐音频深度流形学习的项目,通过深度学习方法进行音乐音频的流形学习,支持音乐音频特征提取与表示学习,提供高效的音频数据处理和模型训练工具,适用于音乐信息检索和音频分析任务。
LayoutLMv3是一款专门用于文档解析的AI模型,能够理解PDF、扫描件和复杂排版的文本结构。它结合视觉、文本和布局信息,能够高效解析表格、图表、公式等非结构化数据,适用于OCR增强、自动文档分类和信息提取等任务。
Duck.ai是由DuckDuckGo提供的免费且隐私保护的AI聊天服务,采用了先进的AI模型如GPT-4o mini、Llama 3.3和Claude 3 Haiku。该服务确保所有聊天内容匿名化,数据不会用于训练,强调用户隐私和保护。
VizierOSS是谷歌开发的一个开源黑箱优化服务,旨在帮助研究人员和开发者进行超参数调优和黑箱优化任务。它以在各种用户场景中的鲁棒性和多功能性而闻名。
Open Thoughts 是一个全开放的数据整理项目,专注于为思维模型构建推理数据集。其主要目标是通过整理推理数据集,训练出在数学和编程推理基准上超越 DeepSeek-R1-Distill-Qwen-32B 和 DeepSeek-R1-Distill-Qwen-7B 的小型推理模型。
OpenAI的项目,旨在探索如何利用较弱的AI模型(如GPT-2)来监督和改进更强的AI模型(如GPT-4),从而推动向超人类AI系统的发展。该项目通过弱模型监督强模型的方式,展示了弱模型在监督过程中也能获得更高的智能水平,并为AI模型的迭代改进提供了一个框架。项目开源代码库,鼓励社区参与和实验,支持研究弱到强的泛化问题,这是AI发展中的关键挑战。
FinancialVision 是一个专注于金融时间序列分析的项目,特别针对K线图进行深度学习和数据增强。它利用深度卷积神经网络进行K线模式识别,并通过模型可解释性提供金融预测的解释。项目设计用于高精度的金融时间序列预测,支持与各种金融数据集的集成。此外,它还包括先进的数据增强方法,开源并通过GitHub提供,便于社区贡献和使用。
few-shot是一个基于PyTorch实现的小样本学习机器学习项目仓库。它提供了一个模块化和可扩展的框架,支持多种小样本学习任务,如分类和回归。项目包含预训练模型和数据集,便于快速实验,并提供数据加载、预处理和评估的实用工具。
Oscar(Object-Semantics Aligned Pretraining)是一款能够根据图像内容生成精准文本描述的AI模型。它通过学习图像和文本之间的语义关系,能够理解图片中的对象、场景以及它们之间的关系,从而生成详细且符合语境的文字描述。Oscar不仅能进行图像描述,还可以用于视觉问答和跨模态检索,是跨领域图像与文本理解的有力工具。
PaperVision是一款用户友好的节点编辑器,灵感来源于Blender和Unreal Engine的蓝图系统,允许用户轻松创建自定义的OpenCV算法。通过直观的图形界面和实时预览功能,用户可以快速开发和实验图像处理算法,是学习和原型设计计算机视觉应用的理想工具。
CKIP-Llama-2-7b是一個基於Llama-2-7b和Atom-7b模型的繁體中文大型語言模型,專為提升繁體中文的處理能力而設計。該模型不僅繼承了Llama-2-7b和Atom-7b的強大功能,還針對繁體中文進行了優化,使其在處理繁體中文文本時表現更加出色。此外,該模型開源且商用友好,適合各種大型語言模型的應用場景。
R1-Omni是首个将强化学习应用于全模态大语言模型的情感识别项目,旨在提升情感识别的推理能力,并在分布外数据上表现卓越。它利用视觉和音频信息来识别情感,通过看视频来识别人的情绪,并生成详细且可解释的推理过程。
该项目是一个面向时间序列、时空和表格数据的扩散模型相关论文列表,涵盖了当前时间序列和时空数据的扩散模型资源,包括论文、应用、综述、调查等。项目持续更新,确保用户能够获取最新的研究动态和资源。