micrograd是一个实现反向传播的自动梯度引擎,作为训练神经网络的核心代码,以其简洁和高效著称。它支持基本的神经网络操作和梯度下降,轻量级且易于集成到机器学习项目中。
LangPotato是一款浏览器扩展,通过将YouTube视频转化为互动式语言学习体验,提供双语字幕和测验等工具,适合所有水平的学习者。
Sensei AI 是一款基于人工智能的面试助手,能够在面试过程中实时监听音频,识别问题并提供结构化的回答。它通过浏览器运行,为用户提供实时转录和答案,帮助提升面试表现并有效准备不同类型的面试。
AIChineseName是一个基于人工智能的工具,根据用户的偏好和身份生成文化上地道的中文名字。用户只需输入自己的偏好,AI便会为其生成一个有意义的中文名字。该工具适用于个人和文化爱好者,也适合需要与中文文化产生共鸣的专业人士和企业。
Kinetix是一个用JAX编写的2D物理环境中的强化学习框架,能够统一表示多种基于物理的任务,通过生成数百万任务来训练大型通用强化学习代理。该框架提供高效的数值计算和自动微分功能,支持复杂的2D物理环境任务,并且具有灵活的API,方便用户自定义任务和代理。
letsqu.it 是一个基于人工智能的平台,旨在帮助用户戒掉吸烟、饮酒和过度使用社交媒体等不良习惯。它通过共情对话和认知行为技术,在整个戒断过程中提供个性化的指导和支持。
Light-R1是一个以不到1000美元的成本,从零开始训练出超越现有数学大模型的AI项目。它仅需6小时训练时间,并在AIME24等数学竞赛中超越了DeepSeek-R1-Distill-Qwen-32B。项目提供完整的训练数据和代码,帮助用户低成本复现AI模型。
Learn Copywriting 是一个在线平台,提供文案写作练习、反馈和社区竞赛。用户可以通过每日练习提升文案写作技能,并获得人工智能的评分和反馈。平台旨在帮助用户通过系统化的练习和竞争机制,持续提升写作水平。
Ai2 Scholar QA 是一个专为科学查询和文献综述设计的 RAG 系统。它通过从多篇文档中检索证据并合成组织良好的报告,帮助研究人员快速获取科学问题的有依据答案。系统结合了语义检索与关键词搜索的高效检索组件,采用三步式生成管道(引文提取、计划聚类、摘要生成),并基于 Claude 3.5 Sonnet 的 LLM 生成能力。其模块化架构支持自定义管道,并配备了详细的事件追踪和日志系统。
该项目专注于解释大型语言模型(LLM)中Token的计算方式,讨论向量数据库如何存储向量与文本的映射,并提供使用大模型API计算用户token使用量的方法。
赛博禅师是基于DeepSeek的哲理问答思维链多步推理工作流,旨在通过AI技术帮助用户深度思考人生问题。它能够通过多步推理层层剖析问题的本质,提供详细的推理过程,帮助用户理解复杂的哲学概念和思考路径。
本课程使用PyTorch Geometric,深入讲解图神经网络的深度学习技术,内容涵盖从基础架构到最新研究进展的全面知识,适合对图神经网络感兴趣的研究者和开发者。通过本课程,学员可以掌握图神经网络的核心概念和实践技能,并能够应用这些知识解决实际问题。
StableFace是一个基于Stable Diffusion 2.1技术的开源项目,旨在帮助用户构建自定义的人脸编辑应用程序。项目通过一系列Jupyter笔记本教程,详细讲解了Stable Diffusion的各个方面,包括采样、架构、CFG、注意力层、反向调度器、枢轴反转和图像重构等。此外,StableFace还支持prompt2prompt编辑技术,能够实现对现实世界人脸的高度逼真编辑。
Facebook提出的一种生成式推荐系统范式,完全摒弃了传统的数值特征,采用纯序列进行建模。其亮点在于序列建模的训练数据构造和模型结构设计,模型规模庞大,拥有万亿参数。
ILIAS是一个全新的大规模实例级图像检索基准,包含1000个物体实例,涵盖多样化场景。它提供了5947张图像和1000条文本查询,支持图像到图像和文本到图像检索,并配备1亿干扰项,以模拟真实的大规模检索场景。
苏黎世联邦理工学院的AI在科学与工程中的应用课程项目,涵盖从基础到前沿的AI技术,提供11个实用教程,课程视频和资料免费公开。
李沐的论文阅读项目通过中文精读AI、Transformer、GPT及深度学习领域的精华论文,帮助读者深入理解这些技术背后的原理和应用。项目涵盖了多个领域,适合初学者和进阶者,提供深入的论文解析和核心思想讲解。
该项目是一个高效LLM和多模态基础模型相关的论文资源列表,涵盖了大型语言模型(LLM)、视觉Transformer(ViT)、扩散模型以及基于LLM的多模态模型。这些资源详细展示了这些模型在机器学习生命周期的各个阶段,从训练到部署的应用与实现。
Email Sending MCP 是一个利用 Resend 的 API 实现的模型上下文协议(MCP)案例。它允许用户在 Cursor 或 Claude 上撰写完邮件内容后,直接一键发送邮件,无需手动复制粘贴内容。该项目简单易用,适合作为学习 MCP 的入门案例,同时也能有效简化邮件发送流程,提高工作效率。
Orion-14B 系列模型是一个具有140亿参数的多语种大模型,基于包含2.5万亿token的多样化数据集进行训练,涵盖中文、英语、日语、韩语等多种语言。该系列包括多种衍生模型,如对话模型、长文本模型、量化模型、RAG微调模型、Agent微调模型等,适用于多种自然语言处理任务。
Robopoker是一款用Rust编写的德州扑克AI工具,旨在帮助玩家学习、分析和解决无限制德州扑克问题。它基于蒙特卡洛反事实遗憾最小化算法,支持层级K均值聚类,能够高效处理复杂牌局,并且性能卓越,手牌评估速度远超传统算法。
Micrograd 是一个实现标量值自动梯度引擎的项目,专门用于训练神经网络。它通过构建计算图并应用链式法则反向遍历,以计算梯度并调整参数以减少损失。该项目代码简洁易懂,仅94行,适合学习和实验神经网络训练的核心概念。
Prompt Optimizer 是一个功能强大的提示词优化工具,旨在帮助用户通过多轮智能优化显著提升AI回复的准确度。该工具集成了OpenAI、Gemini、DeepSeek等主流AI模型,满足多样化的需求。所有数据处理均在客户端完成,确保数据安全无忧。用户可以通过Web应用或Chrome扩展程序进行提示词优化,支持实时测试和对比优化前后的效果,同时提供本地加密存储历史记录和API密钥的功能。
这是一个专注于人类中心基础模型(HcFM)的GitHub项目,旨在为人类感知、生成和Agent建模提供强大的模型支持。项目涵盖了四大类模型,包括感知、生成、统一建模和Agent建模,并收录了超过30篇前沿学术论文,为研究者提供了丰富的资源。此外,项目还提供了详细的分类和项目链接,方便用户快速上手和应用。
该项目致力于收集和整理基于扩散/流模型的神经采样器研究资料,为AI采样任务提供强大的工具支持。项目汇集了25篇最新前沿学术论文,涵盖了从基础理论到应用实践的各个方面,包括ICLR、NeurIPS等顶级会议的成果,具有极高的学术价值。此外,项目还提供了丰富的代码资源,帮助用户快速上手实践。
OpenThinker-32B 是基于 Qwen2.5-32B-Instruct 蒸馏出的新模型,使用 OpenThoughts-114k 数据集进行训练。该模型在 MATH500 数学测试中表现优异,得分达到 90.6 分,性能优于 OpenAI-o1-mini 和 DeepSeek-V3。
这是一个Chrome/Edge浏览器扩展,能够一键将arXiv论文转换为Markdown格式,支持公式、表格、图片和内部链接的转换,并提供自定义输出选项,如是否包含目录和参考文献,兼容arXiv论文的摘要、PDF和HTML版本,旨在提升学术研究效率。
nano-simsiam是一个极简的PyTorch实现的SimSiam自监督学习框架,仅用400行代码实现,基于ResNet50在ImageNet上达到良好性能。它支持分布式训练、实时KNN评估和自动混合精度训练,非常适合研究原型开发,代码简洁易于理解和修改。
微软全新推出的AI智能体入门基础课程,专为初学者设计,涵盖构建AI智能体的基础知识。课程共包含10个教学单元,每个单元专注于一个特定主题,并提供可运行的代码示例。课程支持多语言版本,包括中文翻译,方便全球学习者参与。此外,课程还提供额外学习资源的链接,并计划下个月发布配套视频,以进一步辅助学习。
Guide-GRPO项目旨在通过优化语言模型中的指令Token在推理链中,实现在消费级显卡上的内存高效训练(需24GB VRAM)。其核心价值在于通过引导词优化推理链条,提升模型的连贯性和准确性。该项目在初步实验中表现出色,具有广阔的应用前景。