mlx-llm是基于苹果MLX框架的一个应用平台,旨在为用户提供一个运行和测试语言模型的环境。它支持多种语言模型,并提供交互式实验环境,使得机器学习实验和原型开发变得更加高效。用户可以轻松集成和扩展功能,进行模型输出的可视化和调试,满足各种实验需求。
开源的前端项目,旨在在浏览器中运行大型语言模型(LLM),通过 MLC-LLM 和 WebLLM Chat 实现,支持用户通过简单的界面与模型进行交互,无需复杂的配置或安装
NeMo-Skills是一个专注于提升大型语言模型在数学问题解决能力的项目,同时支持多种任务的优化和改进,利用深度学习技术增强模型表现,且为开源项目,便于社区贡献和扩展。
一款助力强化学习训练的可视化工具,能让训练过程更易懂、调试更轻松,就像给复杂的训练流程装上了一扇透明的观察窗
openagent是一个模块化组件库和编排框架,受到微服务方法的启发,为开发人员提供构建强大、稳定和可靠的人工智能应用程序和实验性自主智能体所需的所有组件。它支持易于扩展和维护的设计,提升了系统的可伸缩性,适用于构建复杂的AI应用和自主智能体。
AI Docs是一个平台,允许用户塑造和训练多个语言学习模型(LLM),以自动化各种任务。这些模型可以导出为API、Telegram机器人或WhatsApp机器人。用户可以使用提供的工具和资源创建和训练自己的LLM,指定所需功能并相应地训练模型。一旦训练完成,LLM可以被导出并集成到不同的应用程序或平台中。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
Terracotta是一个平台,使用户能够快速直观地实验大型语言模型(LLMs),支持模型管理、微调和评估。用户可以安全存储数据,针对分类和文本生成微调模型,并进行定性与定量比较。
LLM Comparator是一个交互式数据可视化工具,旨在并排评估和分析大型语言模型的响应,由PAIR团队开发。
JAX Synergistic Memory Inspector是一个用于检查JAX程序内存使用情况的工具,旨在优化性能。它可以帮助开发者识别内存瓶颈和低效之处,提供有关JAX张量的分配和释放的深入见解,能够与JAX工作流程无缝集成,并提供关于内存使用情况的详细报告和统计信息。
世界上第一个真正意义(字面上)的AI科学家,旨在全自动开放式的科学发现,包括构思、编写代码、运行实验、总结结果、撰写论文和进行同行评审。
pykan 是一个基于 Kolmogorov-Arnold 表示定理的 Python 库,旨在替代传统的多层感知器 (MLP),提供更高的模型准确性和可解释性。它特别针对科学研究优化,能够在物理和数学领域解决复杂问题,如识别相关特征、揭示模块结构、发现符号公式等。pykan 通过使用非线性边缘函数和样条函数参数化,能够表示更复杂的曲线并进行细致的调整,从而在数据拟合、PDE 求解等任务中表现出色。
Byterat 是一个专注于电池研究与工程的全端云平台,利用机器学习预测电池性能,并帮助数字化转型电池实验室。它自动化数据清洗,实时同步实验室数据,缩短从数据到洞察的时间,揭示电池设计与性能之间的隐藏模式,帮助用户提前预测实验结果。同时,Byterat 提供每个电池测试的完整审计记录。
ZodGPT是一个工具,利用OpenAI的新0613模型,通过函数调用返回结构化的、全类型化的JSON输出,方便开发者在类型安全的环境中处理数据。