TritonAcademy是一个旨在解析GPU内核语言的项目,通过提供高层次的抽象和详细的代码示例,使GPU编程变得更加简单易懂。项目不仅包含丰富的代码示例和注释,还深入探讨了反向传播的数学原理,帮助开发者更好地理解和实现GPU内核开发。
micrograd是一个实现反向传播的自动梯度引擎,作为训练神经网络的核心代码,以其简洁和高效著称。它支持基本的神经网络操作和梯度下降,轻量级且易于集成到机器学习项目中。
该项目一步步教你用Python实现一个语法风格类似于PyTorch的深度学习框架。本教程将使用Python的基础语法和NumPy来实现深度学习领域的一些基础算法,包括但不限于反向传播、随机梯度下降、Adam优化器、Dropout层等。本项目还会介绍如何实现包括CNN、RNN、LSTM、ResNet、Transformer等在内的模型。
该教程是连接基础微积分与深度学习实践的桥梁,适合希望摆脱“黑箱”使用框架、深入理解模型数学本质的开发者。
在APL语言中实现自回归transformer(如GPT2)的项目,支持反向传播和使用Adam优化算法进行训练,旨在结合高性能和简洁代码的优势。
开源深度学习平台
利用大型语言模型(LLM)作为数学问题的黑箱求解器,为数学问题提供自动化解决方案,探索数学与人工智能的结合
Self-Translate是一种技术,通过利用多语言语言模型的少样本翻译能力,能够有效地提高多语言语言模型的性能,克服对外部翻译系统的依赖,尤其在非英语输入场景下表现优越。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型