AnyCores 是一个深度学习编译器,旨在通过优化深度神经网络的性能来降低计算成本,提供超过10倍的加速效果。
catgrad是一个基于范畴论的深度学习编译器,它不使用autograd进行训练,而是将模型的反向传播编译为静态代码。这意味着训练循环可以在不需要深度学习框架的情况下运行,甚至不需要catgrad本身。该项目支持多个编译目标,包括Python/numpy和C++/GGML等,从而提供更高的灵活性和性能。
RT-DETR(Real-time DEtection Transformer)是一种在速度和准确率方面均超越YOLO系列的先进物体检测模型,旨在提升计算机视觉任务的效率和效果。该模型采用高效的混合编码器和不确定性最小查询选择方法,支持灵活的速度调整和多尺度特征处理,在COCO数据集上表现出色。
LOMO是复旦大学提出的新论文,旨在使用单台8片24G的RTX 3090对Llama 65B模型进行全参数微调。该项目通过优化训练效率和性能,为用户提供了兼容多种深度学习框架的解决方案,并附带详细的实验结果和分析,帮助用户更好地理解模型的表现。