该论文打开了自注意力层如何组合输入token动态过程的黑盒子,并揭示了潜在的归纳偏见的性质。
用于LLM360评估和分析的代码库,包含了多种评估指标和分析方法,旨在帮助用户全面理解和优化模型表现。
赤兔量化注意力:专注于量化注意力机制的高效 GPU 实现库,旨在加速长序列数据的处理速度,并且与 Long-Context-Attention 库无缝集成
ComfyUI-HunyuanVideoWrapper 是一个用于在 ComfyUI 中集成腾讯混元视频生成模型的插件,支持文生视频(T2V)、图生视频和视频生视频(V2V)操作。它提供了修正版和量化版模型,确保更好的效果和性能,并兼容ComfyUI节点,易于集成和使用。此外,它还支持flash_attn和sageattn两种注意力机制,内存占用取决于分辨率和帧数,即使在低分辨率下也能生成高质量视频。
实现了用Numpy库构建全连接神经网络和基于注意机制的transformer模型的最小化版本,代码行数少于650行,是一份值得参考的简化神经网络实现案例
一个 Transformer 可视化交互式学习工具,通过输入文本实时观察各个组件如何处理,最终预测下一个 Token。