AI-magic AI-magic AI-magic AI-magic
  • 热门推荐
  • AI工具导航
    • AI工具
    • AI对话工具
    • AI写作工具
    • AI提示工具
    • AI办公工具
    • AI图像工具
    • AI音频工具
    • AI视频工具
    • AI设计工具
    • AI编程工具
    • AI学习网站
    • AI开发框架
    • AI其他工具
  • 开源导航
    • AI开源项目
    • 开源项目
  • 工具站导航
  • AI教程
  • AI百科
  • AI书籍
  • AI资源
  • AI快讯
  • 网站提交
AI-magic AI-magic
  • 首页
  • 黑洞
  • 导航主题
  • 图标

    量化方法

    1.58-bit FLUX开源项目 – 高效文生图像量化模型
    1.58-bit FLUX开源项目 – 高效文生图像量化模型

    1.58-bit FLUX是字节跳动研究人员开发的一种创新的量化方法,旨在减少文生图像模型的内存占用和计算需求。该模型通过自监督信号进行量化,将权重压缩到1.58位,仅用{-1, 0, +1}三种值表示。尽管量化到如此低的位数,模型在生成1024 x 1024分辨率图像时,性能仍与未量化的模型基本一致。研究人员还开发了专用的计算内核,使得存储减少了7.7倍,推理内存减少了5.1倍,显著降低了对存储和内存的需求。该模型采用了后训练量化(PTQ)方法,无需在训练过程中进行繁琐的微调操作,直接对预训练好的模型进行量化处理,避免了重新训练带来的计算开销和时间消耗。

    0
    内存优化后训练量化文生图像模型量化方法
    transformer-tricks开源项目 – 优化Transformer显存使用
    transformer-tricks开源项目 – 优化Transformer显存使用

    该项目实现了论文 '在不损失准确性的情况下将上下文内存减半 — K-cache is all you need for MHA' 中的优化方法,通过数学方法完全消除了KV-Cache中的V-Cache,使用K-Cache通过计算来恢复V-Cache,从而减少显存使用。

    0
    flash attentionTransformer优化显存优化量化方法
    AI-magic AI-magic
    AI-magic收录了大量国内外AI工具箱,包括AI写作、图像、视频、音频、编程等各类AI工具,以及常用的AI学习、技术、和模型等信息,让你轻松加入人工智能浪潮。
    Copyright © 2025 AI-magic 浙ICP备19008543号-3 
    反馈
    让我们一起共建文明社区!您的反馈至关重要!