面对扩散模型推理速度慢、成本高的问题,HKUST& 北航 & 商汤提出了全新缓存加速方案—— HarmoniCa:训练 - 推理协同的特征缓存加速框架,突破 DiT 架构在部署端的速度瓶颈,成功实现高性能无损加速。
△HarmoniCa 整体压缩框架
由于现有指标并不能完全反映图像效果优劣,因此该团队研究人员提供了大量可视化效果对比图,更多对比请看原论文。
△PIXART- 图像生成效果图
该工作已被 ICML 2025 接收为 Poster,并开源项目代码。
Diffusion 加速难在哪?
Diffusion Transformer(DiT)作为高分辨率图像生成主力架构,在推理阶段仍面临「重复计算多」「耗时严重」的现实瓶颈。例如,使用 PIXART- α 生成一张 2048 × 2048 图像即需 14 秒,严重影响落地效率。
近期「特征缓存(Feature Caching)」成为加速新思路,但已有方法普遍存在两大关键问题:
前序时间步无感知:训练阶段忽略缓存历史,推理时则高度依赖先前结果,二者逻辑断裂;
训练目标错位:训练对准中间噪声误差,推理关注最终图像质量,优化方向南辕北辙;
这两大错配,导致已有缓存学习方法加速有限、图像失真明显。缓存机制的基本工作原理如下:
△缓存机制 HarmoniCa 缓存学习框架
一句话总结:目标一致、路径同步,训练与推理真正协同优化
该工作提出的 HarmoniCa 框架通过两个关键机制,从根本上解决了以往学习型特征缓存方法中的训练 - 推理脱节问题:
一、Step-Wise Denoising Training(SDT)
逐步去噪训练,模拟推理全流程,误差不再层层积累。
传统方法在训练时仅采样某个时间步,缓存是空的,完全跳过了"历史缓存影响",而推理时,缓存是从头累积的,训练和推理根本不是一回事。
进而该工作提出 SDT 来打破这一不一致:
1)构建完整的 T 步去噪过程,与推理一致;
2)教师 - 学生结构:学生使用缓存进行去噪,教师不使用缓存作为"理想输出";3)每一时间步的 Router 都被独立更新,显式对齐多轮缓存路径下的输出误差;4)学生模型每步将自己的输出作为下一个输入,使得误差传播机制贴近真实推理轨迹。
效果:SDT 显著降低了时间步间误差积累,提升最终图像清晰度与稳定性。
△SDT 有效抑制误差蔓延(红色为旧方法,蓝色为 SDT)二、Image Error Proxy Objective(IEPO)
一句话总结:不是"中间好",而是"最后图像好",优化目标就是结果本身。
以往方法训练时只对齐每一步的噪声误差,而推理的目标是最终图像质量,两者目标严重错配,导致缓存 Router 学出来"看似合理"但效果很差。
该工作提出 IEPO 机制,核心思想是:
通过代理项 λ ( t ) 来估算"使用缓存 vs 不使用缓存"在时间步 t 对最终图像 x ₀ 的影响;
越关键的时间步,其 λ ( t ) 越大,引导 Router 减少该步缓存复用,保留精度;
每隔若干轮重新生成一批图像,动态更新 λ ( t ) ,保证目标始终贴合训练状态。
IEPO 的优化目标为:
即在"图像质量"与"加速率"之间实现可控权衡。
实验结果
该工作在两个典型任务场景中验证了 HarmoniCa 的有效性:
分类条件生成(DiT-XL/2@ImageNet)
文本生成图像(PIXART- α @COCO,多分辨率)
对比方法包括当前最佳的缓存学习方法 Learning-to-Cache ( LTC ) 、启发式缓存方法 FORA / ∆ -DiT,以及多种加速器设置(DDIM 步数缩减、量化剪枝等)。
分类条件生成(DiT-XL/2 256 × 256)
重点结论:
在高压缩率场景(10 步推理)下,HarmoniCa 保持图像质量优势,FID 比 LTC 更低、IS 更高
同时达成更高缓存利用率,提升 实际加速效果
文本生成图像(PIXART- α 256 × 256)
即使在 2K 高分辨率下,HarmoniCa 仍保持 1.69 × 实际加速
在 CLIP 语义匹配、FID 等主流指标上均超过 FORA
量化 / 剪枝 VS HarmoniCa
除了与主流缓存方法的对比,该工作也评估了 HarmoniCa 相比剪枝和量化等压缩技术的表现。在统一的 20 步采样设置下,传统方案如 PTQ4DiT、EfficientDM 等虽然模型更小,但实际加速依赖硬件支持,特别是一些定制 CUDA 内核在 H800 等新架构上表现并不稳定。更重要的是,量化模型在小步数采样时往往精度下降严重,PTQ4DiT 就出现了明显的性能下滑。而 HarmoniCa 不依赖底层魔改,无需专用硬件,在各种主流采样器和设备上都能稳定提速,保持图像质量,是当前更通用、更稳妥的部署选择。
△与量化 / 剪枝方法的比较
与量化结合
该工作还验证了 HarmoniCa 与模型量化技术的高度兼容性。在 PIXART- α 256 × 256 场景下,将 HarmoniCa 应用于 4bit 量化模型(EfficientDM),推理速度从 1.18 × 提升至1.85 ×,FID 仅略增 0.12,几乎无感知差异。说明 HarmoniCa 不仅可独立提速,也能作为"加速插件"叠加于量化模型之上,进一步释放性能潜力。未来,该工作也计划探索其与剪枝、蒸馏等技术的组合能力,为 DiT 模型的轻量部署开辟更多可能。
△HarmoniCa 和量化方法的组合开销分析
除了推理提速和质量提升,HarmoniCa 在训练与推理开销上也展现出极强优势,是真正能用、敢用、易部署的工业级方案。
△训练开销对比
训练侧:
HarmoniCa 采用无需图像的训练策略,仅基于模型和噪声即可完成优化,不依赖任何额外数据。在同等训练轮次下,其训练时间比主流方案 LTC 缩短约 25%,显存占用相近,可在单卡稳定运行,适合闭源模型加速和快速迭代。
推理侧:
推理端新增 Router 极其轻量,参数仅占 0.03%,计算开销低于总 FLOPs 的 0.001%,几乎不影响吞吐。配合特征缓存,HarmoniCa 在 PIXART- α 上可实现理论加速比 2.07 ×、实测加速 1.69 ×,具备优越的部署效率与工程可行性。
总结:缓存加速的新范式,训练推理协同才是正解!
当前 Diffusion 加速路径中,缓存机制正逐渐成为主流方案,但传统做法要么依赖手工规则、要么训练目标错位,无法在真实部署中兼顾性能、效率、适应性。
该工作提出的 HarmoniCa 框架,首次通过:
SDT ——真实模拟推理轨迹,让缓存行为"可训练";
IEPO ——从结果出发优化目标,兼顾图像质量与加速比;
无图像训练 / 多模型适配 / 高分辨率通用,让部署更轻松;
在 PIXART、DiT、LFM 等多个模型上,HarmoniCa 都实现了更快的推理、更高的质量、更低的训练门槛,为缓存加速技术注入"可落地"的关键支撑。
论文地址:https://arxiv.org/abs/2410.01723
代码地址:https://github.com/ModelTC/HarmoniCa
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 点亮星标 � �
科技前沿进展每日见
炒股票加杠杆,金牌配资,闪牛配资提示:文章来自网络,不代表本站观点。