【深度学习】sdwebui A1111 加速方案对比,xformers vs Flash Attention 2

XD742971636 2024-08-14 16:33:01 阅读 82

文章目录

资料支撑

资料结论

sdwebui A1111 速度对比测试

sdxl

xformers 用contorlnet sdxl

sdpa(--opt-sdp-no-mem-attention) 用contorlnet sdxl

sdpa(--opt-sdp-attention) 用contorlnet sdxl

不用xformers或者sdpa ,用contorlnet sdxl

不用xformers或者sdpa 纯生图 sdxl

用sdpa 纯生图 不用contorlnet 生图时间

sd1.5

不用xformers或者sdpa sd1.5+hirefix2倍 纯生图512

用sdpa sd1.5+hirefix2倍 纯生图512

不用xformers或者sdpa sd1.5 纯生图512

用sdpa sd1.5 纯生图512

其他速度

结论

资料支撑

xformers中可以使用Flashv2

https://github.com/facebookresearch/xformers/issues/795

https://github.com/vllm-project/vllm/issues/485

https://github.com/facebookresearch/xformers/issues/832

PyTorch 支持 Flash Attention 2。

Flash Attention 2 是 Flash Attention 的改进版本,它提供了更高的性能和更好的并行性。它于 2023 年 11 月发布,并被集成到 PyTorch 2.2 中。

PyTorch 2.2 于 2024 年 2 月发布,它包含以下与 Flash Attention 2 相关的更新:

将 Flash Attention 内核更新到 v2 版本

支持 aarch64 平台上的 Flash Attention 2

修复了 Flash Attention 2 中的一些已知问题

要使用 Flash Attention 2,您需要安装 PyTorch 2.2 或更高版本。您还可以使用 torch.nn.functional.flash_attn() 函数显式调用 Flash Attention 2。

以下是一些有关如何使用 Flash Attention 2 的资源:

PyTorch 文档:https://discuss.pytorch.org/t/flash-attention/174955

Flash Attention 2 论文:https://arxiv.org/abs/2307.08691

Flash Attention 2 GitHub 存储库:https://github.com/Dao-AI



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。