去flash attention官网下载安装包, 注意需要根据自己的torch版本,cuda版本(可以选择低于自己cuda版本的) 和python版本进行选择。
- 如果whl文件名上包含参数
abiTRUE,则会报错。需要安装包含abiFALSE的whl文件。
卸载:卸载原先报错的flash-attn
pip uninstall flash-attn
下载:选择abiFALSE版本.!!!!!!!!!!
wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.0.post2/flash_attn-2.7.0.post2+cu12torch2.2cxx11abiFALSE-cp39-cp39-linux_x86_64.whl
安装: 注意加 --no-build-isolation
pip install flash_attn-2.7.0.post2+cu12torch2.2cxx11abiFALSE-cp39-cp39-linux_x86_64.whl --no-build-isolation







![信奥赛CSP-J复赛集训(模拟算法专题)(6):P6352 [COCI 2007/2008 #3] CETIRI](https://i-blog.csdnimg.cn/direct/0f9b2d5cf4804886bce26e607a6f113c.png#pic_center)











