install_flash_attn

2024-05-18

ubuntu安装flash_attn

安装 flash_attn 需要注意: * flash_sttn 依赖 cuda-11.6及以上的版本,使用命令 nvcc --version 查看 cuda 的版本,cuda下载地址 * 检查 pytorch 版本和 cuda 版本是否匹配 * 需要提前安装ninja,否则编译过程会持续很长时间,如果ninja已经安装完毕,可以直接执行pip install flash-attn --no-build-isolation 来安装 flash_attn * 即便是提前安装好了ninja,直接pip的话编译过程还是会超级慢,可以使用源码安装: bash git clone https://github.com/Dao-AILab/flash-attention.git cd flash-attention python3 setup.py install * 另外,目前原生的flash attention仅支持AmpereHopper等架构的GPU,例如:A100、H100等,V100属于Volta架构并不支持。