flash-attn: Python wheels for CUDA cu122 + torch2.4 + cxx11abiFALSE
flash_attn-2.5.9.post1+cu122torch2.4cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
flash_attn-2.5.9.post1+cu122torch2.4cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
flash_attn-2.5.9.post1+cu122torch2.4cxx11abiFALSE-cp312-cp312-linux_x86_64.whl
flash_attn-2.5.9.post1+cu122torch2.4cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
flash_attn-2.5.9.post1+cu122torch2.4cxx11abiFALSE-cp39-cp39-linux_x86_64.whl
flash_attn-2.6.0+cu122torch2.4cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
flash_attn-2.6.0+cu122torch2.4cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
flash_attn-2.6.0+cu122torch2.4cxx11abiFALSE-cp312-cp312-linux_x86_64.whl
flash_attn-2.6.0.post1+cu122torch2.4cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
flash_attn-2.6.0.post1+cu122torch2.4cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
flash_attn-2.6.0.post1+cu122torch2.4cxx11abiFALSE-cp312-cp312-linux_x86_64.whl
flash_attn-2.6.0.post1+cu122torch2.4cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
flash_attn-2.6.0.post1+cu122torch2.4cxx11abiFALSE-cp39-cp39-linux_x86_64.whl