pip install flash_attn 报错

news2025/1/17 6:07:34

目录

    • 报错截图
    • 关键问题
    • nvcc -V 查看 cuda 版本
    • 查看 usr/local/cuda-* 安装的cuda版本
    • 设置 cuda-12.0 (添加入环境变量)
    • FlashAttention 安装成功

报错截图

ImportError: This modeling file requires the following packages that were not found in your environment: flash_attn. Run pip install flash_attn

在这里插入图片描述

关键问题

RuntimeError: FlashAttention is only supported on CUDA 11.6 and above. Note: make sure nvcc has a supported version by running nvcc -V.(FalshAttention库只支持cuda>=11.6的

nvcc -V 查看 cuda 版本

在这里插入图片描述

查看 usr/local/cuda-* 安装的cuda版本

使用的是远程服务器,个人账户没有权限安装新的cuda,考虑现成的
发现已有cuda-11.1和cuda-12.0两个版本

在这里插入图片描述

设置 cuda-12.0 (添加入环境变量)

export PATH=/usr/local/cuda-12.0/bin:$PATH

再次使用nvcc -V查看,版本已经更新

在这里插入图片描述

FlashAttention 安装成功

(llama) xucg@qaz:/data/home/xucg/Llama-Chinese$ pip install flash-attn
Collecting flash-attn
  Using cached flash_attn-2.5.8.tar.gz (2.5 MB)
  Preparing metadata (setup.py) ... done
Requirement already satisfied: torch in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from flash-attn                                                        ) (2.1.2)
Collecting einops (from flash-attn)
  Using cached einops-0.8.0-py3-none-any.whl.metadata (12 kB)
Requirement already satisfied: packaging in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from flash-                                                        attn) (24.0)
Requirement already satisfied: ninja in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from flash-attn                                                        ) (1.11.1.1)
Requirement already satisfied: filelock in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from torch->                                                        flash-attn) (3.14.0)
Requirement already satisfied: typing-extensions in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (fro                                                        m torch->flash-attn) (4.11.0)
Requirement already satisfied: sympy in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from torch->fla                                                        sh-attn) (1.12)
Requirement already satisfied: networkx in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from torch->                                                        flash-attn) (3.3)
Requirement already satisfied: jinja2 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from torch->fl                                                        ash-attn) (3.1.3)
Requirement already satisfied: fsspec in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from torch->fl                                                        ash-attn) (2024.3.1)
Requirement already satisfied: nvidia-cuda-nvrtc-cu12==12.1.105 in /home/xucg/anaconda3/envs/llama/lib/python3.10/sit                                                        e-packages (from torch->flash-attn) (12.1.105)
Requirement already satisfied: nvidia-cuda-runtime-cu12==12.1.105 in /home/xucg/anaconda3/envs/llama/lib/python3.10/s                                                        ite-packages (from torch->flash-attn) (12.1.105)
Requirement already satisfied: nvidia-cuda-cupti-cu12==12.1.105 in /home/xucg/anaconda3/envs/llama/lib/python3.10/sit                                                        e-packages (from torch->flash-attn) (12.1.105)
Requirement already satisfied: nvidia-cudnn-cu12==8.9.2.26 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-pac                                                        kages (from torch->flash-attn) (8.9.2.26)
Requirement already satisfied: nvidia-cublas-cu12==12.1.3.1 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-pa                                                        ckages (from torch->flash-attn) (12.1.3.1)
Requirement already satisfied: nvidia-cufft-cu12==11.0.2.54 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-pa                                                        ckages (from torch->flash-attn) (11.0.2.54)
Requirement already satisfied: nvidia-curand-cu12==10.3.2.106 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-                                                        packages (from torch->flash-attn) (10.3.2.106)
Requirement already satisfied: nvidia-cusolver-cu12==11.4.5.107 in /home/xucg/anaconda3/envs/llama/lib/python3.10/sit                                                        e-packages (from torch->flash-attn) (11.4.5.107)
Requirement already satisfied: nvidia-cusparse-cu12==12.1.0.106 in /home/xucg/anaconda3/envs/llama/lib/python3.10/sit                                                        e-packages (from torch->flash-attn) (12.1.0.106)
Requirement already satisfied: nvidia-nccl-cu12==2.18.1 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packag                                                        es (from torch->flash-attn) (2.18.1)
Requirement already satisfied: nvidia-nvtx-cu12==12.1.105 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-pack                                                        ages (from torch->flash-attn) (12.1.105)
Requirement already satisfied: triton==2.1.0 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from to                                                        rch->flash-attn) (2.1.0)
Requirement already satisfied: nvidia-nvjitlink-cu12 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages                                                         (from nvidia-cusolver-cu12==11.4.5.107->torch->flash-attn) (12.4.127)
Requirement already satisfied: MarkupSafe>=2.0 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from                                                         jinja2->torch->flash-attn) (2.1.5)
Requirement already satisfied: mpmath>=0.19 in /home/xucg/anaconda3/envs/llama/lib/python3.10/site-packages (from sym                                                        py->torch->flash-attn) (1.3.0)
Using cached einops-0.8.0-py3-none-any.whl (43 kB)
Building wheels for collected packages: flash-attn
  Building wheel for flash-attn (setup.py) ... done
  Created wheel for flash-attn: filename=flash_attn-2.5.8-cp310-cp310-linux_x86_64.whl size=120616671 sha256=1e782463                                                        ba32d2193924771c940805d74c365435d4142df18a261fc5a2fdff82
  Stored in directory: /home/xucg/.cache/pip/wheels/9b/5b/2b/dea8af4e954161c49ef1941938afcd91bb93689371ed12a226
Successfully built flash-attn
Installing collected packages: einops, flash-attn
Successfully installed einops-0.8.0 flash-attn-2.5.8

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1653572.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

OSPF Stub区域

原理概述 OSPF 协议定义了多种区域( Area )类型,其中比较常见的有 Stub 区域和 Totally Stub 区域。区域的类型决定了在这个区域当中所存在的 LSA 的类型。 Stub 区域不允许 Type-4和 Type-5 LSA 进入,该区域会通过 Type-3 LSA…

Elasticsearch中的三种分页策略深度解析:原理、使用及对比

码到三十五 : 个人主页 在Elasticsearch中,分页是查询操作中不可或缺的一部分。随着数据量的增长,如何高效地分页查询数据急需需要面对的问题。Elasticsearch提供了三种主要的分页方式:from size、scroll和search_after。下面详细…

【Kubernetes集群一主二从安装教程】

文章目录 环境准备主机间做信任安装ansible工具 升级内核版本使用elrepo源升级内核查看最新版内核安装最新的内核版本设置系统默认内核设置默认内核为我们刚才升级的内核版本 初始化关闭防火墙关闭selinux关闭swap修改主机名修改hosts文件将桥接的IPv4流量传递到iptables的链配…

谈谈IP地址

IP地址 IP地址概念动态分配 IP(DHCP)NAT机制(网络转换机制)IPv6 IP地址组成特殊的IP地址 IP地址 IP协议报文结构: 概念 IP地址: 描述了主机的具体位置.有32位,利用点分十进制的方式来表示.例如: 192.168.190.77 32位ip地址表示的数据非常有限,42亿九千万…, 那么ip地址不够用…

The Sandbox 案例|Web3 项目引领娱乐业的发展

Web3 如何通过 RZR 系列等项目开创娱乐新纪元。 我们已经看到技术和 Web3 如何颠覆金融和银行等行业,然而娱乐业在不断变化的环境中似乎发展滞后。传统的制片厂生态系统、高成本制作以及历史悠久的运作模式一直占据主导地位,而 Web3 项目的出现为创作者提…

数据结构学习/复习11--二叉树分治与递归思想练习题

一、二叉树相关练习题 1.判断单值二叉树 2. 判断两颗树是否相同 3.先序遍历的实现 注意事项:此处中的数组的下标用指针控制,因为受到递归与函数栈帧创建与销毁的影响。最后的返回值是指向前序遍历排好后的数组指针 4.判断一棵树是否是另一棵树的子树 …

​​​【收录 Hello 算法】第 4 章 数组与链表

第 4 章 数组与链表 数据结构的世界如同一堵厚实的砖墙。 数组的砖块整齐排列,逐个紧贴。链表的砖块分散各处,连接的藤蔓自由地穿梭于砖缝之间。 本章内容 4.1 数组4.2 链表4.3 列表4.4 内存与缓存 *4.5 小结

『MySQL 实战 45 讲』20 - 幻读是什么,幻读有什么问题?

幻读是什么,幻读有什么问题? 需求:创建一个小表 CREATE TABLE t (id int(11) NOT NULL,c int(11) DEFAULT NULL,d int(11) DEFAULT NULL,PRIMARY KEY (id),KEY c (c) ) ENGINEInnoDB;insert into t values(0,0,0),(5,5,5), (10,10,10),(15,…

深度解析互联网医疗源码:视频问诊APP开发技术剖析

视频问诊APP作为在线医疗其中的重要一环,正在改变人们就医的方式。今天,我将为大家详解互联网医疗源码,探讨视频问诊APP开发技术,揭示其背后的原理和关键技术。 一、视频问诊APP的基本功能 视频问诊APP作为一种新型的医疗服务平台…

栈和队列的4道面试题【详细解析】【代码实现】

栈和队列的面试题 1.有效的括号(栈实现) 题目: 有效的括号 给定一个只包括 (,),{,},[,] 的字符串 s ,判断字符串是否有效。 有效字符串需满足: 左括号必…

C++关键字、命名空间、输入输出

一、C C是在C的基础之上,容纳进去了面向对象编程思想,并增加了许多有用的库,以及编程范式等。 二、C关键字 C关键字有些是C语言中原带的,也有一些是C本身的关键字,对于这些关键字,大家只需在学习过程中去理…

2023年全国职业院校技能大赛(高职组)“云计算应用”赛项赛卷1(私有云)

#需要资源(软件包及镜像)或有问题的,可私聊博主!!! #需要资源(软件包及镜像)或有问题的,可私聊博主!!! #需要资源(软件包…

C++之泛型编程---有限双端队列结构容器

引言 为了解决工业领域代码容器的通用化,可以考虑C里的泛型编程概念。假设一个场景需要实时保存最近的n个数据并按照顺序依次处理时,就需要定义一种新的容器来满足要求。当容器不满时,添加数据直接到队尾,当容器数据已经为n个时&a…

onlyoffice容器打包成镜像

书接上篇,onlyoffice容器已经更改在本地docker环境中了,之后需要部署到测试环境的docker中,采用容器打包成本地镜像 1、本地docker 查看容器:docker ps 生成镜像:docker commit -p blissful_lichterman 重命名镜像&a…

博睿数据将出席ClickHouse Hangzhou User Group第1届 Meetup

2024年5月18日,博睿数据数智能力中心负责人李骅宸将受邀参加ClickHouse Hangzhou User Group第1届 Meetup活动,分享《ClickHouse在可观测性的应用实践和优化》的主题演讲。 在当前数字化浪潮下,数据的规模和复杂性不断攀升,如何高…

Sam Altman 在斯坦福大学演讲的 10 个要点

最近在斯坦福大学举行的问答环节中,OpenAI 富有远见的首席执行官 Sam Altman 分享了关于人工智能的未来及其对社会的潜在影响的宝贵见解。作为 GPT 和 DALL-E 等突破性人工智能模型背后的研究组织的联合创始人,Altman 的观点对于企业家、研究人员以及任何…

uniapp+vue基于移动端的药品进销存系统r275i

最后我们通过需求分析、测试调整,与药品进销存管理系统管理系统的实际需求相结合,设计实现了药品进销存管理系统管理系统。 系统功能需求包含业务需求、功能需求用户需求,系统功能需求分析是在了解用户习惯、开发人员技术和实力等各个因素的前…

蓝鹏在线测宽仪有多少个常用系列?

蓝鹏测控专注几何尺寸智能测量仪的生产,其产品线丰富多样,测量仪涵盖了外径、椭圆度、螺纹钢肋高、直线度、宽度、厚度、边长、长度等各类几何尺寸,在线测宽仪主要应用于板材类产品的宽度尺寸检测。 在线测宽仪硬件技术与软件技术相结合&am…

第1章. STM32单片机入门知识介绍

目录 0. 《STM32单片机自学教程》专栏 1.1 嵌入式系统简介 1.1.1 什么是嵌入式系统 1.1.2 嵌入式系统的特点 1.1.3 嵌入式系统的应用领域 1.2 单片机基本概念 1.3 ARM简介 1.3.1 ARM公司简介 1.3.2 ARM处理器简介 1.4 STM32简介 1.4.1 基于Cortex内核的MCU 1.4.…

解析直播美颜SDK:计算机视觉在实时视频中的应用

今天,小编将带大家深入探讨直播美颜SDK的原理、应用及其在实时视频中的重要性。 一、直播美颜SDK的原理 直播美颜SDK的核心原理是基于计算机视觉技术,通过识别人脸、肤色、眼睛、嘴巴等关键特征点,对视频图像进行实时处理。其主要包括以下几…