Ubuntu下python3.12安装, 分布式 LLM 推理 exo 安装调试过程, 运行自己的 AI 集群

news2024/9/27 19:26:24

创作不易 只因热爱!!

热衷分享,一起成长!

“你的鼓励就是我努力付出的动力”

—调试有点废,文章有点长,希望大家用心看完,肯定能学废,感谢.

1. Ubuntu下python3.12安装

1.1 导入 Python 的稳定版 PPA,不用编译
sudo add-apt-repository ppa:deadsnakes/ppa
sudo apt update
1.2 安装python3.12
sudo apt install python3.12 python3.12-venv python3.12-dev python3.12-distutils


# sudo apt install python3.12-full # 或可使用这个全安装
1.3 配置选择python3的使用,随时切换使用版本
ls /usr/bin/python*
root@lucky-ubuntu2204:~/pythonpro# ls /usr/bin/python*
/usr/bin/python3  /usr/bin/python3-config  /usr/bin/python3.12  /usr/bin/python3.10 
###如上结果显示有py3.10, py3.12.

sudo update-alternatives --list python3
sudo update-alternatives --install /usr/bin/python3 python3 /usr/bin/python3.12 1
sudo update-alternatives --install /usr/bin/python3 python3 /usr/bin/python3.10 2
sudo update-alternatives --config python3 #切换使用的版本,根据提示选择
python3 -V # 查看选择后的使用版本

切换python版本运行过程结果如下

root@lucky-ubuntu2204:~/pythonpro# sudo update-alternatives --list python3
update-alternatives: error: no alternatives for python3
root@lucky-ubuntu2204:~/pythonpro# sudo update-alternatives --install /usr/bin/python3 python3 /usr/bin/python3.12 1
update-alternatives: using /usr/bin/python3.12 to provide /usr/bin/python3 (python3) in auto mode
root@lucky-ubuntu2204:~/pythonpro# sudo update-alternatives --install /usr/bin/python3 python3 /usr/bin/python3.10 2
update-alternatives: using /usr/bin/python3.10 to provide /usr/bin/python3 (python3) in auto mode
root@lucky-ubuntu2204:~/pythonpro# sudo update-alternatives --config python3
There are 2 choices for the alternative python3 (providing /usr/bin/python3).

  Selection    Path                 Priority   Status
------------------------------------------------------------
* 0            /usr/bin/python3.10    2         auto mode
  1            /usr/bin/python3.12   1         manual mode
  2            /usr/bin/python3.10    2         manual mode

Press <enter> to keep the current choice[*], or type selection number: 1
update-alternatives: using /usr/bin/python3.12 to provide /usr/bin/python3 (python3) in manual mode
root@lucky-ubuntu2204:~/pythonpro# python3 -V
Python 3.12.4
1.4 pip3.12的安装
# sudo apt install python3-pip # 不推荐使用这个安装,会导致后续pip关联原有py3.10版本的程序

wget https://bootstrap.pypa.io/get-pip.py
python3 get-pip.py

同样查看本地的pip版本

ls /usr/bin/pip*

# 安装后本地没有,于是创建软链接
which pip # 找到pip安装后位置
ln -s /usr/local/bin/pip /usr/bin/pip
# 设置pip的国内访问镜像
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

Tips :过程可能有错误提示如下

ModuleNotFoundError: No module named 'apt_pkg'

No module named ‘apt_pkg’ 解决方法:

cd /usr/lib/python3/dist-packages
sudo cp apt_pkg.cpython-310-x86_64-linux-gnu.so apt_pkg.so

2. 安装调试使用,分布式推理exo

2.1.创建venv环境,激活环境安装exo
python3 -m venv .venva
source .venv/bin/activate
git clone https://github.com/exo-explore/exo.git
# git clone https://gitdl.cn/https://github.com/exo-explore/exo.git 
# git地址前加https://gitdl.cn/,这样的方法访问是加速git访问

cd exo
python3 -m pip install -e .

Tips: 如果报错tinygrad无法安装,可以先git安装tinygrad.

# python3 -m pip install tinygrad # 报错,github访问慢

cd .. #先返回上层目录
git clone https://gitdl.cn/https://github.com/tinygrad/tinygrad.git
cd tinygrad
python3 -m pip install -e .
cd ../exo #安装完返回exo目录
sudo vi setup.py # 编辑安装, 注释掉 tinygrad, 保存退出再安装
python3 -m pip install -e .
cd .. #返回上层目录
2.2.下载Meta-Llama-3-8B
# source .venv/bin/activate  # 重新激活环境,如已退出venv环境

export HF_ENDPOINT=https://hf-mirror.com
export HF_HUB_ENABLE_HF_TRANSFER=1
huggingface-cli download --local-dir-use-symlinks False --resume-download bofenghuang/Meta-Llama-3-8B --local-dir /root/.cache/tinygrad/downloads/llama3-8b-sfr

确认离线文件目录:
/root/.cache/tinygrad/downloads/
确认有llama3-8b-sfr文件夹:
/root/.cache/tinygrad/downloads/llama3-8b-sfr/
并且此llama3-8b-sfr内有以下文件:
model.safetensors.index.json,
llama3-8b-sfr/tokenizer.model,
llama3-8b-sfr/model-00001-of-00004.safetensors,
llama3-8b-sfr/model-00002-of-00004.safetensors,
llama3-8b-sfr/model-00003-of-00004.safetensors,
llama3-8b-sfr/model-00004-of-00004.safetensors

2.3.运行 exo 及调试
sudo apt install clang -y # 安装使用CPU推理
# source .venv/bin/activate  # 重新激活环境,如已退出venv环境
DEBUG=9 python3 exo/main.py

运行后如下图:
在这里插入图片描述

2.3.1 或使用huggingface.co的镜像站hf-mirror.com运行
HF_ENDPOINT=https://hf-mirror.com DEBUG=9 python3 exo/main.py
2.3.2 或使用离线模式运行
HF_HUB_OFFLINE=1 DEBUG=9 python3 exo/main.py

Tips: 本地运行, 修改路径下文件 exo/api/chatgpt.py

  .from_pretrained("/root/.cache/tinygrad/downloads/llama3-8b-sfr", local_files_only=True)
2.3.3 本地运行修改内容, 如图:

在这里插入图片描述

2.3.1 运行报错subprocess.CalledProcessError: clang

clang returned non-zero exit status 1.错误内容如下:

subprocess.CalledProcessError: Command '['clang', '-include', 'tgmath.h', '-shared', '-march=native', '-O2', '-Wall',
'-Werror', '-x', 'c', '-fPIC', '-', '-o', '/tmp/tmp920xv7jw']' returned non-zero exit status 1.

按Ctrl + C 手动终止运行
调试修改文件tinygrad/tinygrad/runtime/ops_clang.py运行后

vi tinygrad/tinygrad/runtime/ops_clang.py
######### 修改
# try:
#   subprocess.check_output(['clang', '-include', 'tgmath.h', ...
# except subprocess.CalledProcessError as e:
#   print(src)
#   print(e)
#########
HF_HUB_OFFLINE=1 DEBUG=9 python3 exo/main.py

调试ops_clang.py运行结果如下:
print(src)==>

void E_4194304_4(__fp16* restrict data0, const __bf16* restrict data1) {
for (int ridx0 = 0; ridx0 < 4194304; ridx0++) {
int alu0 = (ridx0*4);
int alu1 = (alu0+1);
int alu2 = (alu0+2);
int alu3 = (alu0+3);
__bf16 val0 = data1[alu1];
__bf16 val1 = data1[alu2];
__bf16 val2 = data1[alu3];
__bf16 val3 = data1[alu0];
data0[alu1] = (__fp16)(val0);
data0[alu2] = (__fp16)(val1);
data0[alu3] = (__fp16)(val2);
data0[alu0] = (__fp16)(val3);
}
}

print(e) ==>

 __bf16 is not supported on this target

按Ctrl + C 手动终止运行

定位到问题在这里

subprocess.check_output(['clang', '-include', 'tgmath.h', '-shared', '-march=native', '-O2', '-Wall', '-Werror', '-x', 'c', '-fPIC', '-o', '/tmp/tmp7weyfuio'], input=src.encode('utf-8'))

把以上src的内容存入 /tmp/tmp1234, 直接运行clang如下

root@lucky-ubuntu2204:~/pythonpro/exo/exo/inference# clang -include tgmath.h -shared -march=native -O2 -Wall -Werror -x c -fPIC -o /tmp/tmp4321 /tmp/tmp1234
/tmp/tmp1234:1:48: error: __bf16 is not supported on this target
void E_4194304_4(__fp16* restrict data0, const __bf16* restrict data1) { 
                                             ^/tmp/tmp1234:7:5: error: __bf16 is not supported on this target __bf16 val0 = data1[alu1];    ^/tmp/tmp1234:8:5: 
                                                error: __bf16 is not supported on this target    __bf16 val1 = data1[alu2];    ^/tmp/tmp1234:9:5: 
                                                error: __bf16 is not supported on this target    __bf16 val2 = data1[alu3];    ^/tmp/tmp1234:10:5: 
                                                error: __bf16 is not supported on this target    __bf16 val3 = data1[alu0];    ^/tmp/tmp1234:11:27: 
                                                error: cannot type-cast from __bf16    data0[alu1] = (__fp16)(val0);                          ^~~~~~/tmp/tmp1234:12:27: 
                                                error: cannot type-cast from __bf16    data0[alu2] = (__fp16)(val1);                          ^~~~~~/tmp/tmp1234:13:27: 
                                                error: cannot type-cast from __bf16    data0[alu3] = (__fp16)(val2);                          ^~~~~~/tmp/tmp1234:14:27: 
                                                error: cannot type-cast from __bf16    data0[alu0] = (__fp16)(val3);                          
^~~~~~9 errors generated.

### 找了一下原因,__bf16 is not supported on this target意思是###
### CPU太老了,需要支持AVX512才可以运行.CPU是i3-8100无法使用.###
### 于是更换安装显卡CUDA ###

2.3.2 ubuntu安装显卡CUDA驱动

也可以上官网https://developer.nvidia.com/cuda-toolkit-archive查找安装CUDA驱动.
在这里插入图片描述

sudo apt install nvidia-cuda-toolkit
nvcc --version # 安装完成,查看CUDA
root@lucky-ubuntu2204:~/pythonpro/exo# nvcc --version
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2021 NVIDIA Corporation
Built on Thu_Nov_18_09:45:30_PST_2021
Cuda compilation tools, release 11.5, V11.5.119
Build cuda_11.5.r11.5/compiler.30672275_0	

更换加速器可以在调试前写入

  HF_HUB_OFFLINE=1 CUDA=1 DEBUG=9   python3 exo/main.py
  HF_HUB_OFFLINE=1 GPU=1 DEBUG=9   python3 exo/main.py

tinygrad支持的加速如下

GPU (OpenCL) # sudo apt install opencl-headers ocl-icd-opencl-dev -y
CLANG (C Code) # sudo apt install clang -y #CPU,x86需支持AVX512
LLVM
METAL
CUDA # 安装CUDA驱动
AMD # amd_comgr
NV

在这里插入图片描述
在这里插入图片描述

!!!总之, 过旧的设备及CPU无法支持分布式 LLM 推理,如果拥有各种高端设备, 比如有以上加速器的各设备(iPad,Mac,较新的至强CPU电脑,有较显卡电脑,等等), 建立运行自己的 AI 集群才有可能.!!!

但行好事,莫问前程!

end

**你好呀,我是一个医信行业工程师,喜欢学习,喜欢搞机,喜欢各种捣,也会持续分享,如果喜欢我,那就关注我吧!**

往期精彩:
[AI]在家中使用日常设备运行您自己的 AI 集群.适用于移动、桌面和服务器的分布式 LLM 推理。
作者|医信工程师随笔|Carltiger_github

图片|自制|侵删

关注我,我们共同成长

“你的鼓励就是我分享的动力”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1975368.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

82.WEB渗透测试-信息收集-框架组件识别利用(6)

免责声明&#xff1a;内容仅供学习参考&#xff0c;请合法利用知识&#xff0c;禁止进行违法犯罪活动&#xff01; 内容参考于&#xff1a; 易锦网校会员专享课 上一个内容&#xff1a;81.WEB渗透测试-信息收集-框架组件识别利用&#xff08;5&#xff09; log4j/log4j2&…

《Excelize权威指南》新书发布

在数据洪流涌动的数字化时代&#xff0c;数据处理与分析已跃升为解锁无限洞察力的金钥匙&#xff0c;赋能商业智慧、重塑医疗健康版图、驱动教育科研创新。然而&#xff0c;当数据量级爆炸式增长&#xff0c;传统工具如 Excel 虽被誉为数据处理领域的常青树&#xff0c;其手动操…

modelsim仿真quartus IP

开发环境&#xff1a;quartus prime pro 20&#xff1b;modelsim se-64 10.6d 1. 生成Altera的IP库 使用quartus生成IP库&#xff0c;需要使用Simulation Library Compiler&#xff08;Tools->Launch Simulation Library Compiler&#xff09; 如下图操作&#xff0c;选择…

车载音频开发(一):从看懂wav开始

背景介绍&#xff1a;随着电车的发展势头迅猛&#xff0c;国内车载音频也成为电车火热宣称的势头&#xff0c;要想深入了解车载音频&#xff0c;那首先还是得从最为普通的音频文件WAV开始。 我们都知道&#xff0c;计算机只能存储数字&#xff0c;声音确实靠不同频率的波组成&a…

RabbitMQ的快速入门

目录 前言 1. 安装RabbitMQ 2.基本结构 3. RabbitMQ消息模型 ​​​​​​4. 入门案例 4.1 publisher实现 4.2 consumer实现 4.3 总结 前言 RabbitMQ是一套开源&#xff08;MPL&#xff09;的消息队列服务软件&#xff0c;是由 LShift 提供的一个 Advanced Message Q…

达梦数据库的系统视图v$cachesql

达梦数据库的系统视图v$cachesql 达梦数据库的系统视图V$CACHESQL的主要作用是提供缓冲区中SQL语句的信息&#xff0c;在 ini 参数 USE_PLN_POOL !0 时才统计。通过查询这个视图&#xff0c;用户可以了解SQL语句在缓冲区中的执行情况&#xff0c;包括SQL节点的类型、进入次数、…

滚珠丝杆与丝杆支撑座:稳定性与精度的双重保障

丝杆支撑座是连接滚珠丝杆与电机的轴承&#xff0c;采用优质的轴承能确保支撑座与滚珠丝杆之间的刚性平衡。那么&#xff0c;滚珠丝杆搭连接杆支撑座有哪些优缺点呢&#xff1f; 正常情况下&#xff0c;丝杆支撑座能够提供稳定的支撑力&#xff0c;确保滚珠丝杆在复杂工况下保持…

使用PasteSpider实现类似Jenkins的功能,让你的2G服务器也可以飞起

获取你接触过Jenkins&#xff0c;在我理解就是拉取源码&#xff0c;然后构建成镜像&#xff0c;最后启动容器&#xff01; 这个步骤你在PasteSpider上也可以实现&#xff0c;以下案例使用svn作为源码管理 如果你使用git作为源码管理&#xff0c;道理差不多 以我的代码为例 …

假期BUUCTF小练习3

文章目录 [极客大挑战 2019]BuyFlag[BJDCTF2020]Easy MD5[HCTF 2018]admin第一种方法 直接登录第二种方法 flack session伪造第三种方法Unicode欺骗 [MRCTF2020]你传你&#x1f40e;呢[护网杯 2018]easy_tornadoSSTI注入 [ZJCTF 2019]NiZhuanSiWei [极客大挑战 2019]BuyFlag 一…

好用的AI智能写作助手,创作者必备

随着科技的不断发展&#xff0c;人工智能&#xff08;AI&#xff09;在各个领域都起到了革命性的作用。在写作领域&#xff0c;AI智能写作助手已经成为了创作者们的必备工具。这些智能助手通过强大的自然语言处理能力和深度学习算法&#xff0c;能够帮助创作者们提高写作效率、…

网络安全领域含金量最高的5大赛事,每个网安人的梦!

做网络安全一定要知道的5大赛事&#xff0c;含金量贼高&#xff0c;如果你能拿奖&#xff0c;国内大厂随你挑&#xff0c;几乎是每个有志网安人的梦&#xff01; 一、 DEF CON CTF&#xff08;DEF CON Capture the Flag&#xff09; DEF CON CTF是DEF CON黑帽大会上的一项著名…

grep工具的使用

grep [options]…… pattern [file]…… 工作方式&#xff1a; grep 在一个或者多个文件中搜索字符串模板&#xff0c;如果模板中包括空格&#xff0c;需要使用引号引起来&#xff0c;模 板后的所有字符串会被看作是文件名。 工作结果&#xff1a;如果模板搜索成功&#xf…

算法力扣刷题记录 六十三【回溯章节开篇】

前言 开始回溯章节学习。 在二叉树中预先体会了回溯。那么回溯单独来说是怎么回事&#xff1f; 一、基础知识学习 回溯基础知识参考链接 二、组合问题 2.1题目阅读 给定两个整数 n 和 k&#xff0c;返回范围 [1, n] 中所有可能的 k 个数的组合。 你可以按 任何顺序 返回答…

C#--DirectShowLib 关闭自动白平衡和自动曝光时间

一、前言 因项目需要需关闭相机自身的自动白平衡和自动曝光时间&#xff0c;统统设定为恒定值&#xff0c;开始实验了opencvCvSharp&#xff0c;但是不起作用&#xff0c;故实验了更底层的 DirectShowLib &#xff0c;可成功关闭相机自带的自动白平衡和自动曝光时间&#xff0c…

用script实现的一个简易计算机

目录 一、计算器原理 二、源码 三、结果展示 四、不足与改进 一、计算器原理 首先我们列出想象中简易计算器的样子&#xff1a; 虽然画的磕碜但是应该不影响下面的操作hh 首先想到用表格形式在网页中表示它&#xff0c;是一个5行4列的表格&#xff0c;接着要实现计算器的…

ShardingSphere中的ShardingJDBC常见分片算法的实现

文章目录 ShardingJDBC快速入门修改雪花算法和分表策略核心概念分片算法简单INLINE分片算法STANDARD标准分片算法COMPLEX_INLINE复杂分片算法CLASS_BASED自定义分片算法HINT_INLINE强制分片算法 注意事项 ShardingJDBC Git地址 快速入门 现在我存在两个数据库&#xff0c;并…

【传知代码】Flan-T5 使用指南(论文复现)

当今&#xff0c;自然语言处理技术正在以前所未有的速度和精度发展。在这个领域中&#xff0c;Flan-T5作为一种新兴的预训练语言模型&#xff0c;正吸引着广泛的关注和应用。Flan-T5不仅仅是一个强大的文本生成工具&#xff0c;它还能通过提供高效的语义理解和多任务学习能力&a…

【java计算机毕设】智慧校园管理系统MySQL springboot vue HTML maven寒暑假小组设计项目源码作业带文档安装环境

目录 1项目功能 2项目介绍 3项目地址 1项目功能 【java计算机毕设】智慧校园管理系统MySQL springboot vue HTML maven寒暑假小组设计项目源码作业带文档安装环境 2项目介绍 系统功能&#xff1a; 智慧校园管理系统包括管理员、用户、老师三种角色。 管理员功能包括个人中心…

【2024最新华为OD-C/D卷试题汇总】[支持在线评测] 团队关系判定(100分) - 三语言AC题解(Python/Java/Cpp)

🍭 大家好这里是清隆学长 ,一枚热爱算法的程序员 ✨ 本系列打算持续跟新华为OD-C/D卷的三语言AC题解 💻 ACM金牌🏅️团队| 多次AK大厂笔试 | 编程一对一辅导 👏 感谢大家的订阅➕ 和 喜欢💗 🍿 最新华为OD机试D卷目录,全、新、准,题目覆盖率达 95% 以上,支持题…

大语言模型学习笔记 LangChain简述

一、简述 LangChain是一个由大型语言模型 (LLM) 驱动的应用程序开发框架。LangChain 旨在为开发人员提供一系列功能&#xff0c;利用大型语言模型简化应用程序的创建和管理。 LangChain 可充当几乎所有 LLM 的通用接口&#xff0c;提供集中式开发环境来构建 LLM 应用程序并将其…