俩种方式都可
一、linux通过docker安装ollama镜像
1.下载安装ollama镜像
# 安装 Docker
sudo yum install docker
sudo systemctl start docker
#docker查看所有容器
docker ps -a # 查看所有容器
# docker查看指定容器
docker ps -a |grep ollama
# 创建模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chmod -R 777 /data/ollama_models # 确保容器有写入权限
# 启动容器并挂载目录
docker run -d \
--name ollama \
-v /data/ollama_models:/root/.ollama \ # 将主机目录挂载到容器内
-p 11434:11434 \
ollama/ollama
#修改默认模型存储路径
如果不想挂载 /root/.ollama,可通过环境变量指定其他路径:
docker run -d \
--name ollama \
-v /custom/models:/data/ollama_models \ # 自定义挂载点
-e OLLAMA_MODELS=/data/ollama_models \ # 指定容器内路径
-p 11434:11434 \
ollama/ollama
# 停止容器
docker stop ollama
# 启动
docker start ollama
# 重启动
docker restart ollama
#如果ollama正在运行并且不需要ollama了,删除
docker stop ollama && docker rm ollama
2.检查目录挂载 (-v) 是否生效
#检查目录挂载 (-v) 是否生效
方法 1:使用 docker inspect 查看挂载信息
docker inspect ollama | grep -A 5 Mounts
方法2:
# 进入容器内部
docker exec -it ollama bash
# 查看目录是否存在
ls -l /data/ollama_models
# 尝试创建测试文件(验证写入权限)
touch /data/ollama_models/test.txt
exit
# 返回主机检查文件是否同步
ls -l /custom/models/test.txt
3. 检查环境变量 (-e
) 是否生效
方法 1:使用 docker inspect 查看环境变量
docker inspect ollama | grep -A 10 Env
预期输出
"Env": [
"OLLAMA_MODELS=/data/ollama_models",
"PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
]
方法 2:在容器内打印环境变量
docker exec -it ollama sh -c 'echo $OLLAMA_MODELS'
预期输出/data/ollama_models
4.下载大模型
进入容器内操作或直接通过 REST API 下载模型:
方法 1:进入容器内操作
大模型占用内存一般较高,最好查一下电脑配置是否能带动大模型
docker exec -it ollama ollama pull llama2 # 下载 llama2 模型
模型会自动保存到挂载的目录 /data/ollama_models
。
方法 2:通过主机直接调用
curl -X POST http://localhost:11434/api/pull -d '{"name": "llama2"}'
5. 验证模型下载
# 查看已下载模型
docker exec -it ollama ollama list
# 检查主机目录内容
ls /data/ollama_models/models
6. 运行模型
# 在容器内交互式运行
docker exec -it ollama ollama run llama2
# 通过 API 调用
curl http://localhost:11434/api/generate -d '{"model": "llama2", "prompt": "你好"}'
二、linux本地安装ollama
1. 下载并安装 Ollama
# 下载 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 启动 Ollama 服务
sudo systemctl enable ollama
sudo systemctl start ollama
#停止ollama服务
sudo systemctl stop ollama
2. 设置环境变量指定模型目录
默认情况下,Ollama 会将模型存储在 ~/.ollama
目录。要更改此位置:
# 创建新的模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chown -R $USER:$USER /data/ollama_models
# 设置环境变量(临时生效)
export OLLAMA_MODELS=/data/ollama_models
# 使环境变量永久生效
echo "export OLLAMA_MODELS=/data/ollama_models" >> ~/.bashrc
source ~/.bashrc
3. 重启 Ollama 服务使更改生效
sudo systemctl restart ollama
4. 验证安装并下载模型
# 检查服务状态
systemctl status ollama
# 下载模型(会自动保存到指定目录)
ollama pull llama2
# 运行模型
ollama run llama2
5. (可选) 修改 systemd 服务文件永久设置
如果通过环境变量不生效,可以修改服务文件:
sudo vi /etc/systemd/system/ollama.service
在 [Service] 部分添加:
Environment="OLLAMA_MODELS=/data/ollama_models"
然后重新加载并重启服务:
sudo systemctl daemon-reload
sudo systemctl restart ollama
6.查看ollama日志
1. 查看详细日志
首先获取更详细的错误信息:
sudo journalctl -u ollama -n 50 --no-pager
或直接运行 Ollama 查看输出:
sudo /usr/local/bin/ollama serve
7. 检查 ollama
用户是否存在
运行以下命令检查用户和组是否已创建:
id ollama # 检查用户是否存在
grep ollama /etc/group # 检查用户组是否存在
如果不存在,可以手动创建:
sudo useradd -r -s /bin/false ollama # 创建系统用户(无登录权限)
注意事项:
-
-
确保指定的目录有足够的存储空间
-
目录权限要正确,Ollama 进程需要有读写权限
-
不同版本的 Ollama 可能有不同的配置方式
-