找一台还可以的Linux服务器,登录后执行:
curl -fsSL https://ollama.com/install.sh | sh
等待安装完成:
执行命令,根据服务器能力安装不同版本的AI模型:
ollama run llama3.2
下一步就开始对话吧:
llama3.2一点都不行呀
退出对话
Use Ctrl + d or /bye to exit.
DeepSeek会有很多版本,大家都可以尝试:
版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)
ollama run deepseek-r1:1.5b
版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要
4.7GB空余空间)
ollama run deepseek-r1:7b
版本:8b,(需要4.9GB空余空间)
ollama run deepseek-r1:8b
版本:14b,(需要9GB空余空间)
ollama run deepseek-r1:14b
版本:32b,(需要20GB空余空间)
ollama run deepseek-r1:32b
版本:70b,(需要43GB空余空间)
ollama run deepseek-r1:70b
版本:671b,(需要404GB空余空间)
ollama run deepseek-r1:671b
安装 deepseek-r1:7b,服务器空间算力够,就安装更大的版本:
操作ollama服务器命令
systemctl restart ollama
systemctl start ollama
systemctl stop ollama
systemctl status ollama
查看已安装的ollama列表
ollama list
配置外网可以访问:
关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
设置ollama配置文件
vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment=“PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin”
Environment=“OLLAMA_HOST=0.0.0.0:9999”
[Install]
WantedBy=default.target
新增 Environment=“OLLAMA_HOST=0.0.0.0:9999” 其中端口可以随便更改,默认11434
重新启动 ollama 服务器
见 操作ollama服务器命令
验证9999端口是否可用
端口验证
netstat -tuln | grep 9999
如上图即可
curl验证
curl http://192.168.1.63:9999
失败:curl: (7) Failed connect to 192.168.1.63:9999; Connection refused
成功:Ollama is running
telnet验证
telnet 192.168.1.63 9999