1. 前言
现在deepseek火上天了,因为各种应用场景,加上DeepSeek一直网络异常,所以本地部署Deepseek成为大家的另一种选择。
目前网络上面关于DeepSeek的部署方式有很多,但是太麻烦了,本文是一篇极为简单的DeepSeek本地部署方式,小白也能轻松掌握。(支持Windows,IOS等系统)
2.硬件要求
DeepSeek-r1有多种模型:1.5b、7b、8b、14b、32b、72b、671b。每种模型的容量和硬件要求都不相同。
数字越大,性能更强。671b的性能更好,数据更多,更加智能,1.5则比较差,根据自己的配置,选择对应的模型。
计算机硬件要求:
个人电能性能如果足够强,建议选择32B的模型就行,如果电脑性能很差,就选择1.5b
具体参考如下:
• 1.5B:CPU最低4核,内存8GB+,硬盘3GB+存储空间,显卡非必需,若GPU加速可选4GB+显存,适合低资源设备部署等场景。
• 7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存,可用于本地开发测试等场景。
• 8B:硬件需求与7B相近略高,适合需更高精度的轻量级任务。
• 14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存,可用于企业级复杂任务等场景。
• 32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存,适合高精度专业领域任务等场景。
• 70B:CPU 32核以上,内存128GB+,硬盘70GB+,显卡需多卡并行,适合科研机构等进行高复杂度生成任务等场景。
模型大小:
模型名称 | 模型大小 |
1.5B | 1.1GB |
7B | 4.7GB |
8B | 4.9GB |
14B | 9GB |
32B | 20GB |
72B | 43GB |
671B | 404GB |
3.安装Ollama
3.1 下载Ollama
下载地址:Download Ollama
2.2 安装Ollama
运行安装包,一步步往下走就行了
2.3 修改模型下载地址(可选)
使用Ollama下载DeepSeek模型,会将模型下载到C盘,而且模型一般比较大,很容易占满C盘
默认下载地址为:C:\Users\用户名\.ollama\models\manifests
所以我们可以自定义模型下载地址
step1:退出程序:
安装Ollama完成后,记得先退出Ollama,应用栏右键退出。
step2:配置下载路径:
我们可以通过修改环境变量,将模型地址变更到其他目录
打开系统环境变量,添加OLLAMA_MODELS,配置你想指定的地址,如图
4.安装DeepSeek-R1模型
启动Ollama程序
4.1 运行命令
deepseek-r1各模型安装命令:
模型名称 | 安装命令 |
1.5B | ollama run deepseek-r1:1.5b |
7B | ollama run deepseek-r1:7b |
8B | ollama run deepseek-r1:8b |
14B | ollama run deepseek-r1:14b |
32B | ollama run deepseek-r1:32b |
72B | ollama run deepseek-r1:72b |
671B | ollama run deepseek-r1:671b |
如有疑问,也可以去Ollama官网,查看:
地址:deepseek-r1:1.5b
4.2 下载模型
键盘按住WIN+R,打开cmd,执行安装命令,参考目录4.1,我这里安装的是1.5b的模型
ollama run deepseek-r1:1.5b
执行完成后,效果如下:(第一次会下载模型,比较慢,请耐心等待)
4.3 开始聊天
输入你想要说的话语,AI会给出回答,至此DeepSeek-r1模型本地部署完成
注意:
1. cmd进行AI聊天,每次都需要使用的模型,如:”ollama run deepseek-r1:1.5b“。如果你不想每次都输入命令,想简化操作,参考目录5.
2. 每次聊天,都需要先启动Ollama,不要忘了。
5 可视化界面安装(可选)
5.1 安装Page Assist插件
打开Chrome应用商店,输入Page Assist搜索,点击安装即可
如果你打不开谷歌应用商店,可以选择用百度搜索,或者使用下面的安装包安装
安装包地址:
链接: https://pan.baidu.com/s/1tQzuapjdOSvZEzDqkbxH6g?pwd=m8ev 提取码: m8ev
下载完成后,解压压缩包,打开谷歌浏览器,浏览器输入:chrome://extensions/
打开开发者模式,选择”加载已解压的扩展程序“,选择刚刚的解压后压缩包,即可安装
注:本地插件最好换一个路径保存,以免误删导致插件丢失,图片中放于桌面只是演示用。
5.2 配置插件语言
插件安装完成后,点击插件,会出现这样的可视化页面,页面会显示”Ollama is running “
如果没有显示,说明你没有启动Ollama,在程序列表点击Ollama运行即可,然后刷新页面。
点击”Seeting“配置语言和搜索引擎
5.3 选择模型,开始对话
点击”新聊天“
选择一个模型
注意,我们要是计算机性能够强,是可以安装多个模型的
开始对话
至此,可视化界面部署完成。