目录
前言
一、安装ollama
二、打开终端执行run
三、可视化
前言
小鲸鱼出来以后看到很多大佬本地部署AI,自己也想试一试,第一次部署AI,选了一个简单的办法,实践一下,写得比较粗糙。
一、安装ollama
先简单的介绍一下ollama:
Ollama 是一个开源的本地大语言模型运行框架,旨在简化大型语言模型(LLM)的本地部署和使用
我们可以用它来运行我们想要的大模型,关键是它开源,就用它吧。
ollama的下载可能会有点慢,我硬生生等了半天,但是安装会很快,因为c盘空间很充裕我就直接安装在c盘了。
打开官网,安装想要的版本:
直接download就好。
安装完后就直接install,默认安装在c盘,当然,我把它拖到了D盘:
二、打开终端执行run
用一个高级点的方法吧,徽标+R,输入amd,哈哈。
我们在ollama官网上点击models就可以看见deepseek-r1。
我们可以根据电脑的配置进行选择,我的电脑是华硕天选五,运行14b还行,但是运行32b直接卡住了。
复制里面的命令直接run就好(速度太慢就ctrlc,然后重新输入)
ollama run deepseek-r1:14b
这样就可以交互啦。
三、可视化
如果黑黑的不好看,可以用chatbox
搜索下载一个就行,可以直接改路径装在D盘。
装好后打开:
点击新建搭档
可以输入一些个性化的设定,接下来就是选择模型。(爆改为星见雅)
这里我们选择ollama API,实现运行本地的模型。
这里选择我们要用的下载好的模型。
然后就可以使用啦!
这是我的部署历程,可以部署一个来玩玩。