Ollama是一款开源工具,其目标是简化大语言模型在本地环境的部署和使用。它支持多种流行的开源大语言模型,如 Llama 2、Qwen2.5等。
通过Ollama,用户无需具备深厚的技术背景,就能在普通的消费级硬件上快速搭建一个强大的语言处理环境。也方便开发者将本地模型集成到各类应用程序中。因此可作为本地验证测试环境使用。下面以Windows为例说明部署流程和常用命令。
部署Ollama
部署Ollama比较方便。下载安装包后直接下一步安装。
在Windows环境部署
1、下载安装包,下载路径https://ollama.com/download/ 选择windows。
2、windows版安装时,默认会将下载的模型下载到C:\Users\XXX.ollama\models路径下。
可通过配置环境变量OLLAMA_MODELS,自定义模型保存的路径。
常用命令
拉取模型
ollama pull llama3.2
如果本地已有llama3.2模型,但Ollama远程已更新llama3.2模型,此命令会拉取最新的模型。
运行模型
ollama run llama3.2
删除模型
ollama rm llama3.2
查询模型信息
ollama show llama3.2
查询已拉取的模型列表
ollama list
查询当前加载的模型
ollama ps
停止已运行的模型
ollama stop llama3.2
退出对话框
/bye