零基础入门AI:一键本地运行各种开源大语言模型 - Ollama

news2024/11/14 4:09:29

什么是 Ollama?

Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模型的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。

不管是著名的羊驼系列,还是最新的AI新贵Mistral,等等各种开源大语言模型,都可以用Ollama实现一键安装并运行,支持的更多模型的列表可以查看Ollama官网。

ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral

本文就让我们一起入门Ollama。

如何安装 Ollama框架?

Ollama支持各个平台:Mac、Windows 和 Linux,也提供了docker image。 在Ollama官网或者Github可以下载,然后一键安装Ollama框架:

  • macOS
  • Windows
  • Linux: curl -fsSL https://ollama.com/install.sh | sh

由于Ollama刚支持windows不久,在windows上的相关配置还不够完善,以下我将主要以Linux上运行Ollama来举例说明。

运行 Ollama 服务

在Ollama安装完成后, 一般会自动启动 Ollama 服务,而且会自动设置为开机自启动。安装完成后,可以使用如下命令查看是否Ollama是否正常启动。如下例子中显示“Active: active (running)”表示Ollama已经正常启动。

$ systemctl status ollama
● ollama.service - Ollama Service
     Loaded: loaded (/etc/systemd/system/ollama.service; enabled; vendor preset: enabled)
    Drop-In: /etc/systemd/system/ollama.service.d
             └─environment.conf
     Active: active (running) since Thu 2024-03-07 09:09:39 HKT; 4 days ago
   Main PID: 19975 (ollama)
      Tasks: 29 (limit: 69456)
     Memory: 1.1G
        CPU: 14min 44.702s
     CGroup: /system.slice/ollama.service
             └─19975 /usr/local/bin/ollama serve

在Linux上,如果Ollama未启动,可以用如下命令启动 Ollama 服务:ollama serve,或者 sudo systemctl start ollama

通过分析Linux的安装脚本install.sh,就会看到其中已经将ollama serve配置为一个系统服务,所以可以使用systemctl来 start / stop ollama进程。

    status "Creating ollama systemd service..."
    cat <<EOF | $SUDO tee /etc/systemd/system/ollama.service >/dev/null
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=$BINDIR/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

启动Ollama服务后,可以查看当前的Ollama版本,以及常用命令

~$ ollama -v
ollama version is 0.1.20
~$ ollama --help
Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

如何下载并运行大语言模型?

至此,已经完成Ollama框架的安装,接下来,可以用一条命令在本地运行大语言模型。以著名的羊驼举例:ollama run llama2

如果还没有下载过指定的大语言模型,这条命令将会先执行ollama pull llama2,将大语言模型下载到本地,再在本地运行大语言模型。

下载完成后,运行效果如下:

:~$ ollama run llama2
>>> who are you?

I am LLaMA, an AI assistant developed by Meta AI that can understand and respond to human input in a conversational manner. I am trained on a massive dataset of text from the internet and can 
generate human-like responses to a wide range of topics and questions. I can be used to create chatbots, virtual assistants, and other applications that require natural language understanding and
generation capabilities.

>>> Send a message (/? for help)

REST API

Ollama还提供了API接口:

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt":"Why is the sky blue?",
  "stream": false
}'

返回结果如下:

{
    "model": "llama2",
    "created_at": "2024-02-26T04:35:10.787352404Z",
    "response": "The sky appears blue because of a phenomenon called Rayleigh scattering, which occurs when sunlight enters Earth's atmosphere. The sunlight encounters tiny molecules of gases such as nitrogen and oxygen, which scatter the light in all directions. The shorter wavelengths of light, such as blue and violet, are scattered more than the longer wavelengths, such as red and orange. This is known as Rayleigh scattering, named after Lord Rayleigh, who first described the phenomenon in the late 19th century. As a result of this scattering, the light that reaches our eyes from the sun appears blue, especially when viewed from a distance. The closer we get to the horizon, the more the blue color appears to fade, as the light has to travel through more of the atmosphere, which scatters the shorter wavelengths even more. It's worth noting that the exact shade of blue can vary depending on the time of day and atmospheric conditions. For example, during sunrise and sunset, when the sun is low in the sky, the sky can take on a more orange or red hue due to the scattering of light by atmospheric particles. So, to summarize, the sky appears blue because of the way light interacts with the tiny molecules of gases in Earth's atmosphere, particularly nitrogen and oxygen.",
    "done": true,
    "total_duration": 7001870820,
    "load_duration": 4930376,
    "prompt_eval_duration": 60907000,
    "eval_count": 309,
    "eval_duration": 6931593000
}

使用API接口,就可以实现更多灵活的功能,比如与IDE插件配合,实现本地的编程助手

FAQ

如何查看运行的日志?

在Linux上运行命令journalctl -u ollama,即可查看运行日志。

如何配置本地大模型对局域网提供服务?

在Linux上创建如下配置文件,并配置环境变量 OLLAMA_HOST 来指定对局域网提供服务的地址,再重启Ollama服务即可。

:~$ cat /etc/systemd/system/ollama.service.d/environment.conf
[Service]
Environment=OLLAMA_HOST=0.0.0.0:11434

如此配置后,即可由一台GPU服务器为本地局域网提供大语言模型的服务。

本地有多张GPU,如何用指定的GPU来运行Ollama?

在Linux上创建如下配置文件,并配置环境变量 CUDA_VISIBLE_DEVICES 来指定运行Ollama的GPU,再重启Ollama服务即可。

:~$ cat /etc/systemd/system/ollama.service.d/environment.conf
[Service]
Environment=CUDA_VISIBLE_DEVICES=1,2

下载的大模型存储在哪个路径?

默认情况下,不同操作系统存储的路径如下:

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users<username>.ollama\models

如何修改大模型存储的路径?

Linux平台安装Ollama时,默认安装时会创建用户ollama,再将模型文件存储到该用户的目录/usr/share/ollama/.ollama/models。但由于大模型文件往往特别大,有时需要将大模型文件存储到专门的数据盘,此时就需要修改大模型文件的存储路径。

官方提供的方法是设置环境变量“OLLAMA_MODELS”,但我在Linux上尝试后,并没有成功。

分析Linux版的安装脚本install.sh后,我发现是由于其中创建了用户ollama和用户组ollama,然后将大模型存储到了该用户的目录/usr/share/ollama/.ollama/models,而我的帐户对ollama帐户的一些操作并不能生效,即使我再手动将我的帐户添加进ollama用户组,也仍然会有一些权限问题,导致对ollama帐户的目录操作不生效。

由于新建的ollama帐户并没有给我带来额外的便利,最后我用以下步骤来实现修改大模型文件的存储路径:

  1. 修改安装文件 install.sh,取消其中创建用户ollama的步骤,参考如下:```

    if ! id ollama >/dev/null 2>&1; then

    # status "Creating ollama user..." 
    # $SUDO useradd -r -s /bin/false -m -d /usr/share/ollama ollama 
    

    fi

    status “Adding current user to ollama group…”

    $SUDO usermod -a -G ollama $(whoami)

    
    
  2. 修改安装文件 install.sh,使用我的帐户来启动ollama服务,参考如下:```
    status “Creating ollama systemd service…”
    cat <<EOF | $SUDO tee /etc/systemd/system/ollama.service >/dev/null
    [Unit]
    Description=Ollama Service
    After=network-online.target

    [Service]
    ExecStart=$BINDIR/ollama serve
    User=
    Group=

    
    
  3. 修改安装文件 install.sh,添加如下配置中指定环境变量OLLAMA_MODELS指定存储路径,再用此安装文件来安装ollama。```
    Environment=“OLLAMA_MODELS=/home/paco/lab/LLM/ollama/OLLAMA_MODELS”

    或者在安装完成后,创建如下配置文件,并配置环境变量`OLLAMA_MODELS`来指定存储路径,再重启Ollama服务。```
    :~$ cat /etc/systemd/system/ollama.service.d/environment.conf
    [Service]
    Environment=OLLAMA_MODELS=<path>/OLLAMA_MODELS
    
    
    

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1966529.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

程序员转行大模型:从代码到无限可能

在技术日新月异的时代背景下&#xff0c;许多程序员开始思考自己的职业发展路径。面对着人工智能与机器学习领域的迅速崛起&#xff0c;越来越多的技术人员将目光投向了更为广阔的天地——转行成为大模型研究者或开发者。这一转变不仅要求个人技能的迭代升级&#xff0c;更是一…

解锁开发新纪元:GPT-4o mini的实战探索与效率革命

&#x1f308;所属专栏&#xff1a;【其它】✨作者主页&#xff1a; Mr.Zwq✔️个人简介&#xff1a;一个正在努力学技术的Python领域创作者&#xff0c;擅长爬虫&#xff0c;逆向&#xff0c;全栈方向&#xff0c;专注基础和实战分享&#xff0c;欢迎咨询&#xff01; 您的点…

容器操作基础命令

文章目录 一、启动容器启动容器用法 二、查看容器状态三、容器相关操作删除容器容器的开启和停止进入容器attachexec 暴露容器的端口查看容器的日志传递运行命令容器内部的hosts文件指定容器的DNS容器内和宿主机之间复制文件 一、启动容器 容器的生命周期 docker run可以启动…

JavaEE---Spring MVC(1)

在这之前我们先启动spring 启动spring之前会遇到很多问题,在这里我遇到的问题是没法run,所以我主要是说一下没法run的情况下我们应该怎么办. question 方法一: 这个时候当我们idea的左侧有maven的时候,我们直接点击maven的刷新按钮即可 方法二: 没有maven的时候我们在idea中打开…

论文阅读 -《N-ary Relation Extraction using Graph State LSTM》

摘要 问题定义&#xff1a;跨句n元关系提取是在多个句子中检测n个实体间关系的自然语言处理任务。 现有方法&#xff1a;现有方法通常将文本构建成文档图&#xff0c;包括句子内部和跨句子的依赖关系。 最先进方法&#xff1a;最先进方法将文档图分割为两个有向无环图&#x…

x-cmd pkg | nvim - 命令行文本编辑器,Vim 的一个现代化分支

目录 简介快速入门功能特点Neovim 插件推荐相关竞品进一步阅读 简介 Neovim&#xff08;简称 nvim&#xff09;是用 C 语言开发的文本编辑器&#xff0c;是 Vim 的一个现代化分支&#xff0c;更专注于提升可扩展性和提供更现代的用户体验。 它是基于 Vim 源代码的一个衍生版本…

电商运营与大数据分析

电商运营与大数据分析&#xff0c;这两者如何相辅相成&#xff0c;助力企业在激烈的市场竞争中脱颖而出&#xff0c;我们一起来分析一下。 电商运营是指管理和优化电子商务平台的一系列活动&#xff0c;目标是提高销售额和客户满意度。这包括下面这些。 商品管理&#xff1a;有…

链路级资损防控之资损字段防控实践|得物技术

一、背景 资损防控是业务稳定性保障的重要一环&#xff0c;资损防控的核心主要有三点&#xff1a;事前规避、事中发现和事后应急。在资损事前规避方面&#xff0c;商家业务从业务场景入手&#xff0c;进行各业务模块的资损场景的梳理&#xff0c;将最容易出现资损的场景梳理出…

申请专利需要注意什么

申请专利需要注意什么 在知识经济时代&#xff0c;专利已成为企业保护创新成果、提升市场竞争力的重要手段。然而&#xff0c;申请专利并非一件简单的事情&#xff0c;它涉及多个环节和复杂的法律程序。 一、了解专利基础知识 首先&#xff0c;申请人需要学习和熟悉专利法及其实…

FinalShell安装配置及使用教程

文章目录 一、FinalShell简介二、安装下载 三、简单使用四、快捷键 一、FinalShell简介 FinalShell是一款由国内团队开发的免费软件&#xff0c;它不仅是一个SSH工具&#xff0c;更是一款一体化的服务器和网络管理软件。FinalShell以其丰富的功能和易用性&#xff0c;赢得了广大…

Python图形验证码的识别:一步步详解

在Web开发和自动化测试中&#xff0c;图形验证码的识别是一项常见且重要的任务。图形验证码作为防止自动化攻击的一种手段&#xff0c;通过随机生成包含字符或数字的图片来增加用户验证的难度。然而&#xff0c;对于需要自动化处理的场景&#xff0c;如Web自动化测试或爬虫&…

悍高集团销售费用居高不下:多起专利诉讼待解,实控人去年被限高消费

《港湾商业观察》施子夫 自2022年7月IPO获深交所主板受理至今&#xff0c;悍高集团股份有限公司&#xff08;以下简称&#xff0c;悍高集团&#xff09;的IPO进程已走过两年时间。 2022年12月&#xff0c;证监会下发反馈意见&#xff1b;2023年3月&#xff0c;深交所发出第一…

提升报价单质量的几个细节 | 全球贸易数据服务 | 箱讯科技

1、报价单的格式至少要两种 提供至少两种格式的报价单&#xff0c;第一种为Word文档&#xff0c;这是供客户修改使用的。但是由于Word文档版本的差别&#xff0c;可能打不开&#xff0c;所以还需提供一个PDF版本。 PDF版本比较正规&#xff0c;是标准的文书。最好再提供一个图…

可靠的图纸加密软件,七款图纸加密软件推荐

大家好啊,我是小固,今天跟大家聊聊图纸加密软件。 作为一名设计师,我深知保护自己的知识产权有多重要。曾经就因为图纸泄露,差点血本无归,那个教训可真是惨痛啊!所以我今天就给大家推荐几款靠谱的图纸加密软件,希望能帮到你们。 固信软件https://www.gooxion.com/ 首先要隆重…

学生信息管理系统(Python+PySimpleGUI+MySQL)

吐槽一下 经过一段时间学习pymysql的经历&#xff0c;我深刻的体会到了pymysql的不靠谱之处&#xff1b; 就是在使用int型传参&#xff0c;我写的sql语句中格式化%d了之后&#xff0c;我在要传入的数据传递的每一步的去强制转换了&#xff0c;但是他还是会报错&#xff0c;说我…

Java延迟任务

什么是延迟任务 我们把需要延迟执行的任务叫做延迟任务&#xff0c;比如业务中用户发送审配&#xff0c;过期后需要执行一些操作&#xff0c;网上订单未支付&#xff0c;红包过期取消等等。 Java API 实现延迟任务 ScheduledExecutorService实现延迟任务 public static voi…

Charles证书的设置抓HTTPS数据包

文章目录 1.安装软件2.安装证书3.配置SSL Proxying Settings4.配置Proxy Settings5.配置浏览器流量走代理模式6.抓包效果 每次换新工作都会重新安装/配置一次Charles抓包工具&#xff0c;每次都要倒腾很久&#xff0c;配置流程不复杂&#xff0c;就是时间一久容易忘记&#xff…

下发预警处理通知,记录处理意见;错误预警修正的智慧油站开源了

AI视频监控平台简介 AI视频监控平台是一款功能强大且简单易用的实时算法视频监控系统。它的愿景是最底层打通各大芯片厂商相互间的壁垒&#xff0c;省去繁琐重复的适配流程&#xff0c;实现芯片、算法、应用的全流程组合&#xff0c;从而大大减少企业级应用约95%的开发成本。用…

海康威视 Vision Master 深度学习模块

Vision Master 深度学习模块 1. 图像分割2. 字符训练3. 目标检测4. 图像分类、图像检索 1. 图像分割 2. 字符训练 3. 目标检测 4. 图像分类、图像检索

Zilliz Cloud✖️ Ivy.ai:构建 GenAI 驱动的聊天业务

“可靠性、可扩展性和性能都很棒。而且我们可以外包所有这些管理工作&#xff0c;不必担心服务器故障&#xff0c;这有助于我们将资源投入到产品开发和创新上&#xff0c;这真正使得我们的业务与众不同。” ——Michal Oglodek&#xff0c; Ivy.ai CTO 关于Ivy.ai Ivy.ai&am…