Ollama:本地部署大模型 + LobeChat:聊天界面 = 自己的ChatGPT

news2024/11/23 11:20:03

本地部署大模型

在本地部署大模型有多种方式,其中Ollama方式是最简单的,但是其也有一定的局限性,比如大模型没有其支持的GGUF二进制格式,就无法使用Ollama方式部署。

GGUF旨在实现快速加载和保存大语言模型,并易于阅读

Ollama 是一个用于部署和运行各种开源大模型的工具。用户通过执行几条命令就能在本地运行开源大模型,极大简化了大模型在本地运行,类似于Docker。

支持的操作系统: MacOS/Linux/Windows/Docker

第一步:安装(MacOS为例)

使用最简单的方式:使用brew install ollama安装。

第二步:验证(是否安装成功)

Termial上输入ollama -v 命令,如果出现如下图,则说明安装成功 image.png

其它大模型本地部署框架

GPT4ALL

gpt4all是一个免费使用、本地运行、具有隐私意识的聊天机器人,无需 GPU 或互联网。 可以在任意地方运行大模型的框架

A free-to-use, locally running, privacy-aware chatbot. No GPU or internet required. run open-source LLMs anywhere

OpenLLM

OpenLLM 是一个用于在生产环境中操作大型语言模型(LLM)的开放平台。它使开发人员能够轻松地运行任何开源LLM的推理,部署到云端或本地,并构建强大的AI应用程序。

安装大模型

image.png

说明:Ollama的运行会受到所使用模型大小的影响。留意个人电脑配置选择合适的模型

  • 运行一个7B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行13B(130亿参数)的模型需要16GB内存,33B(330亿参数)的模型需要32GB的内存
  • 需要考虑提供足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB磁盘空间。
  • 性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好的处理并行任务,选择具有足够的核数的CPU
  • GPU,Ollama支持纯CPU运行,但可以利用GPU进行加速,提高模型的运行速度和性能。

第二步:执行安装命令

打开 Terminal 执行 ollama run llava:7b 命令 image.png 至此成功在本地安装一个llava参数为7B的大模型,我们可以使用Spring AI 对接本地的大模型,再也不用担心Open AI Key的问题了。

LobeChat是现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架,支持语音合成、多模态、可扩展的插件系统。一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用。

LobeChat 支持多种平台的部署,我们选择最常用的Docker方式部署 image.png

第一步:Docker部署 (本地已部署跳过该步)

Docker在不同平台上简单的安装命令,根据自己操作系统进行选择;

  • MacOS: brew install docker
  • CentOS: yum install docker
  • Ubuntu: apt install docker.io

第二步:Docker上部署LobeChat

打开 Terminal 终端执行如下Docker命令,仅限使用本地Ollama;

docker run -d -p 3210:3210 --name lobe-chat lobehub/lobe-chat

image.png

第三步:查看界面效果

输入 localhost:3210 界面如下; image.png

第四步:配置LobeChat

当我们进去界面后,点击大脑图标,需要配置LobeChat使用的大模型。 image.png 然后点击前往设置进入进行设置界面,如下图所示; image.png

  1. LobeChat支持很多大模型,我们选择Ollama
  2. 点击获取模型列表,获取安装在Ollama上的模型,我已经安装了四个了
  3. 模型列表选择上需要的模型,然后返回聊天界面,然后在点击大脑图标就有刚才配置的模型,选择需要使用的大模型。 image.png

至此已成功安装了LobeChat界面程序,然后测试聊天,如下所示; image.png 至此我们成功部署了属于自己的ChatGPT。

其它 UI 框架

除 LobeChat UI 框架外,还有一些比较优秀的框架,具体如下

Open WebUI

Open WebUI 是一个可扩展、功能丰富且用户友好的开源自托管 AI 界面,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容的 API。

Enchanted

Enchanted 是一款专门为 MacOS/iOS/iPadOS 平台开发的应用程序,支持 Llama、Mistral、Vicuna、Starling 等多种私人托管模型。该应用致力于在苹果的全生态系统中为用户提供一个未经过滤、安全、保护隐私以及多模态的人工智能体验。

Chatbox

Chatbox 是一个老牌的跨平台开源客户端应用,基于 Tauri 开发,简洁易用。除了 Ollama 以外他还能够通过 API 提供另外几种流行大模型的支持。

NextJS Ollama LLM UI

NextJS Ollama LLM UI 是一款专为 Ollama 设计的极简主义用户界面。虽然关于本地部署的文档较为有限,但总体上安装过程并不复杂。该界面设计简洁美观,非常适合追求简约风格的用户。

总结

本篇文章介绍了本地大模型的部署和 LobeChat 界面的部署,成功在本地部署属于自己的ChatGPT。上面也只是关键步骤的说明,遇到问题多看下官方的安装文档。本文起到抛砖引玉作用。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.2.1 什么是Prompt
    • L2.2.2 Prompt框架应用现状
    • L2.2.3 基于GPTAS的Prompt框架
    • L2.2.4 Prompt框架与Thought
    • L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
    • L2.3.1 流水线工程的概念
    • L2.3.2 流水线工程的优点
    • L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.1.1 Agent模型框架的设计理念
    • L3.1.2 Agent模型框架的核心组件
    • L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
    • L3.2.1 MetaGPT的基本概念
    • L3.2.2 MetaGPT的工作原理
    • L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
    • L3.3.1 ChatGLM的特点
    • L3.3.2 ChatGLM的开发环境
    • L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
    • L3.4.1 LLAMA的特点
    • L3.4.2 LLAMA的开发环境
    • L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1831794.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

服务器新硬盘分区、格式化和挂载

文章目录 参考文献查看了一下起点现状分区(base) ~ sudo parted /dev/sdcmklabel gpt(设置分区类型)增加分区 格式化需要先退出quit(可以)(base) / sudo mkfs.xfs /dev/sdc/sdc1(失败)sudo mkfs.xfs /dev/s…

走近科学之《netty 的秘密》

Approaching science《the secret of netty》 IO 相关概念、五种 IO 模型、BIO NIO AIO 特点及区别、NIO 设计原理及核心组件、netty 简介及应用场景、netty 线程模型(Reactor 线程模型)、netty 设计原理及核心组件、netty 常用技巧实现(心跳…

数据结构进阶——AVL树

数据结构进阶——AVL树 0. 前言1. AVL树的概念2. AVL树节点,和树的定义3. AVL树的插入4. AVL树的旋转5. AVL树的验证6. AVL树的删除(了解)7. AVL树实现完整代码8. AVL树的性能 0. 前言 学习本章,需要大家先掌握搜索二叉树&#xf…

04 远程访问及控制

目录 4.1 SSH远程管理 4.1.1 配置OpenSSH服务器 1. 服务监听选项 2. 用户登录控制 3. 登录验证方式 4.1.2 使用SSH客户端程序 1. 命令程序ssh、scp、sftp 1. ssh远程登录 2. scp远程复制 3. sftp安全FTP 2. 图形工具Xshell 4.1.3 构建密钥对验证的SSH体系 1. 在客户端创建密钥…

Hive笔记-3

3.2.2 查看表 1) 展示所有表 (1) 语法: 语法: SHOW TABLES [IN database_name] LIKE [identifier_with_wildcards]; In database_name 写的是查哪个数据库,一般不写默认是当前数据库 Like 后面跟通配符表达式 (2) 案例: 查看在 db_hive1 数据库里有没有以 stu 开头的表 …

实用软件下载:UltraEditUEStudio最新安装包及详细安装教程

​UEStudio简介:UEStudio建立在上文本编辑器UltraEdit的功能基础上,并为团队和开发人员提供了其他功能,例如深度Git集成,您可以直接在UEStudio中克隆,签出,更新,提交,推入/拉入等操作…

FPGA - 滤波器 - IIR滤波器设计

一,IIR滤波器 在FPGA - 滤波器 - FIR滤波器设计中可知,数字滤波器是一个时域离散系统。任何一个时域离散系统都可以用一个N阶差分方程来表示,即: 式中,x(n)和y(n)分别是系统的输入序列和输出序列;aj和bi均为…

Sermant标签路由能力在同城双活场景的应用

作者:聂子雄 华为云高级软件工程师 摘要:目前应用上云已成为趋势,用户也对应用在云上的高可靠方案有更高追求,目前同城双活场景作为应用高可靠方案中的一种常见实践方案,对微服务流量提出了数据中心亲和性的要求&…

Java_JDK下载与环境变量配置

目录 一、JDK下载安装 二、安装后配置环境变量 三、在编辑器里使用JDK 一、JDK下载安装 JDK 是Java开发工具包,它提供了用于开发和运行Java程序所需的工具和库。JDK包括Java编译器、Java虚拟机、Java标准库等。在IDEA中使用Java语言编写代码时,需要安…

海康视觉算法平台VisionMaster 4.3.0 C# 二次开发01 加载方案并获取结果

前言 第一次使用海康视觉算法平台VisionMaster 4.3.0,项目中要使用这个平台进行视觉处理并获取结果。 运行效果 开发环境 C#, WPF, vs2022, 海康视觉算法平台VisionMaster 4.3.0 基本概念 上图这些.sol为后缀的是vm的方案文件。 打开方案文…

[element-ui]el-select多选选择器选中其中一个选项,不可删除

背景: 产品真的很多奇奇怪怪的需求,一边吐槽一边实现。 前提:选择器作为表格的筛选项,提供三个选项值。 要求:默认选中其中一个值,这个值不可删除。 如图: 小声吐槽:搞这些有什么…

LSS算法核心原理详细解读,一看就懂,不懂请打我!

目录 核心整体流程分步阐述backbone几何关系(创建视锥)和视锥投影到egoVoxel PoolingHead 总结 核心 将2D图像特征转换到BEV feature特征 该算法是BEV领域中的一大基石 整体流程 流程步骤 (1)利用backbone获得环视图像&#xf…

Vue路由讲解-05

这里的路由并不是指我们平时所说的硬件路由器,这里的路由就是SPA(single page application单页应用)的路径管理器。再通俗的说,vue-router就是WebApp的链接路径管理系统。 vue-router是Vue.js官方的路由插件,它和vue.j…

Vue48-ref属性

一、需求:操作DOM元素 1-1、使用原生的id属性 不太好! 1-2、使用 ref属性 原生HTML中,用id属性给元素打标识,vue里面用ref属性。 给哪个元素加了ref属性,vc实例对象就收集哪个元素!!&#xff0…

开放式耳机怎么挑选,个人经验总结快来看!

在选择开放式耳机时,了解一些关键的选购因素和推荐的品牌款式是非常有帮助的。这类耳机允许声音在耳机和外界之间自然流动,提供更自然的听觉体验。它们通常不会完全隔绝外界噪音,适合需要随时留意周围环境的人群,如运动爱好者或需…

AutoMQ 生态集成 CubeFS

CubeFS [1] 是新一代云原生存储产品,目前是云原生计算基金会 CNCF托管的孵化阶段开源项目, 兼容 S3、POSIX、HDFS 等多种访问协议,支持多副本与纠删码两种存储引擎,为用户提供多租户、 多 AZ 部署以及跨区域复制等多种特性&#x…

安徽保安员精选模拟试题(含答案)

1、风险管理的三要素是(),风险评价和风险控制。 A、频率分析 B、风险分析 C、风险转移 D、后果估计 答案:B 2、治安保卫重要部位是指由()确定的、关系本单位生产业务全局的部位和生产环节。 A、企事业重点单位 B、地方政府 C、企事业单位保卫协会 D、公安机关 …

垂直领域大模型微调最全指南

1.概述 一年来多以来,大语言模型发展和变化越来越快,总体呈现出模型尺寸越变越大,算力需求越来越多,模型推理要求越来越高的特点。在这种背景下,现在不同的人关于垂域 LLM 出现了一些争议,一部分人认为随着…

2024.618到底买什么数码值得?带你一起来看看!

在618期间,这些新品可能会有特别的优惠活动,包括但不限于折扣、满减、赠品等。因此,如果你正在寻找一款适合自己的数码产品,不妨关注各大电商平台的618促销活动,把握机会,以优惠的价格购买到心仪的产品。 …

Windows采用txt和bat来一次性建立多个文件夹

前言 最近工作需要一次性建立多个文件夹,方便保存不同的数据,所以在网上搜了搜方法,方法还挺多的,这里只是给出流程最简洁、最适合自己的方法,供自己日后回顾,如果大家想学习更多方法可以百度一下。 方法…