Mac 基于Ollama 本地部署DeepSeek离线模型

news2025/2/9 14:23:17

最近节日期间最火的除了《哪吒》就是deepseek了,毕竟又让西方各个层面都瑟瑟发抖的产品。DeepSeek凭借其强大的AI能力真的是在全球多个领域展现出强大的影响力。由于受到外部势力的恶意攻击倒是deepseek官方服务不稳定,国内其他厂家的适配版本也不是很稳定,所以在自己电脑部署一个本地离线模型就可以解决很大问题。本文我们介绍基于ollama的Mac Arm系统详细部署。

一、DeepSeek介绍

DeepSeek的应用现在全球下载榜单登顶,流量巨大。国内网都在讨论和使用,朋友圈充斥着各种关于deepseek的新闻,先一起来看看deepseek最近发生了什么:

  • 澳大利亚发布禁令:当地时间2025年2月4日,澳大利亚内政部长托尼·伯克签署“强制性指令”,以国家安全为由,禁止在政府系统和设备上使用DeepSeek产品、应用程序和网络服务,要求政府部门和机构尽快向内政部报告,确保DeepSeek不会残留在任何设备上,且禁止重新安装。
  • 美国相关法案及举措:美国国会提出《2025年美国人工智能能力与中国脱钩法案》,若通过,任何美国人使用DeepSeek等中国AI模型,个人最高面临20年监禁和100万美元罚款,企业罚款1亿美元并支付3倍赔偿金。美国德克萨斯州已率先禁止政府设备使用DeepSeek,NASA、国防部等联邦机构也紧急封杀相关产品。
    下面是各个厂商对deepseek模型的适配情况:
  • 百度智能云:2月3日,百度智能云千帆平台正式上架DeepSeek - R1和DeepSeek - V3模型,推出超低价格方案,用户可享受限时免费服务。
  • 阿里云:2月3日,阿里云PAI Model Gallery支持云上一键部署DeepSeek - V3、DeepSeek - R1,用户可零代码实现从训练到部署再到推理的全过程。
  • 华为云:2月1日,华为云与硅基流动团队联合首发并上线基于华为云昇腾云服务的DeepSeek R1/V3推理服务。
  • 腾讯云:2月2日,DeepSeek - R1大模型一键部署至腾讯云HAI上,开发者仅需3分钟即可接入调用。2月4日,腾讯云TI平台推出“开发者大礼包”,DeepSeek全系模型一键部署,部分模型限免体验。
  • 京东云:2月5日,京东云正式上线DeepSeek - R1和DeepSeek - V3模型,支持公有云在线部署、专混私有化实例部署两种模式。
  • 其他平台:360数字安全、云轴科技、天翼云等平台也先后宣布对DeepSeek模型的支持。
  • 英伟达:北京时间1月31日,英伟达宣布DeepSeek - R1模型登陆NVIDIA NIM,称DeepSeek - R1是最先进的大语言模型。
  • 亚马逊:1月31日,亚马逊宣布DeepSeek - R1模型已可以在Amazon Web Services上使用,其首席执行官安迪·贾西告诉用户“尽管用”。
  • 微软:1月31日,微软接入了DeepSeek - R1模型。

大过年的不放假只是为了这波流量吗?先看看这波流量有多香:
根据市场分析公司 Appfigures 数据 (不包括中国第三方应用商店),1 月 26 日,DeepSeek 首次登上苹果 App Store 下载量榜首,并一直保持全球领先地位,Sensor Tower 研究显示,1 月 28 日起,DeepSeek 在美国谷歌 Play Store 也位居榜首。自 1 月 20 日 DeepSeek - R1 模型正式发布后,其 APP 在短短 18 天内,全球下载量突破 1600 万次,成功登顶 140 个国家和地区的下载榜首,这一数字几乎是竞争对手 OpenAI 的 ChatGPT 在同期下载量的两倍。其中印度成为 DeepSeek 最大的用户来源国,自推出以来,印度用户下载量占所有平台下载总量的 15.6%。

从日活数据来看,根据国内 AI 产品榜统计,DeepSeek 应用上线 20 天,日活就突破了 2000 万,并且 DeepSeek 应用 (不包含网站数据) 上线 5 天日活就已超过 ChatGPT 上线同期日活,成为全球增速最快的 AI 应用 ,日活数量的快速增长,充分印证了 DeepSeek 对 C 端用户广泛的吸引力。

除了流量,我们在看看deepseek r1的真正实力:
在训练和推理成本方面:

  • 总体耗资低:DeepSeek R1 的训练仅耗资 550 万美元左右,而与之性能相似的 OpenAI 的模型,据传训练成本约为 5 亿美元。
  • 推理成本优势明显:DeepSeek R1 输入 Tokens 每 100 万个为 0.55 美元,输出 Tokens 每 100 万个为 2.19 美元。相比之下,OpenAI 的 O1 输入 Tokens 每 100 万个为 15 美元,输出 Tokens 每 100 万个为 60 美元。

此外deepseek还有以下特色能力:

  • 强大的推理能力
    • 支持长链推理:能够生成数万字的思维链,在处理复杂任务时,可显著提高推理准确性。
    • 自我验证与反思:通过强化学习训练,模型能够自主发展包括自我验证、反思等高级认知功能。
  • 多语言支持:基于混合专家架构(Mixture of Experts, MoE),可支持多种语言和技术领域,能对不同语言的问题生成相应语言的回答。
  • 高效部署与成本效益:运行成本仅为 OpenAI 的 3% 左右,还提供了 API 服务,降低了企业用户的使用门槛。
  • 创新训练策略
    • 多阶段渐进训练:训练过程分为预备阶段、冷启动微调、纯强化学习、数据合成与筛选、二次微调(SFT)以及后续强化学习优化等几个阶段,避免一次性训练的灾难性遗忘,逐步强化不同能力。
    • 混合奖励机制:结合任务结果验证与人类偏好,在强化学习阶段设计了准确性奖励、格式奖励等,还引入了模型基于奖励、语言一致性奖励等,平衡性能与安全性。
  • 海量参数与选择性激活
    • 海量参数:DeepSeek R1 共有 6710 亿个参数,由多个专家网络组成。
    • 选择性激活:每次只使用 6710 亿个参数中的 370 亿个,确保模型只使用任务所需的参数,优化计算效率。

二、Ollama介绍

Ollama 作为一款新兴的开源大型语言模型服务工具,在人工智能领域迅速崭露头角,为用户带来了全新的本地化模型部署体验。

功能概述

Ollama 本质上是一个致力于简化本地运行大语言模型流程的工具。它通过提供统一的接口和便捷的操作方式,让用户能够轻松地在自己的设备上部署和使用各种不同的大语言模型,而无需复杂的配置和专业的技术知识。其核心功能在于打破了模型部署的技术壁垒,使得更多人能够享受到本地化大语言模型的优势。

核心特点
  1. 本地部署:最显著的特点之一就是支持本地部署,用户无需依赖网络连接到外部服务器,所有的模型计算和数据处理都在本地设备上完成,这极大地保障了数据的隐私和安全性 ,不用担心数据泄露风险。
  2. 多系统支持:具备出色的兼容性,无论是 Mac、Linux 还是 Windows 操作系统,都能无缝适配。这意味着不同系统偏好的用户都能利用 Ollama 实现自己的模型部署需求。
  3. 多模型支持:Ollama 对多种流行的大语言模型提供支持,涵盖了 Llama、Falcon、Qwen2、Llama3、Phi3、Gemma2 等,当然也包括我们即将部署的 DeepSeek 模型。用户可以根据实际需求,一键切换不同的模型,灵活选择最适合自己任务的模型。
  4. 易用性:采用直观的命令行界面,操作流程简洁明了,即使是初次接触大语言模型部署的新手,也能快速上手,轻松完成模型的下载、部署和使用。
  5. 可扩展性:允许用户根据自身的硬件环境和具体的模型需求进行自定义配置,以达到最佳的性能表现。同时,还支持安装插件来拓展新的功能,满足不同用户的个性化需求。
  6. 开源免费:完全开源的特性,让用户能够自由地查看、修改和分发代码,不仅降低了使用成本,还促进了全球开发者社区的共同协作和创新。
  7. API 支持:提供简洁易用的 API,开发者可以通过该 API 轻松地创建、运行和管理大型语言模型实例,方便将模型集成到各种应用程序中,拓展了模型的应用场景。
  8. 预构建模型库:内置了一系列预先训练好的大型语言模型,用户无需从头开始训练模型,直接从预构建模型库中选择合适的模型,即可快速应用到自己的项目中,大大节省了时间和资源。
技术规格
  1. 模型规格:提供了多种不同参数量的模型选择,如 7b、14b、34b 等。一般来说,参数量越大的模型,其性能和处理复杂任务的能力越强,但同时对硬件的要求也更高。
  2. token 机制:在处理文本时,采用 token 机制。对于中文,大约 1 - 2 个字符对应一个 token;英文则约 4 个字符对应一个 token;而对于代码,会按照语法规则进行切分。
  3. 性能指标:在 CPU 模式下,处理速度大约为 5 - 20 tokens/s,内存占用相对较低,适合个人进行简单的测试和初步使用;在 GPU 模式下,处理速度能提升至 50 - 200+ tokens/s,内存占用较高,但性能强劲,更适用于对性能要求较高的生产环境。
  4. 系统要求:硬件方面,CPU 需要 4 核及以上,架构为 x86_64;内存最低要求 16GB,推荐 32GB 以上的 DDR4 及以上规格;存储最低需要 30GB,推荐 50GB 以上的 SSD。若使用 GPU,显存需 8GB 及以上,NVIDIA 显卡优先。软件方面,支持 macOS 12.0+、Linux(Ubuntu 20.04+)、Windows 10/11 操作系统。
部署指南
  1. macOS 安装:用户可直接访问 ollama 官网,在网站上找到专门为 Mac 设计的安装包下载链接,下载完成后,双击安装包,按照安装向导的提示,一步步点击 “继续”“同意” 等按钮,即可轻松完成安装。安装完成后,通过在终端输入ollama serve命令,启动服务。
  2. Linux 安装:可以采用快速安装方式,在终端执行命令curl -fsSL https://ollama.com/install.sh | sh;也可以使用 apt 安装(适用于 ubuntu/debian 系统),执行相应的 apt 安装命令,完成安装过程。
  3. Docker 安装:如果用户倾向于使用 Docker 进行部署,首先需要拉取镜像,命令为docker pull ollama/ollama,然后通过相关的容器运行命令,完成容器的运行和配置。

三、实战部署步骤

下载安装完成ollama后,在终端执行ollama --version验证是否安装正确,如果安装成功,命令行会显示 Ollama 的版本信息。可以通过ollama list查看已安装模型:
在这里插入图片描述

此前安装过llama3的本地模型,后面又安装了deepseek-r1:1.5b,体积比llama3小很多。

在huggingface搜索deepseek(https://huggingface.co/models?sort=trending&search=deepseek):
在这里插入图片描述

有很多deepseek的,选择一个GGUF格式的模型,GGUF格式是llama.cpp团队搞的一种模型存储格式,一个模型就是一个文件,方便下载。选择Use this model,然后点击Ollama,然后点击Copy就可以把拉取命令拷贝到剪切板上,通过以下命令就可以安装DeepSeek-V3:
在这里插入图片描述
在这里插入图片描述

copy后执行:ollama run hf.co/unsloth/DeepSeek-R1-GGUF:BF16

也可以在ollama中搜索deepseek(https://ollama.com/search):
在这里插入图片描述

在结果中选择对应的模型,显存容量不同,建议:

显存容量建议模型
小于等于 4GB 显存1.5b 模型
大于 4GB,且小于等于 12GB 显存7b 或 8b 模型
大于 12GB 显存14b 模型

个人电脑是MacBook Pro M3,选择了1.5b版本模型。

直接执行:

ollama run deepseek-r1:1.5b

安装成功后就可以在终端执行问答了。后续也可以执行ollama run deepseek-r1:1.5b重新进入交互窗口,实测交互速度还是可以的:
在这里插入图片描述

四、使用 Open WebUI 增强交互体验

在终端交互不是很方便,可以使用三方webui工具来提升交互效果,只要是支持Ollama的webUI都可以,如Dify,AnythingLLM都可以。这里使用Open WebUI工具,它应该是目前功能最全,最好用的大模型WebUI工具。

可以通过以下几种方式来安装:

  • 使用Docker-desktop,
  • 自行安装Python环境,使用Pip的方式安装即可
  • 直接使用浏览器Web UI插件就能搞定
  • 使用ChatBox、Cherry Studio等桌面客户端都可以

这里直接使用python环境安装,执行:

pip3 install open-webui

安装完成后执行:open-webui serve,启动后,在浏览器中访问 http://localhost:8080/ 即可进入 Open WebUI 界面。
在这里插入图片描述

五、总结

本文介绍了deepseek模型、ollama,以及Mac端离线部署步骤,最后介绍了Open WebUI 来增强交互体验。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2295320.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

DeepSeek-V2 论文解读:混合专家架构的新突破

论文链接:DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model 目录 一、引言二、模型架构(一)多头部潜在注意力(MLA):重塑推理效率(二)DeepSeekM…

C语言的灵魂——指针(3)

前言:上期我们介绍了const修饰指针,saaert断言都是针对指针本身的,文章后面我们用指针与数组建立了联系,这种联系或者是关系就是这篇文章所要介绍的。上一篇文章的传送门:指针2 指针3 一,数组名的含义及理解…

SSD1306 128*32屏幕驱动

最近在做一个小项目,使用合宙air001做主控,arduino开发环境,项目设计一个小屏作为显示,本身使用u8g2库,奈何这个air001空间太小,没写多少就把程序储存空间占满了,log也没办法打印,对…

【GitHub】GitHub 2FA 双因素认证 ( 使用 Microsoft Authenticator 应用进行二次验证 )

文章目录 一、GitHub 的 2FA 双因素认证二、使用 Microsoft Authenticator 应用进行二次验证1、TOTP 应用2、下载 Microsoft Authenticator 应用3、安装使用 Authenticator 应用 三、恢复码重要性 一、GitHub 的 2FA 双因素认证 现在登录 GitHub 需要进行二次身份验证 ; 先登录…

AI绘画社区:解锁艺术共创的无限可能(9/10)

AI 绘画:不只是技术,更是社交新潮流 在科技飞速发展的今天,AI 绘画早已不再仅仅是一项孤立的技术,它正以惊人的速度融入我们的社交生活,成为艺术爱好者们交流互动的全新方式,构建起一个充满活力与创意的社…

一种基于Leaflet.Legend的图例动态更新方法

目录 前言 一、场景再现 1、需求描述 2、核心方法介绍 3、存在的问题 二、问题解决 1、重复解决办法 2、图例不展示解决办法 3、成果展示 三、总结 前言 在当今数字化时代,地理信息系统(GIS)技术已经广泛应用于各个领域,…

【韩顺平linux】部分上课笔记整理

整理一下一些韩顺平老师上课时候的笔记 课程:【小白入门 通俗易懂】韩顺平 一周学会Linux linux环境:使用阿里云服务器 笔记参考 : [学习笔记]2021韩顺平一周学会Linux 一、自定义函数 基本语法 应用实例: 计算两个参数的和…

CPP集群聊天服务器开发实践(一):用户注册与登录

目录 1 客户端用户注册与登录 1.1 主要思想 1.2 网络层 1.3 业务层 1.4 数据层 1.5 测试结果 1 客户端用户注册与登录 1.1 主要思想 实现网络层、业务层、数据层的解耦,提高系统的可维护性。 网络层:主要实现对客户端连接、客户端读写请求的捕获…

学JDBC 第二日

数据库连接池 作用 使数据库连接达到重用的效果,较少的消耗资源 原理 在创建连接池对象时,创建好指定个数的连接对象 之后直接获取连接对象使用即可,不用每次都创建连接对象 从数据库连接池中获取的对象的close方法真的关闭连接对象了吗…

【Uniapp-Vue3】z-paging插件组件实现触底和下拉加载数据

一、下载z-paing插件 注意下载下载量最多的这个 进入Hbuilder以后点击“确定” 插件的官方文档地址: https://z-paging.zxlee.cn 二、z-paging插件的使用 在文档中向下滑动,会有使用方法。 使用z-paging标签将所有的内容包起来 配置标签中的属性 在s…

【C语言标准库函数】三角函数

目录 一、头文件 二、函数简介 2.1. 正弦函数:sin(double angle) 2.2. 余弦函数:cos(double angle) 2.3. 正切函数:tan(double angle) 2.4. 反正弦函数:asin(double value) 2.5. 反余弦函数:acos(double value)…

Redisson全面解析:从使用方法到工作原理的深度探索

文章目录 写在文章开头详解Redisson基本数据类型基础配置字符串操作列表操作映射集阻塞队列延迟队列更多关于Redisson详解Redisson 中的原子类详解redisson中的发布订阅模型小结参考写在文章开头 Redisson是基于原生redis操作指令上进一步的封装,屏蔽了redis数据结构的实现细…

声明式导航,编程式导航,导航传参,下拉刷新

1.页面导航 1.声明式导航 1.1跳转到tabBar页面 1.2跳转到非tabBar页面 1.2后退导航 、 2.编程式导航 2.1跳转到tabBar页面 2.1跳转到非tabBar页面 2.3后退导航 3.导航传参 3.1声名式导航传参 3.2编程式导航传参 3.3在onLoad中接受参数 4.下拉刷新 4.1回顾下拉刷新…

金和OA C6 DownLoadBgImage任意文件读取漏洞

金和OA C6 DownLoadBgImage任意文件读取漏洞 漏洞描述 金和C6数据库是一款针对企业信息化管理而设计的高级数据库管理系统,主要应用于企业资源规划(ERP)、客户关系管理(CRM)以及办公自动化(OA&#xff09…

激活函数篇 03 —— ReLU、LeakyReLU、ELU

本篇文章收录于专栏【机器学习】 以下是激活函数系列的相关的所有内容: 一文搞懂激活函数在神经网络中的关键作用 逻辑回归:Sigmoid函数在分类问题中的应用 整流线性单位函数(Rectified Linear Unit, ReLU),又称修正线性单元&a…

Kafka 入门与实战

一、Kafka 基础 1.1 创建topic kafka-topics.bat --bootstrap-server localhost:9092 --topic test --create 1.2 查看消费者偏移量位置 kafka-consumer-groups.bat --bootstrap-server localhost:9092 --describe --group test 1.3 消息的生产与发送 #生产者 kafka-cons…

5 计算机网络

5 计算机网络 5.1 OSI/RM七层模型 5.2 TCP/IP协议簇 5.2.1:常见协议基础 一、 TCP是可靠的,效率低的; 1.HTTP协议端口默认80,HTTPSSL之后成为HTTPS协议默认端口443。 2.对于0~1023一般是默认的公共端口不需要注册,1024以后的则需…

VMware虚拟机安装、创建Ubuntu虚拟机及汉化设置全流程详细教程

一、安装VMware Workstation 下载VMware 访问官网:https://www.vmware.com 选择适合的版本(如 Workstation Pro 或 VMware Player,后者免费)。完成下载后运行安装程序。 网盘下载: 链接: https://pan.baidu.com/s/1MQ…

21.2.7 综合示例

版权声明:本文为博主原创文章,转载请在显著位置标明本文出处以及作者网名,未经作者允许不得用于商业目的。 【例 21.7】【项目:code21-007】填充职员表并打印。 本例使用到的Excel文件为:职员信息登记表.xlsx&#x…

【大模型】DeepSeek与chatGPT的区别以及自身的优势

目录 一、前言二、核心技术对比2.1 模型架构设计2.1.1 ChatGPT的Transformer架构2.1.2 DeepSeek的混合架构 2.2 训练数据体系2.2.1 ChatGPT的数据特征2.2.2 DeepSeek的数据策略 三、应用场景对比3.1 通用场景表现3.1.1 ChatGPT的强项领域3.2.2 DeepSeek的专项突破 3.3 响应效率…