LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发

news2024/11/15 15:59:00

1. Ollama 部署的本地模型(🔺)

Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:https://ollama.com/

以下是其主要特点和功能概述:

  1. 1简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。

  2. 2轻量级与可扩展:作为轻量级框架,Ollama 保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。

  3. 3API支持:提供了一个简洁的 API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。

  4. 4预构建模型库:包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源

1.1 一键安装

curl: (77) error setting certificate verify locations:CAfile: /data/usr/local/anaconda/ssl/cacert.pemCApath: none
报错原因:cacert.pem 的寻址路径 CAfile 不对,也就是在该路径下找不到文件。

  • 解决方法:
  1. 1找到你的 cacert.pem 文件所在位置 /path/to/cacert.pem。如果你没有该证书,可以先在 https://curl.se/ca/cacert.pem 下载,保存在某个目录中。

  2. 2设置环境变量

export CURL_CA_BUNDLE=/path/to/cacert.pem  
#将"/path/to/cacert.pem"替换为你的证书文件的实际路径。  
export CURL_CA_BUNDLE=/www/anaconda3/anaconda3/ssl/cacert.pem  

  • 执行下载
curl -fsSL https://ollama.com/install.sh | sh  

1.2 手动安装

ollama中文网:https://ollama.fan/getting-started/linux/

  1. 1下载 ollama 二进制文件:Ollama 以自包含的二进制文件形式分发。将其下载到您的 PATH 中的目录:
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama  
  
sudo chmod +x /usr/bin/ollama  

  1. 1将 Ollama 添加为启动服务(推荐):为 Ollama 创建一个用户:
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama  

3.在 /etc/systemd/system/ollama.service 中创建一个服务文件:

#vim ollama.service   
  
[Unit]  
  
Description=Ollama Service  
After=network-online.target  
  
[Service]  
ExecStart=/usr/bin/ollama serve  
User=ollama  
Group=ollama  
Restart=always  
RestartSec=3  
  
[Install]  
WantedBy=default.target  

  1. 1然后启动服务:
sudo systemctl daemon-reload  
sudo systemctl enable ollama  

  1. 1启动 Ollama¶
    使用 systemd 启动 Ollama:
sudo systemctl start ollama  

  1. 1更新,查看日志
#再次运行  
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama  
sudo chmod +x /usr/bin/ollama  
  
#要查看作为启动服务运行的 Ollama 的日志,请运行:  
journalctl -u ollama  

  1. 1步骤7:关闭 Ollama 服务
#关闭ollama服务  
service ollama stop  
  

1.3 Linux内网离线安装Ollama

  1. 1查看服务器CPU的型号
##查看Linux系统CPU型号命令,我的服务器cpu型号是x86_64  
lscpu  

  1. 1步骤2:根据CPU型号下载Ollama安装包,并保存到目录

下载地址:https://github.com/ollama/ollama/releases/

#x86_64 CPU选择下载ollama-linux-amd64  
#aarch64|arm64 CPU选择下载ollama-linux-arm64  
  

#有网机器下载过来也一样  
wget https://ollama.com/download/ollama-linux-amd64  

下载到离线服务器上:/usr/bin/ollama ollama就是你下载的ollama-linux-amd64 改名了(mv),其他步骤一致

1.4 修改存储路径

Ollama模型默认存储在:

  • macOS: ~/.ollama/models

  • Linux: /usr/share/ollama/.ollama/models

  • Windows: C:\Users.ollama\models

如果 Ollama 作为 systemd 服务运行,则应使用以下命令设置环境变量systemctl:

  1. 1

    通过调用 来编辑 systemd 服务systemctl edit ollama.service。这将打开一个编辑器。

  2. 2

    Environment对于每个环境变量,在部分下添加一行[Service]:

直接在“/etc/systemd/system/ollama.service”增了2行:

[Service]  
Environment="OLLAMA_HOST=0.0.0.0:7861"  
Environment="OLLAMA_MODELS=/www/algorithm/LLM_model/models"  

  1. 1

    保存并退出。

  2. 2

    重新加载systemd并重新启动 Ollama:

systemctl daemon-reload   
systemctl restart ollama  

参考链接:https://github.com/ollama/ollama/blob/main/docs/faq.md

  1. 1使用 systemd 启动 Ollama:
sudo systemctl start ollama  

  1. 1终止

终止(ollama加载的大模型将会停止占用显存,此时ollama属于失联状态,部署和运行操作失效,会报错:

Error: could not connect to ollama app, is it running?需要启动后,才可以进行部署和运行操作

systemctl stop ollama.service  

  • 终止后启动(启动后,可以接着使用ollama 部署和运行大模型)
systemctl start ollama.service  

1.5 启动LLM

  • 下载模型
ollama pull llama3.1  
ollama pull qwen2  

  • 运行大模型
ollama run llama3.1  
ollama run qwen2  

  • 查看是否识别到大模型: ollama list, 如果成功, 则会看到大模型
ollama list  
NAME            ID              SIZE    MODIFIED      
qwen2:latest    e0d4e1163c58    4.4 GB  3 hours ago  

  • 使用该ollama ps命令查看当前已加载到内存中的模型。
NAME            ID              SIZE    PROCESSOR       UNTIL                
qwen2:latest    e0d4e1163c58    5.7 GB  100% GPU        3 minutes from now  

  • nvidia-smi查看
+---------------------------------------------------------------------------------------+  
| NVIDIA-SMI 535.86.10              Driver Version: 535.86.10    CUDA Version: 12.2     |  
|-----------------------------------------+----------------------+----------------------+  
| GPU  Name                 Persistence-M | Bus-Id        Disp.A | Volatile Uncorr. ECC |  
| Fan  Temp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-Util  Compute M. |  
|                                         |                      |               MIG M. |  
|=========================================+======================+======================|  
|   0  Tesla V100-SXM2-32GB           On  | 00000000:00:08.0 Off |                    0 |  
| N/A   35C    P0              56W / 300W |   5404MiB / 32768MiB |      0%      Default |  
|                                         |                      |                  N/A |  
+-----------------------------------------+----------------------+----------------------+  
                                                                                           
+---------------------------------------------------------------------------------------+  
| Processes:                                                                            |  
|  GPU   GI   CI        PID   Type   Process name                            GPU Memory |  
|        ID   ID                                                             Usage      |  
|=======================================================================================|  
|    0   N/A  N/A   3062036      C   ...unners/cuda_v11/ollama_llama_server     5402MiB |  
+---------------------------------------------------------------------------------------+  

  • 启动后,我们可验证是否可用:
curl http://10.80.2.195:7861/api/chat -d '{  
  "model": "llama3.1",  
  "messages": [  
    { "role": "user", "content": "why is the sky blue?" }  
  ]  
}'  

1.6 更多其他配置

Ollama 可以设置的环境变量

  • OLLAMA_HOST:这个变量定义了Ollama监听的网络接口。通过设置OLLAMA_HOST=0.0.0.0,我们可以让Ollama监听所有可用的网络接口,从而允许外部网络访问。

  • OLLAMA_MODELS:这个变量指定了模型镜像的存储路径。通过设置OLLAMA_MODELS=F:\OllamaCache,我们可以将模型镜像存储在E盘,避免C盘空间不足的问题。

  • OLLAMA_KEEP_ALIVE:这个变量控制模型在内存中的存活时间。设置OLLAMA_KEEP_ALIVE=24h可以让模型在内存中保持24小时,提高访问速度。

  • OLLAMA_PORT:这个变量允许我们更改Ollama的默认端口。例如,设置OLLAMA_PORT=8080可以将服务端口从默认的11434更改为8080。

  • OLLAMA_NUM_PARALLEL:这个变量决定了Ollama可以同时处理的用户请求数量。设置OLLAMA_NUM_PARALLEL=4可以让Ollama同时处理两个并发请求。

  • OLLAMA_MAX_LOADED_MODELS:这个变量限制了Ollama可以同时加载的模型数量。设置OLLAMA_MAX_LOADED_MODELS=4可以确保系统资源得到合理分配。

Environment=“OLLAMA_PORT=9380” 没有用

  • 这样指定:Environment="OLLAMA_HOST=0.0.0.0:7861"

  • 指定 GPU
    本地有多张 GPU,如何用指定的 GPU 来运行 Ollama?在Linux上创建如下配置文件,并配置环境变量 CUDA_VISIBLE_DEVICES 来指定运行 Ollama 的 GPU,再重启 Ollama 服务即可【测试序号从0还是1开始,应是从0开始】。

vim /etc/systemd/system/ollama.service  
[Service]  
Environment="CUDA_VISIBLE_DEVICES=0,1"  

1.7 Ollama常见命令

  1. 1重启 ollama
systemctl daemon-reload  
systemctl restart ollama  

  1. 1重启 ollama 服务

ubuntu/debian

sudo apt update  
sudo apt install lsof  
stop ollama  
lsof -i :11434  
kill <PID>  
ollama serve  
  
  

  • Ubuntu
sudo apt update  
sudo apt install lsof  
stop ollama  
lsof -i :11434  
kill <PID>  
ollama serve  
  

  1. 1确认服务端口状态:
netstat -tulpn | grep 11434  
  

  1. 1配置服务

为使外网环境能够访问到服务,需要对 HOST 进行配置。

打开配置文件:

vim /etc/systemd/system/ollama.service  
  

根据情况修改变量 Environment:

服务器环境下:

Environment="OLLAMA_HOST=0.0.0.0:11434"  
  

虚拟机环境下:

Environment="OLLAMA_HOST=服务器内网IP地址:11434"  
  

1.8 卸载Ollama

如果决定不再使用Ollama,可以通过以下步骤将其完全从系统中移除:

(1)停止并禁用服务:

sudo systemctl stop ollama  
sudo systemctl disable ollama  

(2)删除服务文件和Ollama二进制文件:

sudo rm /etc/systemd/system/ollama.service   
sudo rm $(which ollama)  

(3)清理Ollama用户和组:

sudo rm -r /usr/share/ollama  
sudo userdel ollama  
sudo groupdel ollama  

通过以上步骤,不仅能够在Linux平台上成功安装和配置Ollama,还能够灵活地进行更新和卸载。

2.OpenLLM 部署

OpenLLM 于 2023 年 6 月开源,是一个用于部署大语言模型的框架。目前,该项目在 GitHub 上已经获得了 9.6K星标。其最初的口号是通过一行代码或相对轻松地在不同的大语言模型之间切换,为个人用户提供方便。OpenLLM是一个用于在生产环境中操作大型语言模型(LLM)的开放平台,它可以轻松地微调、服务、部署和监控任何LLM。

  • 安装
pip install openllm  # or pip3 install openllm  
openllm hello  

  • 支持模型

  • Llama-3.1

  • Llama-3

  • Phi-3

  • Mistral

  • Gemma-2

  • Qwen-2

  • Gemma

  • Llama-2

  • Mixtral

  • 在 设置 > 模型供应商 > OpenLLM 中填入:

  • 模型名称:

  • 服务器 URL:http://<Machine_IP>:3333 替换成您的机器 IP 地址 “保存” 后即可在应用中使用该模型。

OpenLLM 提供了一个内置的 Python 客户端,允许您与模型进行交互。在不同的终端窗口或 Jupyter notebook 中,创建一个客户端以开始与模型交互:

import openllm  
client = openllm.client.HTTPClient('http://localhost:3000')  
client.query('Explain to me the difference between "further" and "farther"')  

  • 可以使用 openllm query 命令从终端查询模型:
export OPENLLM_ENDPOINT=http://localhost:3000  
openllm query 'Explain to me the difference between "further" and "farther"'  

使用 openllm models 命令查看 OpenLLM 支持的模型及其变体列表。

3.LocalAI 部署

LocalAI 是一个本地推理框架,提供了 RESTFul API,与 OpenAI API 规范兼容。它允许你在消费级硬件上本地或者在自有服务器上运行 LLM(和其他模型),支持与 ggml 格式兼容的多种模型家族。不需要 GPU。Dify 支持以本地部署的方式接入 LocalAI 部署的大型语言模型推理和 embedding 能力。

  • giuhub:https://github.com/mudler/LocalAI/tree/master

  • 官网手册:https://localai.io/docs/getting-started/models/

  • 官方快速部署手册案例:https://localai.io/docs/getting-started/models/

  1. 1首先拉取 LocalAI 代码仓库,并进入指定目录
git clone https://github.com/go-skynet/LocalAI  
cd LocalAI/examples/langchain-chroma  

  1. 1下载demo LLM 和 Embedding 模型(仅供参考)
wget https://huggingface.co/skeskinen/ggml/resolve/main/all-MiniLM-L6-v2/ggml-model-q4_0.bin -O models/bert  
wget https://gpt4all.io/models/ggml-gpt4all-j.bin -O models/ggml-gpt4all-j  

  • 参考文章:告别Hugging Face模型下载难题
  1. 1配置 .env 文件
mv .env.example .env  

NOTE:请确保 .env 中的 THREADS 变量值不超过您本机的 CPU 核心数。

  1. 1启动 LocalAI
#start with docker-compose  
$docker-compose up -d --build  
  
#tail the logs & wait until the build completes  
docker logs -f langchain-chroma-api-1  
7:16AM INF Starting LocalAI using 4 threads, with models path: /models  
7:16AM INF LocalAI version: v1.24.1 (9cc8d9086580bd2a96f5c96a6b873242879c70bc)  
  
 ┌───────────────────────────────────────────────────┐   
 │                   Fiber v2.48.0                   │   
 │               http://127.0.0.1:8080               │   
 │       (bound on host 0.0.0.0 and port 8080)       │   
 │                                                   │   
 │ Handlers ............ 55  Processes ........... 1 │   
 │ Prefork ....... Disabled  PID ................ 14 │   
 └───────────────────────────────────────────────────┘  

开放了本机 http://127.0.0.1:8080 作为 LocalAI 请求 API 的端点。

并提供了两个模型,分别为:

  • LLM 模型:ggml-gpt4all-j

    对外访问名称:gpt-3.5-turbo(该名称可自定义,在 models/gpt-3.5-turbo.yaml 中配置。

  • Embedding 模型:all-MiniLM-L6-v2

    对外访问名称:text-embedding-ada-002(该名称可自定义,在 models/embeddings.yaml 中配置。

使用 Dify Docker 部署方式的需要注意网络配置,确保 Dify 容器可以访问到localAI 的端点,Dify 容器内部无法访问到 localhost,需要使用宿主机 IP 地址。

  1. 1LocalAI API 服务部署完毕,在 Dify 中使用接入模型

在 设置 > 模型供应商 > LocalAI 中填入:

  • 模型 1:ggml-gpt4all-j

  • 模型类型:文本生成

  • 模型名称:gpt-3.5-turbo

  • 服务器 URL:http://127.0.0.1:8080

  • 若 Dify 为 docker 部署,请填入 host 域名:http://your-LocalAI-endpoint-domain:8080,可填写局域网 IP 地址,如:http://192.168.1.100:8080

  • 模型 2:all-MiniLM-L6-v2

  • 模型类型:Embeddings

  • 模型名称:text-embedding-ada-002

  • 服务器 URL:http://127.0.0.1:8080

  • 若 Dify 为 docker 部署,请填入 host 域名:http://your-LocalAI-endpoint-domain:8080,可填写局域网 IP 地址,如:http://192.168.1.100:8080

如需获取 LocalAI 更多信息,请参考:https://github.com/go-skynet/LocalAI

4.配置LLM+Dify(ollama 🔺)

  • 确认服务端口状态:
netstat -tulnp | grep ollama  
#netstat -tulpn | grep 11434  

  • 报错:“Error: could not connect to ollama app, is it running?”

参考链接:https://stackoverflow.com/questions/78437376/run-ollama-run-llama3-in-colab-raise-err-error-could-not-connect-to-ollama

/etc/systemd/system/ollama.service文件是:

[Service]  
ExecStart=/usr/local/bin/ollama serve  
Environment="OLLAMA_HOST=0.0.0.0:7861"  
Environment="OLLAMA_KEEP_ALIVE=-1"  

  • 运行指令
export OLLAMA_HOST=0.0.0.0:7861  
ollama list  
ollama run llama3.1  
  
#直接添加到环境变量也可以  
vim ~/.bashrc   
source ~/.bashrc  

在 设置 > 模型供应商 > Ollama 中填入:

  • 模型名称:llama3.1

  • 基础 URL:http://<your-ollama-endpoint-domain>:11434

  • 此处需填写可访问到的 Ollama 服务地址。

  • 若 Dify 为 docker 部署,建议填写局域网 IP 地址,如:http://10.80.2.195:11434 或 docker 宿主机 IP 地址,如:http://172.17.0.1:11434

  • 若为本地源码部署,可填写 http://localhost:11434

  • 模型类型:对话

  • 模型上下文长度:4096

  • 模型的最大上下文长度,若不清楚可填写默认值 4096。

  • 最大 token 上限:4096

  • 模型返回内容的最大 token 数量,若模型无特别说明,则可与模型上下文长度保持一致。

  • 是否支持 Vision:是

  • 当模型支持图片理解(多模态)勾选此项,如 llava。

  • 点击 “保存” 校验无误后即可在应用中使用该模型。

  • Embedding 模型接入方式与 LLM 类似,只需将模型类型改为 Text Embedding 即可。

  • 如果您使用Docker部署Dify和Ollama,您可能会遇到以下错误:
httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))  
  
httpconnectionpool(host=localhost, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))  

这个错误是因为 Docker 容器无法访问 Ollama 服务。localhost 通常指的是容器本身,而不是主机或其他容器。要解决此问题,您需要将 Ollama 服务暴露给网络。

4.1.多模型对比

参考单个模型部署一样,进行再一次配置添加即可

  • 需要注意的是添加完新的模型配置后,需要刷新dify网页,直接网页端刷新就好,新添加的模型就会加载进来

  • 可以看到调用后模型资源消耗情况

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2141442.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

VLMEvalKit 评测实践:InternVL2 VS Qwen2VL

一、InternVL2简介 InternVL2是由上海人工智能实验室OpenGVLab发布的一款多模态大模型&#xff0c;其中文名称为“书生万象”。该模型在多学科问答&#xff08;MMMU&#xff09;任务上表现出色&#xff0c;成为国内首个在该任务上性能突破60的模型&#xff0c;被誉为开源多模态…

k8s 微服务 ingress-nginx 金丝雀发布

目录 一 什么是微服务 二 微服务的类型 三 ipvs模式 3.1 ipvs模式配置方式 四 微服务类型详解 4.1 clusterip 4.2 ClusterIP中的特殊模式headless 4.3 nodeport 4.4 loadbalancer 4.5 metalLB 4.6 externalname 五 Ingress-nginx 5.1 ingress-nginx功能 5.2 部署…

5. Python之数据类型

Python数据类型有数值型&#xff0c;字符串型&#xff0c;布尔型等等 内置函数type()&#xff0c;可以查看变量的数据类型 。 一、数值类型 整数&#xff08;没有小数部分&#xff0c;包含正整数&#xff0c;负整数&#xff0c;0&#xff0c;默认为十进制数&#xff09;&…

C++ 类域+类的对象大小

个人主页&#xff1a;Jason_from_China-CSDN博客 所属栏目&#xff1a;C系统性学习_Jason_from_China的博客-CSDN博客 所属栏目&#xff1a;C知识点的补充_Jason_from_China的博客-CSDN博客 概念概述 类定义了一个新的作用域&#xff0c;类的所有成员都在类的作用域中&#xff…

华为杯数学建模资料大全、入门指导攻略、获奖数据分析、选题建议

这里收集的资料个人认为已经非常全也非常值了&#xff0c;这么多资料收集成本真的不低 数学建模比赛资料部分&#xff08;需要私聊找我&#xff09; 华为杯创办以来每一年的比赛题目原题&#xff08;包括A到F题&#xff09;华为杯每年每种题目的优秀获奖作品论文 近几年的华…

2022高教社杯全国大学生数学建模竞赛C题 问题一(2) Python代码演示

目录 1.2 结合玻璃的类型,分析文物样品表面有无风化化学成分含量的统计规律数据预处理绘图热力图相关系数图百分比条形图箱线图小提琴图直方图KED图描述性统计分析偏度系数峰度系数其它统计量1.2 结合玻璃的类型,分析文物样品表面有无风化化学成分含量的统计规律 数据预处理 …

回归预测|基于鲸鱼优化随机森林数据的数据回归预测Matlab程序 多特征输入单输出WOA-RF

回归预测|基于鲸鱼优化随机森林数据的数据回归预测Matlab程序 多特征输入单输出WOA-RF 文章目录 一、基本原理鲸鱼优化算法&#xff08;WOA&#xff09;随机森林&#xff08;RF&#xff09;WOA-RF的结合总结 二、实验结果三、核心代码四、代码获取五、总结 一、基本原理 WOA-R…

服务器断电重启后报XFS文件系统错误 XFS (dm-0)_ Metadata I_O error

一、现象 服务器被意外断电&#xff0c;导致重启机器后报错&#xff0c;系统错误 XFS (dm-0): Metadata I/O error 二、解决方法 2.1 重启服务器&#xff0c;进入单用户模式 服务器系统为&#xff1a; centos7.9 开机按e 定位到ro 然后修改ro为rw(“rw init/sysroot/bin/sh”…

2024-1.2.12-Android-Studio配置

本地博客: https://k1t0111.github.io/ K1T0 最近在做一些app方向的移动技术开发学习&#xff0c;但是由于AS的配置问题&#xff0c;市面上找不到最新的2024版本的AS的相关配置。笔者也是踩了很多坑&#xff0c;因此想写一篇文章记录一下最新的AS 2024 1.2.12的对应java环境的一…

JavaScript 笔记汇总

JavaScript 笔记汇总 引入方式 内部方式 通过 script 标签包裹 JavaScript 代码。 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>JavaScript 基础 - 引入方式</title> </head> <…

java项目之基于web的人力资源管理系统的设计与实现(源码+文档)

风定落花生&#xff0c;歌声逐流水&#xff0c;大家好我是风歌&#xff0c;混迹在java圈的辛苦码农。今天要和大家聊的是一款基于springboot的基于web的人力资源管理系统的设计与实现。项目源码以及部署相关请联系风歌&#xff0c;文末附上联系信息 。 项目简介&#xff1a; …

2024/9/16 pytorch

一、pytorch两大法宝元素 假设有一个名为pytorch的包 dir()&#xff1a;用于打开包&#xff0c;看里面的内容 help():用于查看具体的内容的用处 二、python文件&#xff0c;python控制台和jupyter的使用对比 三、pytorch读取数据 pytorch读取数据主要涉及到两个类&#xff1…

linux文件系统权限详解

注:目录的执行权限代表是否可以进入。 一、文件权限控制对文件的访问: 可以针对文件所属用户、所属组和其他用户可以设置不同的权限 权限具有优先级。user权限覆盖group权限,后者覆盖other权限。 有三种权限类别:读取、写入和执行 读权限:对文件:可读取文件…

LeetCode[中等] 合并区间

以数组 intervals 表示若干个区间的集合&#xff0c;其中单个区间为 intervals[i] [starti, endi] 。请你合并所有重叠的区间&#xff0c;并返回 一个不重叠的区间数组&#xff0c;该数组需恰好覆盖输入中的所有区间 。 思路 区间排序&#xff1a; 开始位置 ——> 升序排…

Elment-plus组件失效(没有样式)(0916)

在学习Vue3时&#xff0c;使用Element-plus组件库开发登录页面&#xff0c;发现无法显示反馈组件的样式 然后查找相关博客后&#xff0c;发现原来是因为我使用按需导入&#xff0c;然后又在登录页面导入&#xff0c;导致组件样式失效 删除导入语句后&#xff0c;成功显示反馈组…

「C++」类和对象(3)

欢迎大家再次来到海盗猫鸥的博客—— 今天将继续讲解类和对象的后续内容&#xff0c;本篇将讲解类和对象中运算符重载&#xff0c;赋值运算符重载&#xff0c;以及取地址运算符的内容&#xff0c;再结合内容进行Date日期类的实现。 目录 运算符重载 运算符重载 赋值运算符重…

【CMake】使用CMake在Visual Stdudio编译资源文件和多目标编译

一、资源文件的编译 首先&#xff0c;我们的项目结构如下&#xff0c;存在图片和第三方库&#xff1a; 配置主 C M a k e l i s t s CMakelists CMakelists&#xff1a; #需求的最低cmake程序版本 cmake_minimum_required(VERSION 3.12)#本工程的名字 project(OpenGL)#支持的…

[Python数据可视化] Plotly:交互式数据可视化的强大工具

引言&#xff1a; 在数据分析和可视化的世界中&#xff0c;Plotly 是一颗耀眼的明星。它是一个开源的交互式图表库&#xff0c;支持多种编程语言&#xff0c;包括 Python、R 和 JavaScript。Plotly 的强大之处在于它能够创建出既美观又具有高度交互性的图表&#xff0c;使得数据…

变压器数据集,电气设备红外热图像数据集,部分带温度显示。变压器红外数据集,温度显示5000多张

项目背景&#xff1a; 变压器作为电力系统的关键设备之一&#xff0c;其运行状态直接影响到电网的安全稳定。红外热成像技术因其非接触、快速、直观的特点&#xff0c;在电力设备的故障诊断和状态监测中得到了广泛应用。本数据集旨在为基于红外热图像的变压器状态监测提供高质量…

挑战力扣高难度算法、数据库题

一.算法类 1622题,困难,奇妙序列 class Fancy { public:static const int MOD 1e9 7;long long M_total; // cumulative multiplicative factorlong long A_total; // cumulative additive factorvector<long long> val; // original valuesvector<long long> …