【目标检测】用YOLOv8-Segment训练语义分割数据集(保姆级教学)

news2024/11/17 8:40:12

前言

这篇教程会手把手带你用 YOLOv8-Segment 搭建一个属于自己的分割任务项目。从环境配置到数据集准备,再到模型训练和测试,所有步骤都有详细说明,适合初学者使用。你将学会如何安装必要的软件,标注自己的数据,并使用 YOLOv8-Segment 实现自定义目标的实例分割。我们还提供了实用的代码示例,方便你在这个基础上自由调整和优化。

准备工作(必看)

  1. 安装 Anaconda 并熟悉基本命令
    本项目主要基于 Conda 环境进行配置与管理。如果尚未安装 Anaconda,可以参考我的另一篇文章:一步步教你在 Windows 上轻松安装 Anaconda以及使用常用conda命令(超详细)获取详细安装及使用指南。

  2. 安装 PyCharm(版本 > 2023.1)
    本项目建议使用 PyCharm 加载 Conda 环境进行开发与管理,可以参考相关教程完成 PyCharm 的安装和基础配置。

  3. 熟练使用 LabelMe 进行分割标注
    本项目要求用户预先准备好 JPG 格式的数据集,并使用 labelme 工具完成目标区域的分割标注。分割标注将生成 JSON 文件,稍后会介绍如何将这些文件转换为 YOLOv8 可用的格式。如果您对 labelme 的使用不熟悉,可以参考我的另一篇教程:小白快速上手 labelme:新手图像标注详解教程。

一、下载 YOLOv8 源码

方法一:从官网直接下载(推荐)

  1. 打开 YOLOv8 的 GitHub 官方页面。
  2. 点击页面上的 “Code” 按钮,选择 “Download ZIP” 直接下载源码。

在这里插入图片描述

  1. 下载完成后,请将压缩包解压至 D 盘或 E 盘等非系统盘,并重命名为 yolov8-segment,以减少可能由于系统权限问题导致的错误(解压路径可根据个人需求进行选择,请确保记录路径以便后续使用)。

在这里插入图片描述

方法二:通过 Git 克隆源码(适合有一定基础的用户)

  1. 打开终端或命令提示符,输入以下命令将 YOLOv8 源码克隆到本地:

    git clone https://github.com/ultralytics/ultralytics
    
  2. 下载完成后,将文件夹重命名为 yolov8-segment

    mv ultralytics yolov8-segment
    
  3. 进入 yolov8-segment 文件夹:

    cd yolov8-segment
    

文件结构简介

下载完成后,ultralytics 文件夹的核心结构如下:

ultralytics/
├── ultralytics/
│   ├── yolo/        # YOLOv8 的核心代码,包括检测、分割和分类功能
│   ├── datasets/    # 示例数据集
│   ├── models/      # 模型定义
│   ├── utils/       # 工具函数
├── setup.py         # 安装脚本
└── README.md        # 项目说明
└── ......           # 其它

二、环境安装

1. 创建并激活 YOLOv8 环境

conda create -n yolov8 python==3.9  # 创建python版本3.9名为yolov8的conda环境

conda activate yolov8  # 激活创建的yolov8环境

2. 配置Pytorch环境

YOLOv8 可以在GPUCPU环境下运行,但推荐在GPU上运行以加快训练速度。

检查NVIDIA GPU及其CUDA支持情况

nvidia-smi是NVIDIA驱动自带的命令行工具,可以查看显卡的CUDA支持情况和驱动信息。打开命令提示符(或CMD),输入:

nvidia-smi

如果系统输出了显卡信息,并显示CUDA版本(例如CUDA Version: 12.7),则表明显卡支持CUDA同时支持GPU,否则不支持GPU

在这里插入图片描述

方式一:使用Conda安装(推荐)

  1. 打开 Previous PyTorch Versions | PyTorch 官网,选择<= CUDA Version 的Conda命令并复制(若不支持GPU则选择 CPU 的Conda命令)。

    在这里插入图片描述

  2. 在终端中执行对应的安装命令,以安装PyTorch和CUDA / CPU支持。

  3. 安装完成后,可以在终端中输入conda list pytorch检查安装情况:(本教程仅展示CUDA版本的安装结果)

在这里插入图片描述

  • pytorch 2.3.1:这是安装的PyTorch版本,适用于Python 3.9,并支持CUDA 12.1和cuDNN 8。
  • pytorch-cuda 12.1:这是安装的CUDA支持包,指明CUDA版本为12.1。
  • pytorch-mutex 1.0:这是一个互斥包,用来确保在同一环境中只启用一种加速方式(如CUDA),避免安装冲突。

方式二:使用Pip安装

  1. 打开 Previous PyTorch Versions | PyTorch 官网,选择<= CUDA Version 的Pip命令并复制(若不支持GPU则选择 CPU 的Pip命令)。

在这里插入图片描述

  1. 在终端中执行对应的安装命令,以安装PyTorch和CUDA / CPU支持。

  2. 安装完成后,可以在终端中输入pip list检查安装情况。

在这里插入图片描述

  • torch 2.3.0:核心库(版本2.3.0),用于构建和训练神经网络。
  • torchaudio 2.3.0:音频处理库(版本2.3.0),为音频数据的加载、预处理和增强提供了工具
  • torchvision 0.18.0:计算机视觉库(版本0.18.0),包含了常用的图像数据集、数据增强和预训练模型。
  1. 下载安装CUDA支持的torch + torchvision + torchaudio (仅GPU版本需要)。
    • 打开网址 https://download.pytorch.org/whl/torch_stable.html
    • 选择与上面对应版本的torch并下载至本地

在这里插入图片描述

cu121:表示此安装包支持 CUDA 12.1,也就是说,这个版本的 PyTorch 可以利用带有 CUDA 12.1 的 NVIDIA GPU 进行计算加速。
	
torch-2.3.1+cu121:说明这是 PyTorch 2.3.1 版本的安装包,并且这个版本支持 CUDA 12.1。在 PyTorch 中,不同 CUDA 版本对应不同的 GPU 支持,确保安装的 PyTorch 版本兼容设备的 CUDA 版本很重要。
	
cp39-cp39:表示该安装包是针对 Python 3.9(“cp39”代表 CPython 3.9)的版本。这里的 cp39-cp39 意味着此包适用于 Python 3.9 的 CPython 解释器(CPython 是 Python 的标准实现)。
	
win_amd64:表示该安装包适用于 Windows 操作系统,并支持 64位架构(AMD64)。如果您的系统是 Windows 64 位,这个包是兼容的。
  • 在终端中输入以下命令以安装指定的 .whl 文件(请将路径替换为您下载的 .whl 文件的实际保存位置)
  pip install D:\torch_gpu\torch-2.3.1+cu121-cp39-cp39-win_amd64.whl
  • torchvisiontorchaudio安装方式同理
  • 安装完毕后再次在终端中输入pip list检查安装情况,如果输出结果中显示类似以下内容,则表明安装成功

在这里插入图片描述

3. Pycharm中加载YOLOv8环境

  1. 在Pycharm中打开yolov8-segment项目
  2. 打开设置 - - > 项目: yolov8-segment- - > python解释器 - - > 添加解释器 - - > 添加本地解释器

在这里插入图片描述

  1. 选择Conda环境 - - > 浏览Anaconda目录下\Library\bin\conda.bat - - > 加载环境 - - > 使用现有环境 - - > 选择yolov8 - - > 点击确定

在这里插入图片描述

4. 安装YOLOv8依赖项

  1. 打开Pycharm本地终端

在这里插入图片描述

  1. 使用以下命令安装 Ultralytics 库和相关依赖:
pip install ultralytics opencv-python matplotlib

三、数据集准备

3.1 数据集初始格式

为了准备 YOLOv8 Segment 模型所需的数据集,请按照以下步骤组织文件夹结构:

  1. 在项目根目录 yolov8-segment 下新建 datasets 文件夹。
  2. datasets 文件夹内新建一个名为 segment 的子文件夹。
  3. segment 文件夹内,新建以下两个子文件夹:
    • img 文件夹:用于存放任务所需的图片,格式建议为 JPG 或 PNG。
    • json 文件夹:用于存放与图片对应的标注文件,格式为 JSON(推荐使用工具如 Labelme 生成)。

文件夹结构示例

yolov8-segment/
├── datasets/
│   ├── segment/
│       ├── img/        # 存放图片
│       │   ├── image1.jpg
│       │   ├── image2.jpg
│       ├── json/       # 存放标注文件
│           ├── image1.json
│           ├── image2.json

注意事项

  • 图片文件夹 img:包含任务图片,每张图片的文件名应唯一且对应相应的标注文件,例如 image1.jpg
  • 标注文件夹 json:包含与图片一一对应的 JSON 标注文件,文件名与图片名一致,例如 image1.json
  • 一致性:确保图片和 JSON 文件的文件名完全一致,以免后续处理出错。

3.2 数据集转换和分割

为了使用 YOLOv8 Segment 模型,我们需要将 JSON 格式的标注文件转换为 YOLO格式的 .txt 文件,并按照训练和验证的比例划分数据集。以下是具体步骤:

1. 新建转换脚本

在项目根目录下新建一个脚本文件 segment_json2txt.py。这个脚本的主要功能是:

  1. 格式转换:将标注工具(如 Labelme)生成的 JSON 格式标注文件转换为 YOLO 格式的 .txt 文件,方便 YOLOv8 模型直接使用。

  2. 数据集划分:将图片和对应的标签文件按照一定比例(如 90% 训练集,10% 验证集)划分为训练集和验证集。

  3. 生成配置文件:自动生成一个名为 segment.yaml 的配置文件,该文件包含数据集路径、类别名称和类别数量,供 YOLOv8 模型训练时使用。

# -*- coding: utf-8 -*-
from tqdm import tqdm
import shutil
import random
import os
import argparse
from collections import Counter
import yaml
import json
 
 

def mkdir(path):
    if not os.path.exists(path):
        os.makedirs(path)
 
 
def convert_label_json(json_dir, save_dir, classes):
    json_paths = os.listdir(json_dir)
    classes = classes.split(',')
    mkdir(save_dir)
 
    for json_path in tqdm(json_paths):
        # for json_path in json_paths:
        path = os.path.join(json_dir, json_path)
        with open(path, 'r') as load_f:
            json_dict = json.load(load_f)
        h, w = json_dict['imageHeight'], json_dict['imageWidth']
 
        # save txt path
        txt_path = os.path.join(save_dir, json_path.replace('json', 'txt'))
        txt_file = open(txt_path, 'w')
 
        for shape_dict in json_dict['shapes']:
            label = shape_dict['label']
            label_index = classes.index(label)
            points = shape_dict['points']
 
            points_nor_list = []
 
            for point in points:
                points_nor_list.append(point[0] / w)
                points_nor_list.append(point[1] / h)
 
            points_nor_list = list(map(lambda x: str(x), points_nor_list))
            points_nor_str = ' '.join(points_nor_list)
 
            label_str = str(label_index) + ' ' + points_nor_str + '\n'
            txt_file.writelines(label_str)
 
 
def get_classes(json_dir):
    '''
    统计路径下 JSON 文件里的各类别标签数量
    '''
    names = []
    json_files = [os.path.join(json_dir, f) for f in os.listdir(json_dir) if f.endswith('.json')]
 
    for json_path in json_files:
        with open(json_path, 'r') as f:
            data = json.load(f)
            for shape in data['shapes']:
                name = shape['label']
                names.append(name)
 
    result = Counter(names)
    return result
 
 
def main(image_dir, json_dir, txt_dir, save_dir):
    # 创建文件夹
    mkdir(save_dir)
    images_dir = os.path.join(save_dir, 'images')
    labels_dir = os.path.join(save_dir, 'labels')
 
    img_train_path = os.path.join(images_dir, 'train')
    img_val_path = os.path.join(images_dir, 'val')
 
    label_train_path = os.path.join(labels_dir, 'train')
    label_val_path = os.path.join(labels_dir, 'val')
 
    mkdir(images_dir)
    mkdir(labels_dir)
    mkdir(img_train_path)
    mkdir(img_val_path)
    mkdir(label_train_path)
    mkdir(label_val_path)
 
    # 数据集划分比例,训练集75%,验证集15%,测试集15%,按需修改
    train_percent = 0.90
    val_percent = 0.10
 
    total_txt = os.listdir(txt_dir)
    num_txt = len(total_txt)
    list_all_txt = range(num_txt)  # 范围 range(0, num)
 
    num_train = int(num_txt * train_percent)
    num_val = int(num_txt * val_percent)
 
    train = random.sample(list_all_txt, num_train)
    # 在全部数据集中取出train
    val = [i for i in list_all_txt if not i in train]
    # 再从val_test取出num_val个元素,val_test剩下的元素就是test
    # val = random.sample(list_all_txt, num_val)
 
    print("训练集数目:{}, 验证集数目:{}".format(len(train), len(val)))
    for i in list_all_txt:
        name = total_txt[i][:-4]
 
        srcImage = os.path.join(image_dir, name + '.jpg')
        srcLabel = os.path.join(txt_dir, name + '.txt')
 
        if i in train:
            dst_train_Image = os.path.join(img_train_path, name + '.jpg')
            dst_train_Label = os.path.join(label_train_path, name + '.txt')
            shutil.copyfile(srcImage, dst_train_Image)
            shutil.copyfile(srcLabel, dst_train_Label)
        elif i in val:
            dst_val_Image = os.path.join(img_val_path, name + '.jpg')
            dst_val_Label = os.path.join(label_val_path, name + '.txt')
            shutil.copyfile(srcImage, dst_val_Image)
            shutil.copyfile(srcLabel, dst_val_Label)
 
    obj_classes = get_classes(json_dir)
    classes = list(obj_classes.keys())
 
    # 编写yaml文件
    classes_txt = {i: classes[i] for i in range(len(classes))}  # 标签类别
    data = {
        'path': os.path.join(os.getcwd(), save_dir),
        'train': "images/train",
        'val': "images/val",
        'names': classes_txt,
        'nc': len(classes)
    }
    with open(save_dir + '/segment.yaml', 'w', encoding="utf-8") as file:
        yaml.dump(data, file, allow_unicode=True)
    print("标签:", dict(obj_classes))
 
 
if __name__ == "__main__":
    """
    python json2txt_nomalize.py --json-dir my_datasets/color_rings/jsons --save-dir my_datasets/color_rings/txts --classes "cat,dogs"
    """
    classes_list = 'platemetal,label,Dust_plug,screws'  # 类名
 
    parser = argparse.ArgumentParser(description='json convert to txt params')
    parser.add_argument('--image-dir', type=str,default='datasets/segment/img', help='图片地址')
    parser.add_argument('--json-dir', type=str,default='datasets/segment/json', help='json地址')
    parser.add_argument('--txt-dir', type=str,default='datasets/segment/txt' , help='保存txt文件地址')
    parser.add_argument('--save-dir', default='datasets/segment/seg', type=str, help='保存最终分割好的数据集地址')
    parser.add_argument('--classes', type=str, default=classes_list, help='classes')
    args = parser.parse_args()
    json_dir = args.json_dir
    txt_dir = args.txt_dir
    image_dir = args.image_dir
    save_dir = args.save_dir
    classes = args.classes
    # json格式转txt格式
    convert_label_json(json_dir, txt_dir, classes)
    # 划分数据集,生成yaml训练文件
    main(image_dir, json_dir, txt_dir, save_dir)

2. 修改路径参数

数据集划分比例(segment_json2txt.py第90行左右)
# 数据集划分比例
train_percent = 0.90  # 训练集占比
val_percent = 0.10    # 验证集占比

默认设置为训练集 90%,验证集 10%,没有单独测试集。如果需要,可以按需修改,例如训练集 75%,验证集 15%,测试集 10%。

参数说明及调整

在运行脚本时,需要指定以下参数,根据你的数据集路径和类别定义进行调整:

  • --image-dir:图片文件夹路径,例如 datasets/segment/img
  • --json-dir:JSON 标注文件夹路径,例如 datasets/segment/json
  • --txt-dir:生成的 TXT 文件存放路径,例如 datasets/segment/txt
  • --save-dir:最终分割数据集存放路径
  • --classes:分割任务中的类别名称(必改)

在这里插入图片描述

3. 运行脚本

在这里插入图片描述

运行脚本后(终端输出类似上图),会生成两个文件夹:

  • txt:包含转换为 YOLO 格式的标签文件。
  • seg:分割好的最终数据集,包括 trainval 子文件夹,以及一个用于训练的 segment.yaml 配置文件。

以下是运行脚本后生成的示例目录结构:

datasets/
├── segment/
│   ├── txt/                    # 包含转换为 YOLO 格式的标签文件
│   │   ├── image1.txt
│   │   ├── image2.txt
│   │   ├── image3.txt
│   │   └── ...                # 其他标签文件
│   ├── seg/                   # 分割好的最终数据集
│       ├── images/            # 存放划分后的图像
│       │   ├── train/         # 训练集图片
│       │   │   ├── image1.jpg
│       │   │   ├── image2.jpg
│       │   │   ├── image3.jpg
│       │   │   └── ...       # 更多训练图片
│       │   ├── val/           # 验证集图片
│       │       ├── image4.jpg
│       │       ├── image5.jpg
│       │       ├── image6.jpg
│       │       └── ...       # 更多验证图片
│       ├── labels/            # 存放划分后的标签
│           ├── train/         # 训练集标签
│           │   ├── image1.txt
│           │   ├── image2.txt
│           │   ├── image3.txt
│           │   └── ...       # 更多训练标签
│           ├── val/           # 验证集标签
│               ├── image4.txt
│               ├── image5.txt
│               ├── image6.txt
│               └── ...       # 更多验证标签
│       ├── segment.yaml       # 用于 YOLOv8 训练的配置文件

3.3 下载预训练权重

3.3.1 YOLOv8-Segment 预训练权重(已停用)

  • yolov8-segment 根目录下创建一个文件夹 weights
  • 打开 开源工具包/YOLOv8分割预训练权重,点击"下载zip"

在这里插入图片描述

  • 解压其目录下的"YOLOv8分割预训练权重.zip"内容至weights文件夹

在这里插入图片描述

3.3.2 YOLOv11-Segment 预训练权重

  • yolov8-egment 根目录下创建一个文件夹 weights ,打开 Ultralytics 官方文档中关于 YOLOv11 分割任务的说明页面,下滑找到预训练权重,点击下载至 weights 文件夹(下载预训练权重)

在这里插入图片描述
以下是weights的示例目录结构:

yolov8-segment/
├── weights/
	├── yolo11n-segment.pt
	├── yolo11s-segment.pt
	├── yolo11m-segment.pt
	├── ...

四、训练模型

训练命令

Pycharm本地终端使用以下命令启动训练:

yolo train task=segment data=datasets/segment/seg/segment.yaml model=weights/yolo11s-seg.pt epochs=50 imgsz=640 batch=8 workers=0 device=0

在这里插入图片描述

  • 该命令表示使用 YOLOv8 的分割任务 (segment),加载自定义权重 yolo11s-seg.pt,基于配置文件 segment.yaml 中的数据集,训练 50 个轮次,每次训练 8 张图片,输入图像尺寸为 640,使用第 0 块 GPU 进行训练。

  • 提示:您可以根据设备配置或训练需求,灵活调整如 epochs(训练轮次)、batch(批次大小)和 imgsz(图像尺寸)等参数,以优化训练效率和性能。

参数含义示例值
train操作模式,指定当前命令为训练模式。必须明确指定 train
task指定任务类型。segment(实例分割)、detect(目标检测)
data数据集配置文件路径,定义训练集、验证集路径及类别信息。datasets/segment/seg/segment.yaml
model预训练权重文件路径,用于微调训练。weights/yolo11s-seg.ptyolov8n-seg.pt
epochs训练的总轮数,表示数据集被遍历的次数。50(快速训练)、100(标准训练)
imgsz输入图像的尺寸(宽和高),所有图片会被缩放到这个大小进行训练。640(默认值,推荐)、512(较小尺寸)
batch每次训练的图片数量(批次大小),越大需要的显存越多。8(低显存设备)、16(推荐值)、32
workers数据加载线程数,0 表示使用主线程,适合 Windows 系统或资源受限的设备。0(默认值)、4(推荐)、8(多线程加载)
device指定训练设备。可以使用 GPU 或 CPU,数字代表 GPU 编号。0(第 0 块 GPU)、1(第 1 块 GPU)、cpu (使用CPU)

运行结果

训练完成后,模型权重和日志文件将保存在默认的 runs/segment/train 文件夹中,可以通过以下方式查看:

  • 权重文件runs/segment/train/weights/ 下包含最新的训练权重(last.pt)和最佳权重(best.pt)。
  • 训练日志:包含训练精度、损失值等信息。

五、验证测试

1、推理命令

使用 YOLOv8-Segment 进行实例分割推理测试:

yolo predict task=segment model=runs/segment/train/weights/best.pt source=/path/to/image.jpg conf=0.25 show=True
  • task=segment:指定任务类型为实例分割。
  • model:训练生成的模型权重路径。
  • source:指定推理的输入源,支持以下几种格式:
    • 单张图片/path/to/image.jpg
    • 文件夹(多张图片)/path/to/images/
    • 视频文件/path/to/video.mp4
    • 摄像头:使用 0 表示默认摄像头。
    • 网络流:支持 RTSP/HTTP URL,例如 rtsp://username:password@ip_address:port
  • conf:置信度阈值,默认为 0.25,设置更高的值可减少低置信度结果。
  • iou:IOU 阈值,默认为 0.45,调整后可以控制重叠目标的处理。
  • save:是否保存预测结果,默认开启。
  • show:是否直接显示推理结果。
  • device:指定运行设备
    • GPU:0(第 0 块 GPU)、1(第 1 块 GPU)。
    • CPU:"cpu"

2、自定义脚本

  • yolov8-segment 根目录下创建 segment_detect.py,内容如下:
from ultralytics import YOLO

# 加载训练好的模型
model = YOLO("runs/segment/train/weights/best.pt")  # 替换为实际的权重路径

# 执行推理
model.predict(
    task="segment",                # 指定任务类型为实例分割
    source="path/to/image.jpg",    # 输入源:图片、视频、文件夹或摄像头(如 0 表示摄像头)
    conf=0.25,                     # 置信度阈值,过滤低置信度目标
    iou=0.45,                      # IOU 阈值,控制目标框的重叠过滤
    save=True,                     # 是否保存预测结果,默认保存到指定目录
    save_txt=False,                # 是否保存预测结果为文本
    save_conf=False,               # 是否保存预测框的置信度值
    show=True,                     # 是否实时显示预测结果
    device=0                       # 使用设备(0 表示第 0 块 GPU,或者 'cpu' 表示使用 CPU)
)

运行后,分割结果会保存到 runs/segment/predict 目录中,结果图片中将包含分割区域的掩码和轮廓,便于观察分割效果。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2242064.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

mac2019环境 Airflow+hive+spark+hadoop本地环境安装

1 环境介绍 本地安装可分为两个部分&#xff0c;mac软件环境&#xff0c; python开发环境 ps: 安装过程参考chatgpt、csdn文章 1.1 mac软件环境 目标安装的的软件是hive、apache-spark、hadoop&#xff0c;但是这三个软件又依赖java(spark依赖&#xff09;、ssh&#xff08…

1.7 JS性能优化

从输入url到页面加载完成都做了些什么 输入 URL - 资源定位符 http://www.zhaowa.com - http 协议 域名解析 https://www.zhaowa.com > ip 1. 切HOST&#xff1f; > 浏览器缓存映射、系统、路由、运营商、根服务器 2. 实际的静态文件存放&#xff1f; 大流量 > 多个…

【Ansible常用命令+模块+Playbook+Roles】

Ansible 一、命令1.1 常用命令 二、模块2.1 shell模块2.2 复制模块2.3 用户模块2.4 软件包管理2.5 服务模块2.6 文件模块2.7 收集模块2.8 fetch2.9 cron2.10 group2.11 script2.12 unarchive 三、YAML Roles3.1 目录结构3.2 文件内容tasks/main.yamlnginx.conf.j2vars/main.yam…

Oracle19C AWR报告分析之Wait Classes by Total Wait Time

Oracle19C AWR报告分析之Wait Classes by Total Wait Time 一、分析数据二、详细分析2.1 指标参数介绍2.2 数据库性能分析2.3 综合性能评估 在 Oracle 数据库的 AWR 报告中&#xff0c;Wait Classes by Total Wait Time 是评估数据库性能的重要部分。本篇文章主要是介绍指标参数…

嵌入式硬件电子电路设计(五)MOS管详解(NMOS、PMOS、三极管跟mos管的区别)

引言&#xff1a;在我们的日常使用中&#xff0c;MOS就是个纯粹的电子开关&#xff0c;虽然MOS管也有放大作用&#xff0c;但是几乎用不到&#xff0c;只用它的开关作用&#xff0c;一般的电机驱动&#xff0c;开关电源&#xff0c;逆变器等大功率设备&#xff0c;全部使用MOS管…

问题大集-01-kafka问题

1、问题&#xff1a;Windows下启动单机kafka出现&#xff1a;系统找不到指定路径 解决&#xff1a; 是kafka不能识别本机的java环境&#xff08;JVM&#xff09;&#xff0c;故需要指定java路径&#xff0c; 进入kafka路径下的\bin\windows&#xff0c;找到&#xff1a;kafk…

C++ 的发展

目录 C 的发展总结&#xff1a;​编辑 1. C 的早期发展&#xff08;1979-1985&#xff09; 2. C 标准化过程&#xff08;1985-1998&#xff09; 3. C 标准演化&#xff08;2003-2011&#xff09; 4. C11&#xff08;2011年&#xff09; 5. C14&#xff08;2014年&#xf…

Ubuntu问题 -- 允许ssh使用root用户登陆

目的 新重装的系统, 普通用户可以使用ssh登陆服务器, 但是root不能使用ssh登陆 方法 vim 编辑ssh配置文件 sudo vim /etc/ssh/sshd_config找到 PermitRootLogin 这一行, 把后面值改成 yes 重启ssh sudo service sshd restart然后使用root账号登陆即可

HarmonyOS4+NEXT星河版入门与项目实战--------开发工具与环境准备

文章目录 1、熟悉鸿蒙官网1、打开官网2、下载 DevEco Studio3、HarmonyOS 资源库4、开发指南与API 2、安装 DevEco Studio1、软件安装2、配置开发工具 1、熟悉鸿蒙官网 1、打开官网 百度搜索 鸿蒙开发者官网 点击进入开发者官网&#xff0c;点击开发&#xff0c;可以看到各种…

使用 start-local 脚本在本地运行 Elasticsearch

警告&#xff1a;请勿将这些说明用于生产部署 本页上的说明仅适用于本地开发。请勿将此配置用于生产部署&#xff0c;因为它不安全。请参阅部署选项以获取生产部署选项列表。 使用 start-local 脚本在 Docker 中快速设置 Elasticsearch 和 Kibana 以进行本地开发或测试。 此设…

【大数据学习 | HBASE高级】hbase-phoenix 与二次索引应用

1. hbase-phoenix的应用 1.1 概述&#xff1a; 上面我们学会了hbase的操作和原理&#xff0c;以及外部集成的mr的计算方式&#xff0c;但是我们在使用hbase的时候&#xff0c;有的时候我们要直接操作hbase做部分数据的查询和插入&#xff0c;这种原生的方式操作在工作过程中还…

Nginx server_name配置错误导致路由upstream超时问题

一、问题描述 某次本平台和外部平台接口调用&#xff0c;同样Nginx location配置&#xff0c;测试环境调用正常&#xff0c;生产环境调用返回失败&#xff1b; 相关链接&#xff1a;Nginx官方文档、server_name、How nginx processes a request 二、排查处理 1&#xff09…

Android Studio 控制台输出的中文显示乱码

1. Android Studio 控制台输出的中文显示乱码 1.1. 问题 安卓在调试阶段&#xff0c;需要查看app运行时的输出信息、出错提示信息。乱码&#xff0c;会极大的阻碍开发者前进的信心&#xff0c;不能及时的根据提示信息定位问题&#xff0c;因此我们需要查看没有乱码的打印信息。…

linux001.在Oracle VM VirtualBox中ubuntu虚拟系统扩容

1.打开终端切换到virtualBox安装目录 2.输入命令扩容 如上终端中的代码解释&#xff1a; D:\Program Files\Oracle\VirtualBox>.\VBoxManage modifyhd D:\ubuntu18.04\Ubuntu18.04\Ubuntu18.04.vdi --resize 40960如上代码说明&#xff1a;D:\Program Files\Oracle\Virtual…

【桌面应用程序】Vue-Electron 环境构建、打包与测试(Windows)

前言 Vue 与 Electron 环境构建、打包与测试。 目录 前言 一、基本环境准备 二、配置npm源 三、创建Vue项目 四、添加Electron支持 五、应用启动 ​六、添加UI框架 ElementUI ​七、打包 一、基本环境准备 npm版本&#xff1a;8.6.0node版本&#xff1a;v18.0.0Vue/…

C#获取视频第一帧_腾讯云媒体处理获取视频第一帧

一、 使用步骤&#xff1a; 第一步、腾讯云开启万象 第二步、安装Tencent.QCloud.Cos.Sdk 包 第三步、修改 腾讯云配置 图片存储目录配置 第四步、执行获取图片并保存 二、封装代码 using System.Text; using System.Threading.Tasks;using COSXML.Model.CI; using COSXML.A…

Jav项目实战II基于微信小程序的助农扶贫的设计与实现(开发文档+数据库+源码)

目录 一、前言 二、技术介绍 三、系统实现 四、文档参考 五、核心代码 六、源码获取 全栈码农以及毕业设计实战开发&#xff0c;CSDN平台Java领域新星创作者&#xff0c;专注于大学生项目实战开发、讲解和毕业答疑辅导。获取源码联系方式请查看文末 一、前言 在当前社会…

ffmpeg+D3D实现的MFC音视频播放器,支持录像、截图、音视频播放、码流信息显示等功能

一、简介 本播放器是在vs2019 x86下开发&#xff0c;通过ffmpeg实现拉流解码功能&#xff0c;通过D3D实现视频的渲染功能。截图功能采用libjpeg实现&#xff0c;可以截取jpg图片&#xff0c;图片的默认保存路径是在C:\MYRecPath中。录像功能采用封装好的类Mp4Record实现&#x…

springboot 之 整合springdoc2.6 (swagger 3)

版本 springboot 3.3.5 jdk 17 springdoc 2.6.0 依赖pom <dependency><groupId>org.springdoc</groupId><artifactId>springdoc-openapi-starter-webmvc-ui</artifactId><version>2.6.0</version> </dependency>注解对比…

ADS学习笔记 5. 微带天线设计

基于ADS2023 update2 参考书籍&#xff1a;卢益锋老师《ADS射频电路设计与仿真学习笔记》 更多笔记&#xff1a;ADS学习笔记 1. 功率放大器设计ADS学习笔记 2. 低噪声放大器设计ADS学习笔记 3. 功分器设计ADS学习笔记 4. 微带分支定向耦合器设计 目录 0、设计指标 1、微带…