第五篇【传奇开心果系列】Python文本和语音相互转换库技术点案例示例:详细解读pyttsx3的`preprocess_text`函数文本预处理。

news2024/12/23 3:24:45

传奇开心果短博文系列

  • 系列短博文目录
    • Python文本和语音相互转换库技术点案例示例系列
  • 短博文目录
    • 前言
    • 一、pyttsx3的`preprocess_text`函数文本预处理基本用法示例代码
    • 二、实现更复杂的文本预处理逻辑示例代码
    • 三、去除停用词、词干提取示例代码
    • 四、词形还原、拼写纠正示例代码
    • 五、实体识别、去除HTML标签示例代码
    • 六、去除URL链接、处理缩写词示例代码
    • 七、处理特定的符号、处理特定的文本模式示例代码
    • 八、归纳总结

系列短博文目录

Python文本和语音相互转换库技术点案例示例系列

短博文目录

前言

在这里插入图片描述
在这里插入图片描述pyttsx3在文本转换语音之前,首先要开展系列步骤的文本预处理工作。
这些预处理步骤可以在使用pyttsx3之前应用于文本,以提高转换结果的质量和可读性。预处理后的文本更干净、准确,可以更好地用于语音转换。pyttsx3主要使用preprocess_text函数开展文本预处理。

一、pyttsx3的preprocess_text函数文本预处理基本用法示例代码

在这里插入图片描述
在这里插入图片描述下面是一个使用pyttsx3库进行文本预处理基本用法的示例代码:

import pyttsx3

def preprocess_text(text):
    # 移除文本中的特殊字符
    processed_text = ''.join(e for e in text if e.isalnum() or e.isspace())
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    return processed_text

# 创建一个TTS引擎
engine = pyttsx3.init()

# 设置预处理文本
text = "Hello, World! This is a text-to-speech example."

# 预处理文本
processed_text = preprocess_text(text)

# 使用TTS引擎朗读预处理后的文本
engine.say(processed_text)
engine.runAndWait()

在上面的示例代码中,preprocess_text函数用于对文本进行预处理。它首先移除文本中的特殊字符,然后将文本转换为小写。这样可以确保文本在朗读之前被正确处理。

然后,我们使用pyttsx3.init()方法初始化一个TTS引擎。接下来,我们设置要朗读的文本,并将其传递给preprocess_text函数进行预处理。最后,使用engine.say()方法将预处理后的文本传递给TTS引擎进行朗读,然后使用engine.runAndWait()方法等待朗读完成。

你可以根据自己的需求修改preprocess_text函数,以实现更复杂的文本预处理逻辑。

二、实现更复杂的文本预处理逻辑示例代码

在这里插入图片描述在这里插入图片描述
下面是一个修改后的preprocess_text函数,实现了更复杂的文本预处理逻辑:

import re

def preprocess_text(text):
    # 移除文本中的特殊字符和标点符号
    processed_text = re.sub(r'[^\w\s]', '', text)
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    # 移除多余的空格
    processed_text = re.sub(r'\s+', ' ', processed_text)
    
    return processed_text

在这个修改后的函数中,我们使用了re模块的正则表达式功能。首先,我们使用re.sub()函数和正则表达式[^\w\s]来移除文本中的特殊字符和标点符号。这个正则表达式表示匹配除了字母、数字、下划线和空格之外的任何字符。然后,我们将文本转换为小写,并使用re.sub()函数和正则表达式\s+来移除多余的空格,将连续的多个空格替换为一个空格。

这样,预处理后的文本将只包含小写字母、数字、下划线和单个空格,没有特殊字符和多余的空格。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,例如去除停用词、词干提取等。

三、去除停用词、词干提取示例代码

在这里插入图片描述
在这里插入图片描述当涉及到去除停用词和词干提取时,可以使用一些自然语言处理库,如nltk(Natural Language Toolkit)来实现。下面是一个修改后的preprocess_text函数,包括去除停用词和词干提取的示例代码:

import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import PorterStemmer

def preprocess_text(text):
    # 移除文本中的特殊字符和标点符号
    processed_text = re.sub(r'[^\w\s]', '', text)
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    # 移除多余的空格
    processed_text = re.sub(r'\s+', ' ', processed_text)
    
    # 去除停用词
    stop_words = set(stopwords.words('english'))
    processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
    
    # 词干提取
    stemmer = PorterStemmer()
    processed_text = ' '.join(stemmer.stem(word) for word in processed_text.split())
    
    return processed_text

在这个修改后的函数中,我们首先导入了nltk库,并从nltk.corpus模块导入了停用词和从nltk.stem模块导入了词干提取器PorterStemmer

然后,在preprocess_text函数中,我们创建了一个停用词集合stop_words,使用set(stopwords.words('english'))加载英文停用词。接下来,我们使用列表推导式和条件判断语句,将不在停用词集合中的单词保留下来,形成一个经过去除停用词的文本。

最后,我们创建了一个词干提取器stemmer,使用PorterStemmer()初始化。然后,使用列表推导式和词干提取器将文本中的每个单词提取出词干,并重新组合成一个经过词干提取的文本。

这样,预处理后的文本将不包含停用词,并且每个单词都被提取为其词干形式。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如词形还原、拼写纠正等。

四、词形还原、拼写纠正示例代码

在这里插入图片描述
在这里插入图片描述要进行词形还原和拼写纠正,我们可以使用nltk库中的WordNetLemmatizerspell模块。下面是一个修改后的preprocess_text函数,包括词形还原和拼写纠正的示例代码:

import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import download
from spellchecker import SpellChecker

def preprocess_text(text):
    # 移除文本中的特殊字符和标点符号
    processed_text = re.sub(r'[^\w\s]', '', text)
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    # 移除多余的空格
    processed_text = re.sub(r'\s+', ' ', processed_text)
    
    # 去除停用词
    stop_words = set(stopwords.words('english'))
    processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
    
    # 词形还原
    download('averaged_perceptron_tagger')
    download('wordnet')
    lemmatizer = WordNetLemmatizer()
    tokens = word_tokenize(processed_text)
    tagged_tokens = pos_tag(tokens)
    processed_text = ' '.join(lemmatizer.lemmatize(word, tag) for word, tag in tagged_tokens)
    
    # 拼写纠正
    spell = SpellChecker()
    processed_text = ' '.join(spell.correction(word) for word in processed_text.split())
    
    return processed_text

在这个修改后的函数中,我们首先导入了nltk库的WordNetLemmatizerword_tokenizepos_tag模块,以及spellchecker库的SpellChecker模块。

然后,在preprocess_text函数中,我们下载了nltk库的averaged_perceptron_taggerwordnet资源,用于词形还原。

接下来,我们创建了一个词形还原器lemmatizer,使用WordNetLemmatizer()初始化。然后,我们使用word_tokenize函数将文本分词为单词列表,使用pos_tag函数为每个单词标记词性,然后使用列表推导式和词形还原器将每个单词还原为其原始形式,最后重新组合成一个经过词形还原的文本。

最后,我们创建了一个拼写纠正器spell,使用SpellChecker()初始化。然后,使用列表推导式和拼写纠正器对文本中的每个单词进行拼写纠正,并重新组合成一个经过拼写纠正的文本。

这样,预处理后的文本将进行词形还原和拼写纠正,以提高文本的质量和准确性。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如实体识别、去除HTML标签等。

五、实体识别、去除HTML标签示例代码

在这里插入图片描述要进行实体识别和去除HTML标签,我们可以使用nltk库中的ne_chunkBeautifulSoup模块。下面是一个修改后的preprocess_text函数,包括实体识别和去除HTML标签的示例代码:

import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import ne_chunk
from nltk import download
from spellchecker import SpellChecker
from bs4 import BeautifulSoup

def preprocess_text(text):
    # 去除HTML标签
    processed_text = BeautifulSoup(text, "html.parser").get_text()
    
    # 移除文本中的特殊字符和标点符号
    processed_text = re.sub(r'[^\w\s]', '', processed_text)
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    # 移除多余的空格
    processed_text = re.sub(r'\s+', ' ', processed_text)
    
    # 去除停用词
    stop_words = set(stopwords.words('english'))
    processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
    
    # 词形还原
    download('averaged_perceptron_tagger')
    download('wordnet')
    lemmatizer = WordNetLemmatizer()
    tokens = word_tokenize(processed_text)
    tagged_tokens = pos_tag(tokens)
    processed_text = ' '.join(lemmatizer.lemmatize(word, tag) for word, tag in tagged_tokens)
    
    # 拼写纠正
    spell = SpellChecker()
    processed_text = ' '.join(spell.correction(word) for word in processed_text.split())
    
    # 实体识别
    tagged_tokens = pos_tag(word_tokenize(processed_text))
    processed_text = ' '.join(chunk.label() if hasattr(chunk, 'label') else chunk[0] for chunk in ne_chunk(tagged_tokens))
    
    return processed_text

在这个修改后的函数中,我们首先导入了nltk库的ne_chunk模块,以及BeautifulSoup模块来处理HTML标签。

然后,在preprocess_text函数中,我们使用BeautifulSoup模块的BeautifulSoup(text, "html.parser").get_text()方法去除文本中的HTML标签。

接下来,我们继续之前的步骤,包括移除特殊字符和标点符号、转换为小写、移除多余的空格、去除停用词、词形还原和拼写纠正。

最后,我们使用pos_tag函数将文本中的单词标记词性,然后使用ne_chunk函数进行实体识别。我们使用列表推导式和条件判断语句,将识别出的实体标签保留下来,形成一个经过实体识别的文本。

这样,预处理后的文本将进行实体识别和去除HTML标签,以进一步提高文本的质量和准确性。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如去除URL链接、处理缩写词等。

六、去除URL链接、处理缩写词示例代码

在这里插入图片描述要去除URL链接和处理缩写词,我们可以使用正则表达式来匹配和替换文本中的URL链接,以及使用一个缩写词词典来进行缩写词的替换。下面是一个修改后的preprocess_text函数,包括去除URL链接和处理缩写词的示例代码:

import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import ne_chunk
from nltk import download
from spellchecker import SpellChecker
from bs4 import BeautifulSoup

def preprocess_text(text):
    # 去除HTML标签
    processed_text = BeautifulSoup(text, "html.parser").get_text()
    
    # 去除URL链接
    processed_text = re.sub(r'http\S+|www.\S+', '', processed_text)
    
    # 移除文本中的特殊字符和标点符号
    processed_text = re.sub(r'[^\w\s]', '', processed_text)
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    # 移除多余的空格
    processed_text = re.sub(r'\s+', ' ', processed_text)
    
    # 去除停用词
    stop_words = set(stopwords.words('english'))
    processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
    
    # 处理缩写词
    abbreviations = {
        "can't": "cannot",
        "won't": "will not",
        "it's": "it is",
        # 添加其他缩写词和对应的替换
    }
    processed_text = ' '.join(abbreviations.get(word, word) for word in processed_text.split())
    
    # 词形还原
    download('averaged_perceptron_tagger')
    download('wordnet')
    lemmatizer = WordNetLemmatizer()
    tokens = word_tokenize(processed_text)
    tagged_tokens = pos_tag(tokens)
    processed_text = ' '.join(lemmatizer.lemmatize(word, tag) for word, tag in tagged_tokens)
    
    # 拼写纠正
    spell = SpellChecker()
    processed_text = ' '.join(spell.correction(word) for word in processed_text.split())
    
    # 实体识别
    tagged_tokens = pos_tag(word_tokenize(processed_text))
    processed_text = ' '.join(chunk.label() if hasattr(chunk, 'label') else chunk[0] for chunk in ne_chunk(tagged_tokens))
    
    return processed_text

在这个修改后的函数中,我们首先导入了re模块,用于处理正则表达式匹配和替换。

然后,在preprocess_text函数中,我们使用re.sub函数和正则表达式r'http\S+|www.\S+'来匹配和替换文本中的URL链接。这样,我们可以将URL链接从文本中去除。

接下来,我们继续之前的步骤,包括去除HTML标签、移除特殊字符和标点符号、转换为小写、移除多余的空格、去除停用词、处理缩写词、词形还原和拼写纠正。

在处理缩写词时,我们创建了一个缩写词词典abbreviations,其中包含了一些常见的缩写词和对应的替换。你可以根据需要添加其他的缩写词和替换到这个词典中。

最后,我们使用pos_tag函数将文本中的单词标记词性,然后使用ne_chunk函数进行实体识别。我们使用列表推导式和条件判断语句,将识别出的实体标签保留下来,形成一个经过实体识别的文本。

这样,预处理后的文本将去除URL链接、处理缩写词,并进行其他的预处理步骤,以进一步提高文本的质量和准确性。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如处理特定的符号、处理特定的文本模式等。

七、处理特定的符号、处理特定的文本模式示例代码

在这里插入图片描述根据你的需求,你可以进一步修改preprocess_text函数,添加其他的预处理步骤,如处理特定的符号、处理特定的文本模式等。下面是一个示例代码,包括处理特定符号和处理特定文本模式的预处理步骤:

import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import ne_chunk
from nltk import download
from spellchecker import SpellChecker
from bs4 import BeautifulSoup

def preprocess_text(text):
    # 去除HTML标签
    processed_text = BeautifulSoup(text, "html.parser").get_text()
    
    # 去除URL链接
    processed_text = re.sub(r'http\S+|www.\S+', '', processed_text)
    
    # 移除文本中的特殊字符和标点符号
    processed_text = re.sub(r'[^\w\s]', '', processed_text)
    
    # 处理特定符号
    processed_text = re.sub(r'\$', ' dollar ', processed_text)
    processed_text = re.sub(r'%', ' percent ', processed_text)
    
    # 将文本转换为小写
    processed_text = processed_text.lower()
    
    # 移除多余的空格
    processed_text = re.sub(r'\s+', ' ', processed_text)
    
    # 去除停用词
    stop_words = set(stopwords.words('english'))
    processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
    
    # 处理缩写词
    abbreviations = {
        "can't": "cannot",
        "won't": "will not",
        "it's": "it is",
        # 添加其他缩写词和对应的替换
    }
    processed_text = ' '.join(abbreviations.get(word, word) for word in processed_text.split())
    
    # 词形还原
    download('averaged_perceptron_tagger')
    download('wordnet')
    lemmatizer = WordNetLemmatizer()
    tokens = word_tokenize(processed_text)
    tagged_tokens = pos_tag(tokens)
    processed_text = ' '.join(lemmatizer.lemmatize(word, tag) for word, tag in tagged_tokens)
    
    # 拼写纠正
    spell = SpellChecker()
    processed_text = ' '.join(spell.correction(word) for word in processed_text.split())
    
    # 实体识别
    tagged_tokens = pos_tag(word_tokenize(processed_text))
processed_text = ' '.join(chunk.label() if hasattr(chunk, 'label') else chunk[0] for chunk in ne_chunk(tagged_tokens))

    # 处理特定文本模式
    # 示例:将日期格式统一为YYYY-MM-DD
    processed_text = re.sub(r'\b(\d{1,2})[/-](\d{1,2})[/-](\d{2,4})\b', r'\3-\1-\2', processed_text)
    
    # 示例:将电话号码格式统一为xxx-xxx-xxxx
    processed_text = re.sub(r'\b(\d{3})[ -]?(\d{3})[ -]?(\d{4})\b', r'\1-\2-\3', processed_text)
    
    return processed_text

在这个示例代码中,我们添加了两个处理特定文本模式的预处理步骤:

  1. 将日期格式统一为YYYY-MM-DD:使用正则表达式\b(\d{1,2})[/-](\d{1,2})[/-](\d{2,4})\b匹配日期格式,并使用替换模式\3-\1-\2将日期格式统一为YYYY-MM-DD。

  2. 将电话号码格式统一为xxx-xxx-xxxx:使用正则表达式\b(\d{3})[ -]?(\d{3})[ -]?(\d{4})\b匹配电话号码格式,并使用替换模式\1-\2-\3将电话号码格式统一为xxx-xxx-xxxx。

八、归纳总结

在这里插入图片描述下面是对pyttsx3中的preprocess_text函数进行归纳总结的知识点:

  1. HTML标签去除:使用BeautifulSoup库去除文本中的HTML标签,以确保纯文本的输入。

  2. URL链接去除:使用正则表达式re.sub函数去除文本中的URL链接。

  3. 特殊字符和标点符号去除:使用正则表达式re.sub函数去除文本中的特殊字符和标点符号。

  4. 特定符号处理:使用正则表达式re.sub函数或字符串替换操作,处理特定的符号,如将$符号替换为单词dollar,将%符号替换为单词percent,将@符号替换为单词at等。

  5. 文本转换为小写:使用str.lower方法将文本转换为小写,以统一大小写格式。

  6. 多余空格移除:使用正则表达式re.sub函数去除文本中的多余空格。

  7. 停用词去除:使用NLTK库的stopwords模块获取停用词列表,将文本中的停用词去除。

  8. 缩写词处理:定义一个包含缩写词和对应替换的字典,将文本中的缩写词替换为对应的全写形式。

  9. 词形还原:使用NLTK库的WordNetLemmatizer词形还原器,对文本中的单词进行词形还原处理。

  10. 拼写纠正:使用spellchecker库的SpellChecker类,对文本中的拼写错误进行纠正。

  11. 实体识别:使用NLTK库的ne_chunk函数对文本中的实体进行识别,例如人名、地名等。

  12. 特定文本模式处理:使用正则表达式re.sub函数,处理特定的文本模式,例如统一日期格式、电话号码格式等。

在这里插入图片描述这些预处理步骤可以根据需要进行选择和修改,以适应特定的应用场景和文本数据。预处理后的文本更干净、准确,可以更好地用于后续的语音转换。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1460820.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

力扣面试150 验证回文串 双指针 Character API

Problem: 125. 验证回文串 文章目录 思路复杂度Code 思路 👨‍🏫 参考题解 Character.isLetterorDigit(char c):判读字符 c 是否是字母或者数字 Character.toLowerCase(char c):将字符 c 转换为小写字母 复杂度 时间复杂度: …

基于vue的个性化推荐餐饮系统Springboot

项目:基于vue的个性化推荐餐饮系统Springboot 摘要 现代信息化社会下的数据管理对活动的重要性越来越为明显,人们出门可以通过网络进行交流、信息咨询、查询等操作。网络化生活对人们通过网上购物也有了非常大的考验,通过网上进行点餐的人也…

「Java开发指南」MyEclipse如何支持Spring Scaffolding?(三)

在上文中(点击这里回顾>>),主要为大家介绍了CRUD Scaffolding,本文将继续介绍应用程序的分层、代码助手等。 MyEclipse v2023.1.2离线版下载 3. 应用程序的分层 应用程序分层是应用程序开发领域中非常常见的体系结构方法…

欲速则不达,慢就是快!

引言 随着生活水平的提高,不少人的目标从原先的解决温饱转变为追求内心充实,但由于现在的时间过得越来越快以及其他外部因素,我们对很多东西的获取越来越没耐心,例如书店经常会看到《7天精通Java》、《3天掌握XXX》等等之类的书籍…

算法沉淀——二叉树中的深搜(leetcode真题剖析)

算法沉淀——二叉树中的深搜 01.计算布尔二叉树的值02.求根节点到叶节点数字之和03.二叉树剪枝04.验证二叉搜索树05.二叉搜索树中第K小的元素06.二叉树的所有路径 二叉树的深度优先搜索是一种遍历二叉树的方法,它通过深度递归的方式探索树的结构。有两种主要形式&am…

【洛谷 P8780】[蓝桥杯 2022 省 B] 刷题统计 题解(贪心算法+模拟+四则运算)

[蓝桥杯 2022 省 B] 刷题统计 题目描述 小明决定从下周一开始努力刷题准备蓝桥杯竞赛。他计划周一至周五每天做 a a a 道题目,周六和周日每天做 b b b 道题目。请你帮小明计算,按照计划他将在第几天实现做题数大于等于 n n n 题? 输入格式 输入一…

机器人内部传感器阅读笔记及心得-位置传感器-光电编码器

目前,机器人系统中应用的位置传感器一般为光电编码器。光电编码器是一种应用广泛的位置传感器,其分辨率完全能满足机器人的技术要求,这种非接触型位置传感器可分为绝对型光电编码器和相对型光电编码器。前者只要将电源加到用这种传感器的机电…

智慧驿站_智慧文旅驿站_轻松的驿站智慧公厕_5G智慧公厕驿站_5G模块化智慧公厕

多功能城市智慧驿站是在智慧城市建设背景下,所涌现的一种创新型社会配套设施。其中,智慧公厕作为城市智慧驿站的重要功能基础,具备社会配套不可缺少的特点,所以在应用场景上,拥有广泛的需求和要求。那么,城…

基于深度学习的红肉新鲜过期判决系统matlab仿真

目录 1.算法运行效果图预览 2.算法运行软件版本 3.部分核心程序 4.算法理论概述 4.1 系统构成与流程 4.2 模型训练与优化 5.算法完整程序工程 1.算法运行效果图预览 2.算法运行软件版本 MATLAB2022a 3.部分核心程序 ...............................................…

Open CASCADE学习|为什么由Edge生成Wire不成功?

Wire 是一种复合形状,不是由几何形状构建的,而是由边缘的装配构建的。BRepBuilderAPI_MakeWire类可以从一个或多个Edge构建Wire,或将新Edge连接到现有Wire。 BRepBuilderAPI_MakeWire 类将Edge连接到Wire。添加新Edge时,如果其顶点…

力扣基础刷题---二分查找

704. 二分查找 给定一个 n 个元素有序的(升序)整型数组 nums 和一个目标值 target ,写一个函数搜索 nums 中的 target,如果目标值存在返回下标,否则返回 -1。 中心思想:找到中间值,跟中间值比…

区块链游戏解说:什么是 Nine Chronicles

作者:lesleyfootprint.network 编译:cicifootprint.network 数据源: Nine Chronicles Dashboard 什么是 Nine Chronicles Nine Chronicles 是一款去中心化的在线角色扮演游戏,标志着在线游戏和区块链技术的发展。 Nine Chroni…

阿里云OTA升级指南

阿里云OTA升级指南 OTA简介 OTA是Over-The-Air的缩写,中文意为“通过空中传输”。在计算机和通信技术领域中,OTA指的是通过无线网络等方式将软件、固件、配置文件等更新、下载、安装到设备上的一种技术手段。它可以实现远程升级和管理设备的软件和配置…

【Python】 剪辑法欠采样 CNN压缩近邻法欠采样

借鉴:关于K近邻(KNN),看这一篇就够了!算法原理,kd树,球树,KNN解决样本不平衡,剪辑法,压缩近邻法 - 知乎 但是不要看他里面的代码,因为作者把代码…

Paddlepaddle使用自己的VOC数据集训练目标检测(0废话简易教程)

一 安装paddlepaddle和paddledection(略) 笔者使用的是自己的数据集 二 在dataset目录下新建自己的数据集文件,如下: 其中 xml文件内容如下: 另外新建一个createList.py文件: # -- coding: UTF-8 -- imp…

云打印api接口收费吗?

随着近来云打印服务的发展,越来越多的用户都开始选择云打印服务。很多工具类、学习累的App和软件看到了这其中的甜头,也都想要对接云打印业务来完成变现。对接云打印服务则需要找到合适的平台进行api对接。那么云打印api接口收费吗?收费标准是…

TF卡辨别指南|拓优星辰

在存储领域,TF卡(MicroSD卡)是一种常见的存储设备,但市场上也存在着各种品牌和型号。为了帮助用户准确辨别TF卡,我们提供了以下辨别指南,以确保用户能够选择符合其需求的高性能、高可靠性的TF卡。 二、外观…

数据结构笔记1线性表及其实现

终于开始学习数据结构了 c语言结束之后 我们通过题目来巩固了 接下来我们来学习数据结构 这里我们将去认识到数据结构的一些基础知识,我在第一次学习的时候会很迷糊现在重新学习发现之前的时候还是因为c语言学的不牢固导致学习数据结构困难 这里 我会尽量的多写代码…

fast-planner代码解读【kino_replan_fsm.cpp】

概述 kino_replan_fsm.cpp订阅实时定位和目标点信息,每隔0.01s执行一次状态机,进行状态切换;每隔0.05s执行一次碰撞检测,按需进行重新规划。核心为执行变量exec_state_ 主要函数及作用 KinoReplanFSM::init 输入:句…

SD-WAN解决方案:企业异地组网挑战之视频会议

随着企业的发展,不少企业开始面临规模扩大、分公司组建、异地办公的需求。其中,远程视频会议作为企业异地管理和运营的重要组成部分,对网络稳定性和视频传输质量有较高的要求。在本文,我们将探讨企业视频会议遇到的网络问题以及这…