Python 实现 NLP 的完整流程

news2025/1/17 6:06:22

💖 欢迎来到我的博客! 非常高兴能在这里与您相遇。在这里,您不仅能获得有趣的技术分享,还能感受到轻松愉快的氛围。无论您是编程新手,还是资深开发者,都能在这里找到属于您的知识宝藏,学习和成长。

🔍 博客内容包括:

  • Java核心技术与微服务:涵盖Java基础、JVM、并发编程、Redis、Kafka、Spring等,帮助您全面掌握企业级开发技术。
  • 大数据技术:涵盖Hadoop(HDFS)、Hive、Spark、Flink、Kafka、Redis、ECharts、Zookeeper等相关技术。
  • 开发工具:分享常用开发工具(IDEA、Git、Mac、Alfred、Typora等)的使用技巧,提升开发效率。
  • 数据库与优化:总结MySQL及其他常用数据库技术,解决实际工作中的数据库问题。
  • Python与大数据:专注于Python编程语言的深度学习,数据分析工具(如Pandas、NumPy)和大数据处理技术,帮助您掌握数据分析、数据挖掘、机器学习等技术。
  • 数据结构与算法:总结数据结构与算法的核心知识,提升编程思维,帮助您应对大厂面试挑战。

🌟 我的目标:持续学习与总结,分享技术心得与解决方案,和您一起探索技术的无限可能!在这里,我希望能与您共同进步,互相激励,成为更好的自己。

📣 欢迎订阅本专栏,与我一起在这个知识的海洋中不断学习、分享和成长!💻🚀


📍版权声明:本博客所有内容均为原创,遵循CC 4.0 BY-SA协议,转载请注明出处。

目录

1. 安装和导入必要的库

2. 文本数据准备

3. 文本预处理

3.1 小写化

3.2 分词(Tokenization)

3.3 去除停用词

3.4 词干提取(Stemming)

4. 特征提取

5. 训练测试数据集划分

6. 训练模型

7. 评估模型

8. 模型预测

9. 总结



1. 安装和导入必要的库

首先,确保已安装必要的 NLP 库:

pip install numpy pandas matplotlib scikit-learn nltk spacy

然后导入必要的 Python 库:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import accuracy_score, confusion_matrix
import nltk
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
import spacy

2. 文本数据准备

在实际应用中,你可能需要从文件、数据库或网页中获取文本数据。这里我们以一个简单的文本数据集为例:

# 示例文本数据
data = {
    'text': [
        "I love programming in Python.",
        "Python is a great language for machine learning.",
        "Natural language processing is fun!",
        "I enjoy solving problems using code.",
        "Deep learning and NLP are interesting fields.",
        "Machine learning and AI are revolutionizing industries."
    ],
    'label': [1, 1, 1, 0, 1, 0]  # 1表示正面情感,0表示负面情感
}

df = pd.DataFrame(data)
print(df)

3. 文本预处理

文本预处理是 NLP 的关键步骤,通常包括:分词、去除停用词、词干提取和小写化。

3.1 小写化

将文本中的所有字母转换为小写,确保词汇的一致性。

# 小写化
df['text'] = df['text'].apply(lambda x: x.lower())
3.2 分词(Tokenization)

分词是将一段文本分割成一个个单独的词。

nltk.download('punkt')  # 下载 punkt 分词器

# 分词
df['tokens'] = df['text'].apply(word_tokenize)
print(df['tokens'])
3.3 去除停用词

停用词是一些常见但不携带实际信息的词,如 "the", "is", "and" 等。我们需要去除这些词。

nltk.download('stopwords')  # 下载停用词库

stop_words = set(stopwords.words('english'))

# 去除停用词
df['tokens'] = df['tokens'].apply(lambda x: [word for word in x if word not in stop_words])
print(df['tokens'])
3.4 词干提取(Stemming)

词干提取是将词语还原为其基本形式(词干)。例如,将“running”还原为“run”。

from nltk.stem import PorterStemmer

stemmer = PorterStemmer()

# 词干提取
df['tokens'] = df['tokens'].apply(lambda x: [stemmer.stem(word) for word in x])
print(df['tokens'])

4. 特征提取

文本数据无法直接用于机器学习模型,因此需要将其转换为数字特征。常见的特征提取方法是 TF-IDF(Term Frequency-Inverse Document Frequency)。

# 使用 TF-IDF 向量化文本
vectorizer = TfidfVectorizer()

# 将文本数据转换为 TF-IDF 特征矩阵
X = vectorizer.fit_transform(df['text'])

# 查看转换后的 TF-IDF 特征矩阵
print(X.toarray())

5. 训练测试数据集划分

将数据集分成训练集和测试集,通常是 80% 训练集和 20% 测试集。

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, df['label'], test_size=0.2, random_state=42)

print(f"训练集大小: {X_train.shape}")
print(f"测试集大小: {X_test.shape}")

6. 训练模型

我们使用 朴素贝叶斯(Naive Bayes) 模型来训练数据。朴素贝叶斯是一种常用的分类算法,适用于文本分类任务。

# 创建并训练模型
model = MultinomialNB()
model.fit(X_train, y_train)

7. 评估模型

训练好模型后,我们需要用测试集来评估模型的性能。主要评估指标包括准确率和混淆矩阵。

# 使用测试集进行预测
y_pred = model.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f"模型准确率: {accuracy:.4f}")

# 显示混淆矩阵
conf_matrix = confusion_matrix(y_test, y_pred)
print("混淆矩阵:")
print(conf_matrix)

# 可视化混淆矩阵
plt.matshow(conf_matrix, cmap='Blues')
plt.title("Confusion Matrix")
plt.xlabel('Predicted')
plt.ylabel('True')
plt.colorbar()
plt.show()

8. 模型预测

使用训练好的模型对新的文本数据进行预测。

# 新文本数据
new_text = ["I love learning about AI and machine learning."]

# 文本预处理
new_text = [text.lower() for text in new_text]
new_tokens = [word_tokenize(text) for text in new_text]
new_tokens = [[stemmer.stem(word) for word in tokens if word not in stop_words] for tokens in new_tokens]
new_text_clean = [' '.join(tokens) for tokens in new_tokens]

# 特征提取
new_features = vectorizer.transform(new_text_clean)

# 预测
prediction = model.predict(new_features)
print(f"预测标签: {prediction[0]}")

9. 总结

在这篇文章中,我们展示了一个完整的 NLP 流程,包括:

  1. 文本预处理:小写化、分词、去除停用词、词干提取。
  2. 特征提取:使用 TF-IDF 将文本转换为特征矩阵。
  3. 模型训练:使用朴素贝叶斯分类器进行文本分类。
  4. 模型评估:使用准确率和混淆矩阵来评估模型表现。
  5. 模型预测:对新文本进行预测。

这是一个典型的 NLP 流程,可以根据实际需求进行扩展,加入更多的特征、算法和调优步骤。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2277888.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

AIGC时代:如何快速搞定Spring Boot+Vue全栈开发

文章目录 一、Spring Boot基础二、Vue.js基础三、Spring Boot与Vue.js集成四、性能优化与最佳实践《快速搞定Spring BootVue全栈开发》 内容简介作者简介目录前言/序言本书内容本书特点读者对象 随着人工智能生成内容(AIGC)技术的迅速发展,…

【ArcGIS初学】产生随机点计算混淆矩阵

混淆矩阵:用于比较分类结果和地表真实信息 总体精度(overall accuracy) :指对角线上所有样本的像元数(正确分类的像元数)除以所有像元数。 生产者精度(producers accuracy) :某类中正确分类的像元数除以参考数据中该类的像元数(列方向),又称…

《探秘火焰目标检测开源模型:智能防火的科技利刃》

一、引言 火灾,如同隐藏在暗处的恶魔,时刻威胁着人们的生命财产安全与社会的稳定发展。无论是澳大利亚那场肆虐数月、烧毁约1860万公顷土地、造成近30亿只动物死亡或流离失所的森林大火,还是美国加州频繁爆发、迫使大量居民撤离家园、带来巨额…

计算机网络 (46)简单网络管理协议SNMP

前言 简单网络管理协议(SNMP,Simple Network Management Protocol)是一种用于在计算机网络中管理网络节点的标准协议。 一、概述 SNMP是基于TCP/IP五层协议中的应用层协议,它使网络管理员能够管理网络效能,发现并解决网…

Java并发03 - 无锁三大将

无锁三大将:CAS & Unsafe & Atomic 文章目录 无锁三大将:CAS & Unsafe & Atomic一:CAS机制二:Unsafe魔法指针类2.1:内存管理2.2:对象创建实例2.3:类,实例对象以及变…

JVM远程调试原理剖析

一、如何开启JVM远程调试 当一个 Java 应用启动时,JVM 会根据启动参数配置其运行环境。使用 -agentlib:jdwp 参数启动远程调试功能,JVM 会初始化调试代理。 agentlib:jdwptransportdt_socket,servery,suspendn,address*:5005 -jar your_application.jar…

01、flink的原理和安装部署

flink中主要有两个进程,分别是JobMManager和TaskManager,当然了根据flink的部署和运行环境不同,会有一些不同,但是主要的功能是类似的,下面我会讲下聊下,公司用的多的部署方式,基于yarn集群的部…

浅谈云计算19 | OpenStack管理模块 (上)

OpenStack管理模块(上) 一、操作界面管理架构二、认证管理2.1 定义与作用2.2 认证原理与流程2.2.1 认证机制原理2.2.2 用户认证流程 三、镜像管理3.1 定义与功能3.2 镜像服务架构3.3 工作原理与流程3.3.1 镜像存储原理3.3.2 镜像检索流程 四、计算管理4.…

WXML模版语法-事件绑定

知识点1:什么是事件 事件是渲染层到逻辑层的通讯方式。通过事件可以将用户在渲染层产生的行为,反馈到逻辑层进行业务的处理。 知识点2:小程序中常用的事件 类型绑定方式事件描述tapbindtap或bind:tap手指触摸后马上离开,类似于…

深入解析 `EmailConfig` 配置项

EmailConfig 是 Alertmanager 配置中的一个重要部分,用于配置通过电子邮件发送告警通知。它提供了多种设置选项,以便用户可以灵活配置邮件服务器、认证方式、邮件内容等。 以下是 EmailConfig 配置项的详细分析,帮助你更好地理解其功能&…

Wine 开发系列 —— 如何调试 Wine

本文主要以 Wine 官网的这篇文章 《 Debugging Wine 》 来讲解。大部分内容是对该文的翻译,修正了原文的一些书写错误,删除了原文跟最新的 Wine 不适应的内容。 介绍 常用调试方法 Wine 为调试问题提供了多种方法。大多数 Wine 开发人员更喜欢使用 Win…

【精选】基于EfficientViT优化YOLOv8的智能车辆识别系统设计 车辆颜色分类与车牌检测、深度学习目标检测系统开发

博主介绍: ✌我是阿龙,一名专注于Java技术领域的程序员,全网拥有10W粉丝。作为CSDN特邀作者、博客专家、新星计划导师,我在计算机毕业设计开发方面积累了丰富的经验。同时,我也是掘金、华为云、阿里云、InfoQ等平台…

自动化仓储管理与库存控制

导语 大家好,我是社长,老K。专注分享智能制造和智能仓储物流等内容。欢迎大家到本文底部评论区留言。 完整版文件和更多学习资料,请球友到知识星球【智能仓储物流技术研习社】自行下载 本文是一本关于仓储管理与库存控制的教材,全…

redux 结合 @reduxjs/toolkit 的使用

1,使用步骤 使用React Toolkit 创建 counterStore(store目录下) --> 为React注入store(src下面的index) --> React组件使用store中的数据(组件) 2,例如下面有一个简单加减的…

大模型UI:Gradio全解11——Chatbot:融合大模型的聊天机器人(4)

大模型UI:Gradio全解11——Chatbot:融合大模型的聊天机器人(4) 前言本篇摘要11. Chatbot:融合大模型的多模态聊天机器人11.4 使用Blocks创建自定义聊天机器人11.4.1 简单聊天机器人演示11.4.2 流式传输Chatbot11.4.3 添…

Spring官网构建Springboot工程

注意:基于Idea的 Spring Initializr 快速构建 SpringBoot 工程时需要联网。 1.进入SpringBoot官网 Spring | Home 点击QUICKSTART 点击start.spring.io进入spring initializr 2.选择依赖 3.生成工程 下载好后解压用IDEAD导入即可。

【Hive】海量数据存储利器之Hive库原理初探

文章目录 一、背景二、数据仓库2.1 数据仓库概念2.2 数据仓库分层架构2.2.1 数仓分层思想和标准2.2.2 阿里巴巴数仓3层架构2.2.3 ETL和ELT2.2.4 为什么要分层 2.3 数据仓库特征2.3.1 面向主题性2.3.2 集成性2.3.3 非易失性2.3.4 时变性 三、hive库3.1 hive概述3.2 hive架构3.2.…

【MySQL实战】mysql_exporter+Prometheus+Grafana

要在Prometheus和Grafana中监控MySQL数据库,如下图: 可以使用mysql_exporter。 以下是一些步骤来设置和配置这个监控环境: 1. 安装和配置Prometheus: - 下载和安装Prometheus。 - 在prometheus.yml中配置MySQL通过添加以下内…

脚本化挂在物理盘、nfs、yum、pg数据库、nginx(已上传脚本)

文章目录 前言一、什么是脚本化安装二、使用步骤1.物理磁盘脚本挂载(离线)2.yum脚本化安装(离线)3.nfs脚本化安装(离线)4.pg数据库脚本化安装(离线)5.nginx脚本化安装(离…

k8s物料清单工具——KubeClarity

介绍 KubeClarity是一个用于检测和管理容器镜像和文件系统的软件清单(SBOM)和漏洞的工具。它扫描运行时的K8s集群和CI/CD流水线,以增强软件供应链安全性。 安装 添加 helm 仓库 helm repo add kubeclarity https://openclarity.github.io…