【class6】人工智能初步(选择一个合适的监督学习算法。)

news2024/11/25 11:38:59

【昨日内容复习】

进行监督学习时,第一个步骤是提取数据集的文本特征和对应的标签。
提取文本特征的具体步骤如下:
STEP1. 构造词袋模型,提取数据集中的文本特征
STEP2. 使用toarray()函数,将X转换为一个NumPy数组,方便后续调用

# 创建CountVectorizer对象,并存储在vect中

vect = CountVectorizer()

# 将word中的数据传递给vect

X = vect.fit_transform(word)

# 使用toarray()函数,将x转换为数组

X = X.toarray()

# 输出X进行查看

print(X)

考虑到初学的宝宝理解有困难,在简单分析一下代码

使用CountVectorizer来转换文本数据wordCountVectorizerscikit-learn库中用于文本分析的工具,能够将文本数据转换为词频矩阵。

word它应该是一个包含文本字符串的列表

下面是一个完整的例子,包括必要的导入和定义:

from sklearn.feature_extraction.text import CountVectorizer

# 假设我们有一个文本列表

words = ["the cat sat on the mat", "the dog sat on the log", "the cat and the dog"]

# 创建CountVectorizer对象,并存储在vect中

vect = CountVectorizer()

# 将words中的数据传递给vect

X = vect.fit_transform(words)

# 使用toarray()函数,将X转换为数组

X_array = X.toarray()

# 输出X_array进行查看

print(X_array)

这段代码会输出一个二维数组,其中每一行代表words列表中的一个文本,每一列代表一个单词的词频。例如,如果words中的第一个文本包含单词"the"2次,那么在对应的数组行中,"the"所对应的列的值将会是2

【昨日内容复习】

提取标签的具体步骤如下:
1. 创建一个空列表y用于存储标签数据
2. 使用for循环来遍历data中的每一行数据
3. 只从中提取标签部分,即每行的第二个数据,allInfo[1]
4. 将每行的标签数据逐一添加到列表y中

代码示例:

# 创建一个空列表y,用于存储标签

y = []

# 使用for循环遍历data,将遍历的数据存储到allInfo变量中

for allInfo in data:

    # 提取allInfo中的标签数据

    label = allInfo[1]

    # 将标签逐一添加到列表y中

    y.append(label)

# 输出列表y进行查看

print(y)

【昨日内容复习】

完成了第一步提取数据集的文本特征和标签后,我们就可以进行监督学习的第二个步骤:划分数据集。
具体步骤如下:
STEP1. 使用from...import... 从sklearn.model_selection中导入train_test_split;
STEP2. 使用
train_test_split()将数据集划分为训练集和测试集,并将结果赋值给result

# 从sklearn.model_selection中导入train_test_split

from sklearn.model_selection import train_test_split

# 划分数据集,将数据分为训练集和测试集

result = train_test_split(X, y, train_size=0.8, random_state=1)

# 输出result进行查看

print(result)

【昨日内容复习】

为了方便后续调用,我们通过索引依次提取出了列表result中:训练集的文本特征、测试集的文本特征、训练集的标签和测试集的标签。
把它们分别赋值给了变量train_feature、test_feature、train_label和test_label。

# 依次提取result中训练集和测试集数据

train_feature = result[0]

test_feature = result[1]

train_label = result[2]

test_label = result[3]

在这种情况下,它们代表了一个包含训练和测试数据的结果集合。让我们来看看为什么这些数字被选择,并解释它们的含义:

  1. result[0]:通常是训练数据集的特征。这是因为在机器学习中,通常首先会处理训练数据集,因此索引为0的位置用于存储训练数据的特征。
  2. result[1]:通常是测试数据集的特征。与训练数据集类似,测试数据集的特征被放置在索引为1的位置。
  3. result[2]:通常是训练数据集的标签。在监督学习任务中,训练数据集需要有相应的标签,因此在索引为2的位置存储了训练数据的标签。
  4. result[3]:通常是测试数据集的标签。与训练数据集类似,测试数据集的标签被放置在索引为3的位置。

这个顺序的选择主要是为了清晰和一致性,使得在使用这些数据时更加直观和方便。同时,这种约定也使得代码更易读和易于理解。

复习结束~
昨天我们完成了前两个步骤,接下来就到了第三步:选择一个合适的监督学习算法。
本例中,我们选择了一种应用最广泛的人工神经网络多层感知器(Multilayer Perceptron)

人工神经网络的名称和结构受到人类大脑的启发,模仿了节点(也称神经元)相互发送信号的方式。它至少由3个节点层组成:一个输入层、一个或多个隐藏层和一个输出层。

输入层:接收数据,如特征、字母、概念;
隐藏层:处在输入层和输出层之间,会对输入层的数据进行计算,并将信息传递到输出层;
输出层:输出分类或预测的处理结果。

神经网络的强大之处在于它们能够学习训练集中特征与标签之间的关系,完成高速分类的预测任务。像谷歌现在就是由神经网络算法进行机器翻译和搜索任务。这就是为什么会选择人工神经网络里应用最广泛的多层感知器作为我们的监督学习算法。

多层感知器(Multilayer Perceptron,简称MLP是最基础、最简单的一种人工神经网络。它通常应用于监督学习问题是自然语言处理、计算机视觉和其他神经网络的基础。

原理:

我们举个简单的例子来看看MLP是如何处理数据的:当原始数据传入到第一个隐藏层时,这些节点会返回对应的预测结果,而第二层的感知器会根据第一层返回的结果来进行二次处理。通过这样的方式,第二层的感知器就能处理更复杂和更抽象的数据。以此类推,多层感知器这样的层级结构,增强了信息的表示和处理能力,可以更加快速解决复杂问题。因此,选择了它作为本案例的算法。

选择完一个合适的监督学习算法后,我们就来到了下一步:
在训练集上使用多层感知器这个算法构造一个分类器模型~

sklearn.neural_network是sklearn中的神经网络模块,我们可以使用其中的MLPClassifier类。
它为我们提供了多层感知器算法,能直接搭建和训练一个分类器模型。

1. 导入模块

首先,我们需使用
from...import...,从 sklearn.neural_network 模块中导入 MLPClassifier 类。

# 从sklearn.neural_network中导入MLPClassifier

from sklearn.neural_network import MLPClassifier

2. 创建分类器

导入模块后,直接使用MLPClassifier(),创建一个MLPClassifier对象,也就是我们的分类器模型。
我们将返回的对象存储在变量mlp中。

# 创建MLPClassifier对象,并存储在mlp变量中

mlp = MLPClassifier()

3. 训练分类器

接下来,就可以对mlp对象使用fit()函数,来完成模型的训练。
只需将训练集的数据,也就是文本特征train_feature和标签train_label,依次传入该函数中即可。
我们的分类器会学习传入的文本特征和标签之间的关系。

# 通过train_feature和train_label,训练分类器

mlp.fit(train_feature, train_label)

我们再来自己操作一下搭建和训练一个多层分类器模型吧~~~

我们已经完成了监督学习的前四个步骤,成功通过训练集建立了分类器模型,现在可以进行第五步啦:
使用测试集来预测并评估模型的准确率

如何使用测试集评估模型的准确率呢?

回忆一下,测试集和训练集都既有文本特征又有标签。
那么我们可以先把测试集的文本特征传入到训练好的模型中,该模型会预测出对应的标签数据。然后将预测结果和测试集原本的标签进行对比,就可以评估该模型的准确率啦。

1. 对测试集的文本特征进行预测

MLPClassifier类中提供了predict()函数,它会通过刚刚创建的多层感知器对测试集的数据进行预测。
只需对创建的分类器对象使用predict()函数,再将测试集的文本特征作为参数传入该函数中即可。
该函数会返回预测的标签数据。

本例中,我们对mlp使用了predict()函数,并将测试集的文本特征test_feature传入到该函数里。我们将模型预测的标签结果存储在变量test_pred中,并输出进行查看。

# 对测试集数据进行预测

test_pred = mlp.predict(test_feature)

# 输出test_pred

print(test_pred)

2. 计算准确率

有了预测结果后,我们就可以通过对比【依靠模型生成的测试集标签数据test_pred】和【测试集原本的标签数据test_label】,来检验模型的准确率。
sklearn.metrics模块中的accuracy_score类,为我们提供了一个可以计算准确率的函数:accuracy_score()。

2.1 导入模块

首先,我们还是需要使用from...import...,从sklearn.metrics模块中导入accuracy_score类,用于评估分类模型的准确率。

# 从sklearn.metrics中导入accuracy_score

from sklearn.metrics import accuracy_score

2.2 计算模型准确率

接下来,就可以使用accuracy_score()函数,只需依次传入test_predtest_label即可。
该函数会对比这两个数据,返回一个模型的预测准确率得分。

# 计算预测准确率,并将结果赋值给score

score = accuracy_score(test_pred,test_label)

# 输出score进行查看

print(score)

我们将score输出,结果为0.825,即预测准确率为82.5%。每次运行时,该准确率都会有小幅度的波动,属于正常现象~

现在,我们来自己尝试一下:使用测试集来评估模型的准确率吧~
STEP1. 使用predict()函数,对测试集的文本特征进行预测
STEP2. 导入sklearn.metrics模块中的accuracy_score类,并使用accuracy_score()函数计算模型准确率得分

# 对测试集数据进行预测

test_pred = mlp.predict(test_feature)

# 从sklearn.metrics中导入accuracy_score

from sklearn.metrics import accuracy_score

# 计算预测准确率,并将结果赋值给score

score = accuracy_score(test_pred,test_label)

# 输出score进行查看

print(score)

最终我们训练出的模型准确率大概在80%左右,不算是一个完美的模型,还有一些改进的空间。
比如:
可以尝试添加更多的训练数据
在创建分类器,也就是使用MLPClassifier()时,传入不同的参数并进行调整等。
这里我们就不做更多的探索啦~

用于做情感分析的分类器模型就算搭建完成啦!我们来到了最后一个步骤:对“没有标签”的评价进行预测

我们只需定义一条评价,然后剩余的步骤和之前一样。最后我们将预测结果输出,根据输出就可以检验搭建的模型效果如何啦~
# 自定义一条评价,并存储在变量comment中

comment = "太差了,新电视买回家不到十多天,底座支架因质量问题断裂,电视直接从桌子上摔坏!"

# 使用jieba.lcut()对comment进行分词

comment = jieba.lcut(comment)

# 使用join()函数处理分词结果

comment =  [' '.join(comment)]

# 构造词袋模型

try_feature = vect.transform(comment)

# 使用toarray()函数把结果转换为NumPy数组

try_feature = try_feature.toarray()

# 使用predict()函数预测结果

try_pred = mlp.predict(try_feature)

# 输出预测结果

print(try_pred)

小科普(会涉及到一点数学概念哦)

细心的同学可能已经发现,我们在处理数据集时使用的是fit_transform()函数,但在处理没有标签的预测数据时使用的是transform()函数,为什么呢?
fit_transform()其实是fit()和transform()的组合,
多用于在训练数据时使用
在调用fit_transform()时,
会先通过fit(),计算和学习数据中每个特征的均值和方差再通过transform(),使用各自的均值和方差来变换所有特征。

小科普

那么对于没有标签的数据,如果使用fit()函数,则会重新计算一份新的特征均值和方差,这样的话我们的模型就会又学习一遍没有标签数据的特征。
因此,我们只需要使用transform(),这样就可以使用相同的均值和方差来对没有标签的数据进行转换,同时又避免了我们的模型学习预测数据的特征。
这里,就不做更深入地
解释啦~

【class6】

前两天的课程里,我们搭建了一个人工智能系统来判断评价的正负面性。这也让我们意识到搭建并训练模型是很不容易的,每一个步骤都需要谨慎地反复调试才能研发成功。

好在我们可以站在前人的肩膀上,借助 SDK(软件开发工具包),来实现一些人工智能应用。

举一个例子

手机每天都会收到许多来自APP或系统的新闻推送、促销活动广告等等,它们大多都属于法规条文里规定的“第三方应用或服务”。
正是这些集成在APP里的第三方工具包,能够协助APP更加高效率、低成本地实现注入支付、广告等一系列功能。
SDK就是这个例子里说到的第三方应用或服务。

SDK的出现就是为了减少程序员的工作量。但它作为一个全封闭的程序包,要与我们的程序进行联通,只能通过一个小小接口,也就是API
等等,API又是什么?


通俗地说,API可以比作抽屉的钥匙。在一个柜子里,每个抽屉都有不同的用途和资源。当要获取抽屉里的资源时,我们需要先找到相应抽屉的钥匙,继而用钥匙打开该抽屉拿取资源。调用API的过程,就是用钥匙开抽屉的过程。

API和SDK之间的关系?

而SDK则是把这些钥匙串在一块儿,也就是将API集成在一起。拥有SDK,便可以在柜子里畅通无阻,想要获得哪个抽屉里的资源,用手中的钥匙(API)打开该抽屉,进去拿取即可。

API是一个确定的功能或方法,已经明确了它的作用;而SDK就像是很多方法的集合体,是一个工具。

当我们想实现某个功能,但又不想耗费大量时间亲自研发,就可以选择SDK。我们不需要知道SDK内部究竟是如何工作的,只需要清楚如何有效地调用对应的API接口,来实现不同的功能。

比如:
我们要做自然语言处理的情感倾向分析,就调用自然语言处理SDK的情感倾向分析API实现;要抽取评论观点,就调用自然语言处理SDK里对应的评论观点抽取接口来实现无论想完成什么任务,SDK里总有能实现的方法。

总结:

辅助开发某一类软件或新功能的相关文档、代码范例和工具的集合都可以叫做SDK,SDK里可以包含一个或多个API

官网:百度AI开放平台-全球领先的人工智能服务平台 (baidu.com)

使用百度AI平台提供的接口完成自然语言处理中的情感分析任务,需要以下6步:

让我们开始学习吧~~~

步骤一:

和使用第三方模块一样,在调用百度AI平台所提供的接口前,我们需要在终端里安装百度的Python SDK。

步骤二

账号创建成功后,别忘记要登录哦~登录好了,我们就完成了前两个步骤。接下来需要在百度人工智能平台中,创建自然语言处理应用,完成情感分析。

步骤三:

平台控制台页面点击左上角的蓝色菜单按钮,我们可以在【产品服务】里找到【自然语言处理】板块,它提供了自然语言处理所需的各种接口。

进入【自然语言处理】页面以后,点击【应用列表】,我们需要通过【创建应用】功能,创建一个私人使用的自然语言处理应用。

在【创建应用】页面,输入应用名称和应用描述,其他默认即可:
1. 为你的应用设定名称;
2. 对应用进行简短的描述;
3. 填写完毕后,选择【立即创建】完成操作。

步骤五:

创建成功后:
通过【查看应用详情】可以看到AppID、API Key和Secret Key
通过【查看文档】可以获得该接口的官方使用说明文档。

总结:

步骤四:

完成了前三个步骤后,我们就可以进行第四个步骤:创建自然语言处理客户端。

什么是自然语言处理客户端?

在调用相关接口前,我们需要创建一个自然语言处理的Python SDK客户端,也就是AipNlp。它为使用自然语言处理的开发人员提供了一系列的交互方法。这些方法包括但不限于评论观点抽取、情感倾向分析等功能,只要安装了baidu-aip,即可使用。

创建NLP客户端

代码的作用

这两行高亮的代码创建了自然语言处理的Python SDK客户端(AipNlp)

# 从aip中导入AipNlp

from aip import AipNlp

""" 你的 APPID AK SK """

APP_ID = "248002"

API_KEY = "K9fmfNl0qFs4n7ME"

SECRET_KEY = "iBlCDWhsOoeDUAhTqe"

# 将密钥信息传递给AipNlp生成客户端,并将结果存储在client中

client = AipNlp(APP_ID, API_KEY, SECRET_KEY)

# 输出client进行查看

print(client)

分析代码:

导入 AipNlp 类

和使用第三方模块一样,在使用前我们也需要导入。
这里,通过from...import...,从
aip中导入AipNlp类,它为我们提供了自然语言处理的一些接口支持。

存储认证信息

导入后,我们需要用到AppID、API Key和Secret Key验证接口信息,以此来创建自然语言处理客户端。
为了方便后续调用,我们先将AppID、API Key和Secret Key以字符串的形式,依次赋值给变量APP_ID、API_KEY和SECRET_KEY。

创建AipNlp对象

把APP_ID、API_KEY和SECRET_KEY,依次作为参数传入到AipNlp()中,即可新建一个AipNlp,也就是自然语言处理客户端对象。
我们将返回的AipNlp对象赋值给变量client,方便在后面的程序中使用,并输出进行查看。

步骤五:

在浏览了官方文档里展示的各接口功能后,我们为了判断评价的正负面性,选择调用情感倾向分析接口。

示例:

具体分析:

总结:

调用「情感倾向分析」接口

代码的作用

示例中,展示了调用情感倾向分析sentimentClassify接口的具体代码,和对应的返回结果。

示例代码:

# 从aip中导入AipNlp

from aip import AipNlp

""" 你的 APPID AK SK """

APP_ID = "248002"

API_KEY = "K9fmfNl0qFs4n7ME"

SECRET_KEY = "iBlCDWhsOoeDUAhTqe"

# 生成客户端,并将结果存储在client中

client = AipNlp(APP_ID, API_KEY, SECRET_KEY)

# 将评论存储在变量text中

text = "电视的音质很差,声音很小"

# 调用情感倾向分析sentimentClassify接口

result = client.sentimentClassify(text)

# 输出结果

print(result)                      (情感分析)

分析代码:

待分析的评价内容

情感倾向分析(sentimentClassify)的必选参数为待分析的文本内容,需是字符串数据。因此,我们将待分析的评价内容以字符串的形式存储在了变量text中,方便后续调用。

调用「情感倾向分析」接口

有了待处理的评价内容后,我们就可以通过建立好的自然语言处理客户端client,调用 sentimentClassify 接口,进行情感倾向分析。
只需将评价内容text传入即可

情感倾向分析结果

我们把结果存储在了变量result中,并输出进行查看。
可以看到,result是一个字典,其中主要记录了【调用接口信息】与【情感分析结果】两部分内容。

步骤六:

根据刚刚的输出可以看到,我们通过调用情感倾向分析接口,已经得到了一个复杂的字典结构,里面存储着我们想要的信息。
现在就可以进入到最后一个步骤:处理结果。

要访问我们最感兴趣的情感分析结果,可以先通过result["items"]来访问items这个键所对应的值。根据输出可以看到,返回的是一个列表,该列表中仅有一个元素,是一个字典。

我们继续通过列表的索引,也就是[0],就能访问到存储了情感分析结果的字典。为了方便调用,我们将result["items"][0]存储在了变量ret里,并输出进行查看。

{'positive_prob': 0.000218675, 'confidence': 0.999514, 'negative_prob': 0.999781, 'sentiment': 0}

如图所示,输出的字典中包含了4个键。我们可以根据自己的需求访问字典中的键来提取信息。

我们主要会通过ret["sentiment"],获取情感极性分类结果;
同时,通过ret["confidence"]获取其可信度,并使用round()函数将结果四舍五入到小数点后四位。
最后是使用格式化输出评价内容以及对应结果:

评价内容:xxxx

该条评价有xx.xx%的可能性为xxxx评价。

代码如下:

# TODO 将评论存储在变量text中

text = "这台屏幕上方有漏光,清晰度也不行"

# 调用sentimentClassify接口,并将结果存储在result里

result = client.sentimentClassify(text)

# 将result["items"][0]存储在变量ret中

ret = result["items"][0]

# 获取评价的正负面性结果,讲结果存储到sentiment中

sentiment = ret["sentiment"]

# 获取可信度,并将结果存储到confidence中

confidence = ret["confidence"]

# 使用round()函数将可信度四舍五入到小数点后四位

confidence = round(confidence, 4)

# 格式化输出评价内容

print(f"评价内容:{text}")

# 判断评论观点的正负面性,并输出对应结果

if sentiment == 0:

    print(f"该条评价有{confidence*100}%的可能性为负面评价。")

elif sentiment == 1:

    print(f"该条评价有{confidence*100}%的可能性为中性评价。")

else:

print(f"该条评价有{confidence*100}%的可能性为正面评价。")

这节课,我们了解了SDK的概念,并成功调用了百度「情感倾向分析」接口,完成了对评价观点的情感分析。可以感受到,利用SDK比自己建立模型更加方便、快捷、准确,甚至智能。比如,它可以直接返回预测的可信度,甚至评价是属于消极或积极类别的概率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1669618.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【5月13日】YesPMP众包平台最新项目

YesPMP众包平台5月13日最新项目,有感兴趣的用户查看项目接单,甲乙方无障碍沟通。 1.查看项目:分析一款PC端登录协议及收发消息 2.查看项目:《中华历史漫画》 3.查看项目:图像算法 …

什么是CCRC?做什么用的?

CCRC(中国网络安全审查认证和市场监管大数据中心)原名为中国网络安全审查技术与认证中心,也被称为中国信息安全认证中心(ISCCC)。 该中心是经中央机构编制委员会办公室批准成立的,其主要职责是依据国家法律…

设计模式 六大原则之开放封闭原则

文章目录 定义理解 小结 定义 开闭原则规定软件中的对象、类、模块和函数对扩展应该是开放的,但对于修改是封闭的。这意味着应该用抽象定义结构,用具体实现扩展细节,以此确保软件系统开发和维护过程的可靠性。 理解 怎么理解这个呢&#x…

【IMX6ULL项目】IMX6ULL上Linux系统实现产测工具框架

电子产品量产测试与烧写工具。这是一套软件,用在我们的实际生产中, 有如下特点: 1.简单易用: 把这套软件烧写在 SD 卡上,插到 IMX6ULL 板子里并启动,它就会自动测试各个模块、烧写 EMMC 系统。 工人只要按…

【C语言】深度解析:动态内存管理的机制与实践

🔥引言 本篇将深度解析:动态内存管理的机制。为了更加灵活分配内存中的空间,库中为了我们提供了一些的函数,去动态开辟和释放堆上的空间。 🌈个人主页:是店小二呀 🌈C语言笔记专栏:C语言笔记 &a…

询问贴:这要怎么设置捏,寻思着总不该一个一个挖空吧????

这要怎么设置捏,寻思着总不该一个一个挖空吧????

Hadoop3.4.0 完全分布式集群 运行环境搭建 VMware Workstation 虚拟机 大数据系列 一

一 生产环境集群模式部署,需要多台主机,主机之间通过密钥相互访问. 1 配置如图 节点名字节点IP系统版本master11192.168.50.11centos 8.5slave12192.168.50.12centos 8.5slave13192.168.50.13centos 8.5 2 安装服务器 #先安装一台master11&#xff…

google test 使用指南

目录 测试项目 calculator.h calculator.cpp test01.cpp 创建新项目 选择Google Test 选择要测试的项目 pch.cpp 加入依赖 设为启动项目 ​编辑 运行 ​编辑 关键点 测试项目 calculator.h #ifndef __CALCULATOR_H__ #define __CALCULATOR_H__#include <i…

创vite项目时报错【文件名、目录名或卷标语法不正确】

错误提示 错误原因 yarn的安装包默认是在C盘的而我电脑上yarn安装在D盘&#xff0c;所以就会报这样的错误。 可以使用如下命令查看当前yarn的安装包位置 yarn global dir 解决办法 1、将yarn的全局路径改到D盘就可以了&#xff0c;在D盘创建yarn文件夹&#xff0c;然后再其…

8.微服务项目结合SpringSecurity项目结构

项目结构 acl_parent:创建父工程用来管理依赖版本 common service_base&#xff1a;工具类 spring_security: Spring Security相关配置 infrastructure api_gateway: 网关 service service_acl: 实现权限管理功能代码 acl_parent的pom.xml <?xml version"1.0" …

2万字干货:如何从0到1搭建一套会员体系(4)

开始本节前还是一样来个灵魂发问&#xff1a;为什么产品需要用户标签&#xff0c;或者用户标签有什么意义/价值&#xff1f; 某些业务场景下使用会员等级无法满足业务需要。比如新用户激活、老用户福利以及沉默客户唤醒等等。 用户等级划分的逻辑和维度有些局限性&#xff0c;…

小区物业管理系统

文章目录 小区物业管理系统一、项目演示二、项目介绍三、部分功能截图四、部分代码展示五、底部获取项目源码&#xff08;9.9&#xffe5;带走&#xff09; 小区物业管理系统 一、项目演示 小区物业管理系统 二、项目介绍 基于springbootvue的前后端分离物业管理系统 系统角…

遨游 JavaScript 对象星际:探索面向对象编程的深邃世界

个人主页&#xff1a;学习前端的小z 个人专栏&#xff1a;JavaScript 精粹 本专栏旨在分享记录每日学习的前端知识和学习笔记的归纳总结&#xff0c;欢迎大家在评论区交流讨论&#xff01; 文章目录 &#x1f4af;面向对象编程&#x1f517;1 什么是对象&#x1f517;2 什么是…

互联网引流艺术:精准获客的黄金法则

在如今这个信息爆炸的时代&#xff0c;互联网引流不再是简单地发布广告和等待潜在客户的到来。它变成了一门需要策略、技巧和持续创新的艺术。作为一位资深的互联网营销从业者&#xff0c;我深知精准推广的重要性&#xff0c;以及它在帮助企业获得理想客户中的关键作用。以下是…

(七)SQL基础知识练习题(选择题)(上)#CDA学习打卡

本文整理了SQL基础知识相关的练习题&#xff0c;共133道&#xff0c;可作为CDA一级的补充习题&#xff0c;也适用于刚入门初级SQL想巩固基础的同学。来源&#xff1a;如荷学数据科学题库&#xff08;技术专项-SQL&#xff09;。暂时按照原题库顺序present&#xff0c;如有需要之…

JINGWHALE 数字认证体系 · 进阶知识库

JINGWHALE 数字认证体系 是 JINGWHALE 数字科学艺术创新中心 的数字认证服务。 ◢◤ 宗旨 致力于数字化知行合一的知识赋能&#xff01; ◥ 数字化人才培养 培养数字化思维&#xff0c;传播数字化知识&#xff0c;赋能各行业数字化。 ◥ 职业人才发展 无缝衔接学校高等…

【Linux】-Linux用户和权限与权限的修改[3]

目录 一、认知root用户 1、root用户&#xff08;超级管理员&#xff09; 2、su和exit命令 3、sudo命令 二、用户、用户组管理 1、用户管理 2、getent 三、查看权限控制 1、认知权限信息 四、修改权限控制 - chmod 五、修改权限控制 - chown 一、认知root用户 1、root…

【VTKExamples::Rendering】第六期 TestFlatVersusGround

很高兴在雪易的CSDN遇见你 VTK技术爱好者 QQ:870202403 公众号:VTK忠粉 前言 本文分享VTK样例TestFlatVersusGround,希望对各位小伙伴有所帮助! 感悟:自身优秀很重要,让别人觉得你很优秀更重要! 感谢各位小伙伴的点赞+关注,小易会继续努力分享,一起进步! …

吴恩达 深度学习 神经网络 softmax adam 交叉验证

神经网络中的层&#xff1a;输入层&#xff08;layer 0&#xff09;、隐藏层、卷积层&#xff08;看情况用这个&#xff09;、输出层。&#xff08;参考文章&#xff09; 激活函数&#xff1a; 隐藏层一般用relu函数&#xff1b; 输出层根据需要&#xff0c;二分类用sigmoid&…

图神经网络实战(10)——归纳学习

图神经网络实战&#xff08;10&#xff09;——归纳学习 0. 前言1. 转导学习与归纳学习2. 蛋白质相互作用数据集3. 构建 GraphSAGE 模型实现归纳学习小结系列链接 0. 前言 归纳学习 (Inductive learning) 通过基于已观测训练数据&#xff0c;建立一个通用模型&#xff0c;使模…