机器学习库Scikit-learn

news2024/11/26 18:31:16

本文目录

  • 3.1 背景知识

  • 3.2 Scikit-learn概述

  • 3.3 Scikit-learn主要用法

    • 3.3.1 基本建模流程

    • 3.3.2 数据预处理

    • 3.3.3 监督学习算法

    • 3.3.4 无监督学习算法

    • 3.3.5 评价指标

    • 3.3.6 交叉验证及超参数调优

  • 3.4 Scikit-learn总结

  • 参考文献

Scikit-learn是基于NumPy、SciPy和Matplotlib的开源Python机器学习包,它封装了一系列数据预处理、机器学习算法、模型选择等工具,是数据分析师首选的机器学习工具包。

自2007年发布以来,Scikit-learn已经成为Python重要的机器学习库了,Scikit-learn简称sklearn,支持包括分类、回归、降维和聚类四大机器学习算法,还包括了特征提取、数据处理和模型评估三大模块。

3.1 背景知识

机器学习的编程语言没有限制,同学们可选用自己熟悉的语言对算法进行实现。本书的代码基于Python编写。回顾一下本书需要掌握的Python相关知识,限于篇幅,本文不再对Python的使用进行详细讲解,仅列出使用Python进行机器学习算法所需要掌握的知识点:

(1) Python环境的安装:包括安装Anaconda、Jupyter和Pycharm。

(2) Python数据结构:列表、元组、集合、字典。

① 列表用来存储一连串元素的容器,用[ ]来表示,其他元素类型可不相同。

② 元组与列表类似,元组中的元素也可进行索引计算,用( )来表示。二者的区别是列表里面的元素值可以修改,而元组中的元素值不可以修改,只能读取。

③ 集合有两个功能,一是进行集合操作,二是消除重复元素。集合的格式是:set( ),其中( )内可以是列表、字典或者字符串。

④ 字典(dict)也称作关联数组,用{ }表示,使用键-值存储。

(3) Python控制流:顺序结构、分支结构、循环结构。

(4) Python函数:调用函数、定义函数、高阶函数。

(5) Python主要模块:NumPy、Pandas、SciPy、Matplotlib、Scikit-learn。

(6) NumPy:是一个用Python实现的科学计算扩展程序库。

(7) Pandas:是基于NumPy的一种工具,为解决数据分析任务而创建。

(8) SciPy:是一款为科学和工程设计的工具包,包括统计、优化、线性代数、傅里叶变化等。

(9) Matplotlib:是一款2D绘图库,以各种硬拷贝格式和跨平台的交互式环境生成绘图、直方图、功率谱、条形图等。

(10) Scikit-learn:Python重要的机器学习库。

3.2 Scikit-learn概述

Scikit-Learn (简称 Sklearn) 是基于 Python 语言的机器学习工具。它建立在 NumPy、SciPy、Pandas和 Matplotlib 之上,里面的 API 的设计非常好,所有对象的接口简单,很适合新手上路。

Scikit-Learn库的算法主要有四类:分类、回归、聚类、降维。其中:

  1. 常用的回归:线性回归、决策树回归、SVM回归、KNN回归;集成回归:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees。

  2. 常用的分类:线性分类、决策树、SVM、KNN,朴素贝叶斯;集成分类:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees。

  3. 常用聚类:K均值(K-means)、层次聚类(Hierarchical clustering)、DBSCAN。

  4. 常用降维:LinearDiscriminantAnalysis、PCA。

d9458b0290486cd1623c2928fdc61a64.jpeg

图3-1 Scikit-Learn算法选择路径图

图3-1代表了Scikit-Learn算法选择的一个简单路径,这个路径图代表:蓝色圆圈是判断条件,绿色方框是可以选择的算法,我们可以根据自己的数据特征和任务目标去找一条自己的操作路线。

Scikit-Learn中包含众多数据预处理和特征工程相关的模块,但其实Sklearn六大板块中有两块都是关于数据预处理和特征工程的,两个板块互相交互,为建模之前的全部工程打下基础。

3.3 Scikit-learn主要用法

3.3.1 基本建模流程

基本建模的符号标记见表3-1:

表3-1 符号标记

符号代表含义符号代表含义
X_train训练数据y_train训练集标签
X_test测试数据y_test测试集标签
X完整数据y数据标签


y_pred预测标签

1.导入工具包

导入工具包的方法如下(这里使用伪代码):

from sklearn import 包名称
from sklearn.库名称 import 包名称

代码示例:

from sklearn import datasets, preprocessing  
#导入数据集,数据预处理库  
from sklearn.model_selection import train_test_split    
#从模型选择库导入数据切分包  
from sklearn.linear_model import LinearRegression    
#从线性模型库导入线性回归包  
from sklearn.metrics import r2_score  
#从评价指标库导入R2评价指标

2.导入数据

导入数据的方法如下:

from sklearn.datasets import 数据名称

Scikit-learn支持以NumPy的arrays对象、Pandas对象、SciPy的稀疏矩阵及其他可转换为数值型arrays的数据结构作为其输入,前提是数据必须是数值型的。

sklearn.datasets模块提供了一系列加载和获取著名数据集如鸢尾花、波士顿房价、Olivetti人脸、MNIST数据集等的工具,也包括了一些toy data如S型数据等的生成工具。

Scikit-learn内置了很多可以用于机器学习的数据,可以用两行代码就可以使用这些数据。内置数据分为可以直接使用的数据集、需下载的数据集以及生成数据集。

(1) 可以直接使用的自带数据集

此类数据集可以直接导入使用数据,数据集和描述见表3-2:

表3-2可以直接使用的自带数据集

数据集名称描述类型维度
load_bostonBoston房屋价格回归506*13
fetch_california_housing加州住房回归20640*9
load_diabetes糖尿病回归442*10
load_digits手写字分类1797*64
load_breast_cancer乳腺癌分类、聚类(357+212)*30
load_iris鸢尾花分类、聚类(50*3)*4
load_wine葡萄酒分类(59+71+48)*13
load_linnerud体能训练多分类20

(2) 需要下载的自带数据集

此类数据集第一次使用,需要联网下载数据,数据集和描述见表3-3:

表3-3需要下载的自带数据集

数据集名称描述
fetch_20newsgroups用于文本分类、文本挖据和信息检索研究的国际标准数据集之一。数据集收集了大约20,000左右的新闻组文档,均匀分为20个不同主题的新闻组集合。返回一个可以提取文本特征的提取器
fetch_20newsgroups_vectorized这是上面这个文本数据的向量化后的数据,返回一个已提取特征的文本序列,即不需要使用特征提取器
fetch_california_housing加利福尼亚的房价数据,总计20640个样本,每个样本8个属性表示,以及房价作为target,所有属性值均为number,详情可调用。如:fetch_california_housing( )['DESCR'],了解每个属性的具体含义;
fetch_covtype森林植被类型,总计581012个样本,每个样本由54个维度表示(12个属性,其中2个分别是onehot4维和onehot40维),以及target表示植被类型1-7,所有属性值均为number,详情可调用fetch_covtype( )['DESCR']了解每个属性的具体含义
fetch_kddcup99KDD竞赛在1999年举行时采用的数据集,KDD99数据集仍然是网络入侵检测领域的事实Benckmark,为基于计算智能的网络入侵检测研究奠定基础,包含41项特征
fetch_lfw_pairs该任务称为人脸验证:给定一对两张图片,二分类器必须预测这两个图片是否来自同一个人。
fetch_lfw_people打好标签的人脸数据集
fetch_mldata从 mldata.org 中下载数据集
fetch_olivetti_facesOlivetti 脸部图片数据集
fetch_rcv1路透社新闻语聊数据集
fetch_species_distributions物种分布数据集

(3) 生成数据集

此类数据集可以用来分类任务,可以用来回归任务,可以用来聚类任务,用于流形学习的,用于因子分解任务的,用于分类任务和聚类任务的:这些函数产生样本特征向量矩阵以及对应的类别标签集合,数据集和描述见表3-4:

表3-4生成数据集

数据集名称描述
make_blobs多类单标签数据集,为每个类分配一个或多个正态分布的点集
make_classification多类单标签数据集,为每个类分配一个或多个正态分布的点集,提供了为数据添加噪声的方式,包括维度相关性,无效特征以及冗余特征等
make_gaussian-quantiles将一个单高斯分布的点集划分为两个数量均等的点集,作为两类
make_hastie-10-2产生一个相似的二元分类数据集,有10个维度
make_circle和make_moons产生二维二元分类数据集来测试某些算法的性能,可以为数据集添加噪声,可以为二元分类器产生一些球形判决界面的数据

代码示例:

#导入内置的鸢尾花数据  
from sklearn.datasets import load_iris    
iris = load_iris( )  
#定义数据、标签  
X = iris.data  
y = iris.target

3.3.2 数据预处理

1.数据划分

机器学习的数据,可以划分为训练集、验证集和测试集,也可以划分为训练集和测试集(图3-2)。

289b6808ab4642672cc9cd6e5ac922c2.png

图3-2数据集划分

代码示例:

from sklearn.model_selection import train_test_split    
X_train, X_test, y_train, y_test =  train_test_split(X, y, random_state=12, stratify=y,  test_size=0.3)  
#将完整数据集的70%作为训练集,30%作为测试集,并使得测试集和训练集中各类别数据的比例与原始数据集比例一致(stratify分层策略),另外可通过设置shuffle=True 提前打乱数据。

2.数据变换操作

sklearn.preprocessing模块包含了数据变换的主要操作(表3-5),数据变换的方法如下:

from sklearn.preprocessing import库名称

表3-5使用Scikit-learn进⾏数据变换

预处理操作库名称
标准化StandardScaler
最小最大标准化MinMaxScaler
One-Hot编码OneHotEncoder
归一化Normalizer
二值化(单个特征转换)Binarizer
标签编码LabelEncoder
缺失值填补Imputer
多项式特征生成PolynomialFeatures

代码示例:

#使⽤Scikit-learn进⾏数据标准化  
from sklearn.preprocessing import StandardScaler  
#构建转换器实例  
scaler = StandardScaler( )  
#拟合及转换  
scaler.fit_transform(X_train)

3.特征选择

特征选择的方法如下:

1. #导入特征选择库  
2. from sklearn import feature_selection as fs
  • 过滤式(Filter)

1. #保留得分排名前k的特征(top k方式)  
2. fs.SelectKBest(score_func, k)   
3. #交叉验证特征选择  
4. fs.RFECV(estimator, scoring=“r2”)
  • 封装式(Wrapper),结合交叉验证的递归特征消除法,自动选择最优特征个数:

fs.SelectFromModel(estimator)
  • 嵌入式(Embedded),从模型中自动选择特征,任何具有coef_或者feature_importances_的基模型都可以作为estimator参数传入。

3.3.3 监督学习算法

1.监督学习算法-回归

表3-6常见的回归模型

回归模型名称库名称
线性回归LinearRegression
岭回归Ridge
LASSO回归Lasso
ElasticNet回归ElasticNet
决策树回归tree.DecisionTreeRegressor

代码示例:

#从线性模型库导入线性回归模型  
from sklearn.linear_model import LinearRegression  
# 构建模型实例  
lr = LinearRegression(normalize=True)  
#训练模型  
lr.fit(X_train, y_train)  
#作出预测  
y_pred = lr.predict(X_test)

2.监督学习算法-分类

表3-7常见的分类模型

模型名称库名称
逻辑回归linear model.LogisticRearession
支持向量机svm.SVC
朴素贝叶斯naive_bayes.GaussianNB
KNNneighbors.NearestNeighbors
随机森林ensemble.RandomForestClassifier
GBDTensemble.GradientBoostingClassifier

代码示例:

#从树模型库导入决策树  
from sklearn.tree import DecisionTreeClassifier    
#定义模型  
clf = DecisionTreeClassifier(max_depth=5)    
#训练模型  
clf.fit(X_train, y_train)  
#使用决策树分类算法解决二分类问题,得到的是类别  
y_pred = clf.predict(X_test)    
#y_prob 为每个样本预测为“0”和“1”类的概率  
y_prob = clf.predict_proba(X_test)

3.3.4 无监督学习算法

1.聚类算法

sklearn.cluster模块包含了一系列无监督聚类算法,聚类使用的方法如下:

from sklearn.cluster import库名称

表3-8常见的聚类模型

模型名称库名称
K-meansKMeans
DBSCANDBSCAN
层次聚类AgglomerativeClustering
谱聚类SpectralClustering

代码示例:

#从聚类模型库导入kmeans  
from sklearn.cluster import kmeans  
#构建聚类实例  
kmeans = KMeans(n_clusters=3, random_state=0)  
#拟合  
kmeans.fit(X_train)  
#预测  
kmeans.predict(X_test)

2.降维算法

Scikit-learn中降维算法都被包括在模块decomposition中,sklearn.decomposition模块本质是一个矩阵分解模块。最常见的降维方法是PCA(主成分分析)。

降维的使用的方法如下:

from sklearn.decomposition import库名称

代码示例:

#导入PCA库  
from sklearn.decomposition import PCA  
#设置主成分数量为3,n_components代表主成分数量  
pca = PCA(n_components=3)  
#训练模型  
pca.fit(X)  
#投影后各个特征维度的方差比例(这里是三个主成分)  
print(pca.explained_variance_ratio_)  
#投影后的特征维度的方差  
print(pca.explained_variance_)

3.3.5 评价指标

sklearn.metrics模块包含了一系列用于评价模型的评分函数、损失函数以及成对数据的距离度量函数。评价指标主要分为分类评价指标、回归评价指标等等,表3-8列举了常见的几种评价指标。

评价指标使用的方法如下:

from sklearn.metrics import库名称

表3-8常见评价指标

评价指标库名称使用范围
准确率accuracy_score分类
精确率precision_score分类
F1 值f1_score分类
对数损失log_loss分类
混淆矩阵confusion_matrix分类
含多种评价的分类报告classification_report分类
均方误差MSEmean_squared_error回归
平均绝对误差MAEmean_absolute_error回归
决定系数R2r2_score回归

代码示例:

#从评价指标库导入准确率  
from sklearn.metrics import accuracy_score    
#计算样本的准确率  
accuracy_score(y_test, y_pred)  
#对于测试集而言,大部分函数都必须包含真实值y_test和预测值y_pred

3.3.6 交叉验证及超参数调优

1.交叉验证

交叉验证的方法如图3-3,具体原理将在第7章“机器学习实践”中讲解,本章仅讲解使用方法。

971b7843d5c8ece32356b295ebec9b9d.png

图3-3 交叉验证示意图

代码示例:

#从模型选择库导入交叉验证分数  
from sklearn.model_selection import cross_val_score    
clf = DecisionTreeClassifier(max_depth=5)  
#使用5折交叉验证对决策树模型进行评估,使用的评分函数为F1值  
scores = cross_val_score(clf, X_train, y_train,cv=5, scoring=’f1_weighted’)

此外,Scikit-learn提供了部分带交叉验证功能的模型类如LogisticRegressionCVLassoCV、等,这些类包含CV参数。

2.超参数调优

在机器学习中,超参数是指无法从数据中学习而需要在训练前提供的参数。机器学习模型的性能在很大程度上依赖于寻找最佳超参数集。

超参数调整一般是指调整模型的超参数,这基本上是一个非常耗时的过程。目前主要有 3 种最流行的超参数调整技术:网格搜索、随机搜索和贝叶斯搜索,其中Scikit-learn内置了网格搜索、随机搜索,本章进行简单讲解,其余调参方法如贝叶斯搜索,本章不进行讨论。

(1) 超参数调优⸺网格搜索

代码示例:

#从模型选择库导入网格搜索  
from sklearn.model_selection import GridSearchCV    
from sklearn import svm  
svc = svm.SVC()  
#把超参数集合作为字典  
params = {‘kernel’:[‘linear’, ‘rbf’], ‘C’:[1, 10]}    
#进行网格搜索,使用了支持向量机分类器,并进行五折交叉验证  
grid_search = GridSearchCV(svc, params, cv=5)    
#模型训练  
grid_search.fit(X_train, y_train)    
#获取模型最优超参数组合  
grid_search.best_params_

在参数网格上进行穷举搜索,方法简单但是搜索速度慢(超参数较多时),且不容易找到参数空间中的局部最优。

(2) 超参数调优⸺随机搜索

代码示例:

#从模型选择库导入随机搜索  
from sklearn.model_selection import RandomizedSearchCV    
from scipy.stats import randint  
svc = svm.SVC()  
#把超参数组合作为字典  
param_dist = {‘kernel’:[‘linear’, ‘rbf’], ‘C’:randint(1, 20)}    
#进行随机搜索  
random_search = RandomizedSearchCV(svc, param_dist, n_iter=10)    
#模型训练  
random_search.fit(X_train, y_train)    
#获取最优超参数组合  
random_search.best_params_

在参数子空间中进行随机搜索,选取空间中的100个点进行建模(可从scipy.stats常见分布如正态分布norm、均匀分布uniform中随机采样得到),时间耗费较少,更容易找到局部最优。

3.4 Scikit-learn总结

Scikit-learn是基于 Python 语言的机器学习工具,它建立在 NumPy、SciPy、Pandas 和 Matplotlib 之上,被广泛地用于统计分析和机器学习建模等数据科学领域,其主要优点包括:

(1) 建模方便:用户通过Scikit-learn能够实现各种监督和非监督学习的模型,仅仅需要几行代码就可以实现。

(2) 功能多样:使用Scikit-learn还能够进行数据的预处理、特征工程、数据集切分、模型评估等工作。

(3) 数据丰富:内置丰富的数据集,比如:泰坦尼克、鸢尾花等,还可以生成数据,非常方便。

参考文献

[1] PEDREGOSA F, VAROQUAUX G, GRAMFORT A, et al. Scikit-learn: Machine Learning in Python[J]. Journal of Machine Learning Research, 2011, 12: 2825–2830.

本文为黄海广老师的机器学习入门基础的第三章原文。

购书连接:

0eb877c76cb785ea86435efa17f2f79e.png

教师可以向黄海广老师申请教学ppt原版(邮件:haiguang2000@wzu.edu.cn)

代码地址:https://github.com/fengdu78/WZU-machine-learning-course

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/587264.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

全国流体力学盛会召开,飞桨AI4S携最新科研进展亮相西湖大学

‍‍‍‍ 5月20-21日,第四届全国智能流体力学研讨会暨第二届智能流体力学产业联合体大会在西湖大学召开。此次会议由中国力学学会、中国空气动力学会、《水动力学研究与进展》编委会、西湖大学、浙江大学、上海交通大学、中国船舶集团第七〇八研究所主办&#xff1b…

nsis制作windows安装包-修改安装目录读写权限

目录 1. 背景2. 使用AccessControl修改权限2.1 AccessControl下载安装2.2 修改脚本 1. 背景 使用nsis制作的windows安装包在安装时,将安装目录设置到非系统盘里,安装完成后一般不会出现读写权限的异常问题。但是,安装时选择在系统盘里安装&a…

envi随机森林分类5.3版本

在App Store中搜索随进森林工具,进行下载并重启envi软件 含有三个模块 Train Random Forest Model 1. Input Raster:输入影像。选择图像时不能进行空间、光谱裁剪或掩膜(ENVI 5.5及以上版本已经禁止显示这些按钮) 2. Random Sam…

无需租云服务器,Linux本地搭建web服务,并内网穿透发布公网访问

文章目录 前言1. 本地搭建web站点2. 测试局域网访问3. 公开本地web网站3.1 安装cpolar内网穿透3.2 创建http隧道,指向本地80端口3.3 配置后台服务 4. 配置固定二级子域名5. 测试使用固定二级子域名访问本地web站点 转载自cpolar文章:Linux CentOS本地搭建…

c++ 11标准模板(STL) std::map(八)

定义于头文件<map> template< class Key, class T, class Compare std::less<Key>, class Allocator std::allocator<std::pair<const Key, T> > > class map;(1)namespace pmr { template <class Key, class T, clas…

香港财经学院工商管理硕士(MBA)含金量

近年来&#xff0c;随着中国经济的崛起&#xff0c;越来越多的学生和从业人员开始关注MBA教育。在香港地区&#xff0c;香港财经学院的MBA项目备受瞩目&#xff0c;被誉为是该地区最具含金量的MBA项目之一。首先&#xff0c;香港财经学院作为一家优秀的商学院&#xff0c;在教学…

【C++系列P1】带上这篇基础小宝典,进发C++!(持续更新ing~)

​​​​​​​ 前言 大家好吖&#xff0c;欢迎来到 YY 滴 C系列 &#xff0c;热烈欢迎&#xff01;(持续更新ing~&#xff09;本章主要内容面向刚刚学完C语言&#xff0c;准备或正在接触C的老铁。而往往C奇多的小特性和知识点让铁铁们头晕晕脑涨涨&#xff0c;因而本章收纳了…

为什么北欧的顶级程序员数量远超中国?(续)

之前写过一篇文章《为什么北欧的顶级程序员数量远超中国&#xff1f;》&#xff0c;讲了北欧大神们开发的Linux、MySQL、Chrome V8、MineCraft、QT等优秀软件&#xff0c;分析了北欧有如此多顶级程序员的主要原因。 有位读者Ven 源 留言说&#xff0c;除了文章中教育优势&…

碳纤维单丝外径测试中的纳米分辨率激光衍射法解决方案

摘要&#xff1a;碳纤维单丝热膨胀系数是碳纤维复合材料设计、生产与可靠性和寿命评估的重要参数&#xff0c;本文针对单丝径向高温热膨胀系数测试这一难题提出了相应的解决方案。解决方案的核心内容是基于激光衍射法和高温辐射加热&#xff0c;并采用衍射轮廓拟合技术以及相应…

Dropout层的个人理解和具体使用

Dropout层的作用 dropout 能够避免过拟合&#xff0c;我们往往会在全连接层这类参数比较多的层中使用dropout&#xff1b;在训练包含dropout层的神经网络中&#xff0c;每个批次的训练数据都是随机选择&#xff0c;实质是训练了多个子神经网络&#xff0c;因为在不同的子网络中…

Linux常用命令——gzip命令

在线Linux命令查询工具 gzip 用来压缩文件 补充说明 gzip命令用来压缩文件。gzip是个使用广泛的压缩程序&#xff0c;文件经它压缩过后&#xff0c;其名称后面会多处“.gz”扩展名。 gzip是在Linux系统中经常使用的一个对文件进行压缩和解压缩的命令&#xff0c;既方便又好…

Python过滤信息,如省位中包含广东、安徽、浙江这3个省份的话,就pass,怎么破?...

点击上方“Python爬虫与数据挖掘”&#xff0c;进行关注 回复“书籍”即可获赠Python从入门到进阶共10本电子书 今 日 鸡 汤 但令心似金钿坚&#xff0c;天上人间会相见。 大家好&#xff0c;我是皮皮。 一、前言 前几天遇到了一个小问题&#xff0c;在做资料的时候&#xff0c…

7位专家齐聚openGauss Developer Day 2023云和恩墨专题论坛,共论数据库自主创新改造与技术发展...

5月26日&#xff0c;云和恩墨在「openGauss Developer Day 2023」主论坛上大放异彩&#xff08;←点此回顾主论坛精彩时刻&#xff09;&#xff0c;更是通过举办一场数据库技术创新与应用实践分论坛&#xff0c;力邀7位重量级嘉宾就数据库创新能力构建、行业应用实践和迁移替代…

SpringBoot配置文件的注入和读取

目录 1. 配置文件的作用 2. 两种配置文件的格式&#xff1a; 2.1 properties 基本语法&#xff1a; 2.1.1 写入 2.1.2 读取 执行原理 2.1.3 缺点分析 2.2 yml 基本语法&#xff1a; 2.2.1 写入&#xff08;非对象&#xff09; 2.2.3 配置对象 2.2.4 配置集合 多个配…

【Linux初阶】基础IO - 文件管理(深入理解文件描述符) | 重定向

文章目录 一、文件管理引入二、理解文件描述符三、文件描述符表四、文件描述符的分配规则五、重定向六、使用 dup2 系统调用实现重定向1.模拟实现 >&#xff08;输出&#xff09;2.模拟实现 >>&#xff08;追加&#xff09;3.模拟实现 <&#xff08;输入&#xff0…

【观察】浪潮信息:自研液环式真空CDU技术,将被动应对变为主动防御

毫无疑问&#xff0c;在“双碳”战略的大环境下&#xff0c;数据中心走向绿色低碳和可持续发展已成为“不可逆”的大趋势&#xff0c;特别是随着全国一体化大数据中心、新型数据中心等政策文件的出台、“东数西算”工程的正式启动&#xff0c;数据中心的建设规模和数量呈现出快…

老胡周刊QA微信机器人(基于ChatGPT)

背景 先做个介绍吧&#xff0c;老胡的信息周刊是我从2021-08-16创立的周刊&#xff0c;截止到目前(2023-05-29)将近两年时间&#xff0c;目前已经有92期周刊&#xff0c;中间基本没有断更过&#xff0c;一共发布资源统计如下&#xff1a; &#x1f3af; 项目 288&#x1f916; …

Ae:稳定运动

使用跟踪器 Tracker面板的稳定运动 Stabilize Motion功能&#xff0c;可通过手动添加和设置跟踪点来跟踪对象的运动&#xff0c;将获得的跟踪数据对图层本身进行反向变换&#xff0c;从而达到稳定画面的目的。 Ae菜单&#xff1a;窗口/跟踪器 Tracker 点击跟踪器面板上的“稳定…

长文教你如何正确使用ChatGPT提高学习效率!

最近 Chat GPT 很&#x1f525;&#xff0c;被大家评为无所不能的最强AI。据说&#xff0c;有百分之八十的留学生已经在用ChatGPT 来写作业了&#xff0c;因为ChatGPT真的是有问必答&#xff0c;光速回复&#xff0c;复制粘贴都没有它回答的快。 目录 Part.1 什么是ChatGPT&a…

驱动开发:内核读写内存浮点数

如前所述&#xff0c;在前几章内容中笔者简单介绍了内存读写的基本实现方式&#xff0c;这其中包括了CR3切换读写&#xff0c;MDL映射读写&#xff0c;内存拷贝读写&#xff0c;本章将在如前所述的读写函数进一步封装&#xff0c;并以此来实现驱动读写内存浮点数的目的。内存浮…