【机器学习】逻辑回归(实战)

news2024/11/20 3:23:30

逻辑回归(实战)



目录

实战部分将结合着 理论部分 进行,旨在帮助理解和强化实操(以下代码将基于 jupyter notebook 进行)。




一、准备工作(设置 jupyter notebook 中的字体大小样式等)

import numpy as np
import os
%matplotlib inline
import matplotlib
import matplotlib.pyplot as plt
plt.rcParams['axes.labelsize'] = 14
plt.rcParams['xtick.labelsize'] = 12
plt.rcParams['ytick.labelsize'] = 12
import warnings
warnings.filterwarnings('ignore')
np. random.seed(42)



二、绘制 sigmoid 函数: σ ( z ) = 1 1 + e − z \sigma(z)=\frac{1}{1+e^{-z}} σ(z)=1+ez1

AbsoluteLimiteLength = 7
t = np.linspace(-AbsoluteLimiteLength,AbsoluteLimiteLength,100)
sig = 1/ (1 + np.exp(-t))
plt.figure(figsize=(6,4))
plt.plot([-AbsoluteLimiteLength,AbsoluteLimiteLength], [0,0], "k-")
plt.plot([-AbsoluteLimiteLength,AbsoluteLimiteLength], [0.5,0.5], "k:")
plt.plot([-AbsoluteLimiteLength,AbsoluteLimiteLength], [1,1], "k:")
plt.plot([0,0],[-1.1, 1.1], "k-")
plt.plot(t, sig, "b-", linewidth=2, label= r"$\sigma(z) = \frac{1} {1 + e^{-z}}$")
plt.xlabel("t")
plt.legend(loc="upper left", fontsize=15)
plt.axis([-AbsoluteLimiteLength, AbsoluteLimiteLength, -0.1, 1.1])
plt.title('Logistic function')
plt.show ()

绘制出构建的数据(散点图)

Alt




三、查看鸢尾花数据集

鸢尾花数据集:含有 3 个类别,每个类别有 50 条数据,所有数据均有 4 个特征(分布是:萼片长度、萼片宽度、花瓣长度、花瓣宽度)。


Alt


1、加载 iris 数据集并查看

# 加载 iris 数据集
from sklearn import datasets
iris = datasets.load_iris()

# 下面的命令可以查看 iris 数据集有哪些 keys 值是可以调用的
list(iris.keys())
Out
	['data',
	 'target',
	 'frame',
	 'target_names',
	 'DESCR',
	 'feature_names',
	 'filename',
	 'data_module']

# 打印数据的信息
print(iris.DESCR)
	.. _iris_dataset:
	
	Iris plants dataset
	--------------------
	
	**Data Set Characteristics:**
	
	    :Number of Instances: 150 (50 in each of three classes)
	    :Number of Attributes: 4 numeric, predictive attributes and the class
	    :Attribute Information:
	        - sepal length in cm
	        - sepal width in cm
	        - petal length in cm
	        - petal width in cm
	        - class:
	                - Iris-Setosa
	                - Iris-Versicolour
	                - Iris-Virginica
	                
	    :Summary Statistics:
	
	    ============== ==== ==== ======= ===== ====================
	                    Min  Max   Mean    SD   Class Correlation
	    ============== ==== ==== ======= ===== ====================
	    sepal length:   4.3  7.9   5.84   0.83    0.7826
	    sepal width:    2.0  4.4   3.05   0.43   -0.4194
	    petal length:   1.0  6.9   3.76   1.76    0.9490  (high!)
	    petal width:    0.1  2.5   1.20   0.76    0.9565  (high!)
	    ============== ==== ==== ======= ===== ====================
	
	    :Missing Attribute Values: None
	    :Class Distribution: 33.3% for each of 3 classes.
	    :Creator: R.A. Fisher
	    :Donor: Michael Marshall (MARSHALL%PLU@io.arc.nasa.gov)
	    :Date: July, 1988
	
	The famous Iris database, first used by Sir R.A. Fisher. The dataset is taken
	from Fisher's paper. Note that it's the same as in R, but not as in the UCI
	Machine Learning Repository, which has two wrong data points.
	
	This is perhaps the best known database to be found in the
	pattern recognition literature.  Fisher's paper is a classic in the field and
	is referenced frequently to this day.  (See Duda & Hart, for example.)  The
	data set contains 3 classes of 50 instances each, where each class refers to a
	type of iris plant.  One class is linearly separable from the other 2; the
	latter are NOT linearly separable from each other.
	
	.. topic:: References
	
	   - Fisher, R.A. "The use of multiple measurements in taxonomic problems"
	     Annual Eugenics, 7, Part II, 179-188 (1936); also in "Contributions to
	     Mathematical Statistics" (John Wiley, NY, 1950).
	   - Duda, R.O., & Hart, P.E. (1973) Pattern Classification and Scene Analysis.
	     (Q327.D83) John Wiley & Sons.  ISBN 0-471-22361-1.  See page 218.
	   - Dasarathy, B.V. (1980) "Nosing Around the Neighborhood: A New System
	     Structure and Classification Rule for Recognition in Partially Exposed
	     Environments".  IEEE Transactions on Pattern Analysis and Machine
	     Intelligence, Vol. PAMI-2, No. 1, 67-71.
	   - Gates, G.W. (1972) "The Reduced Nearest Neighbor Rule".  IEEE Transactions
	     on Information Theory, May 1972, 431-433.
	   - See also: 1988 MLC Proceedings, 54-64.  Cheeseman et al"s AUTOCLASS II
	     conceptual clustering system finds 3 classes in the data.
	   - Many, many more ...

2、设计二分类实验

选取其中 Virginica 类型(在数据集中为第 3 类,index = 2)的鸢尾花作为一类、剩余的鸢尾花作为另一类。
注:为了便于读者在后面绘制决策边界时更容易理解,接下来的回归实验仅选取鸢尾花数据集中的一个特征来进行。

# 这里选择 iris 数据集的第 3 个特征作为回归实验的 X 数组
X = iris['data'][:,3:]
print("查看训练数据的前 10 项:")
print(X[:10])
print()

# 将 Virginica 花的标签设置为 1,其余为 0
y = (iris['target'] == 2).astype(np.int)
print("查看数据对应的标签:")
print(y)
Out
	查看训练数据的前 10 项:
	[[0.2]
	 [0.2]
	 [0.2]
	 [0.2]
	 [0.2]
	 [0.4]
	 [0.3]
	 [0.2]
	 [0.2]
	 [0.1]]
	
	查看数据对应的标签:
	[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
	 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
	 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1
	 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
	 1 1]



四、实验:逻辑回归


1、分类器的构建

# 导入包
from sklearn.linear_model import LogisticRegression
log_res = LogisticRegression()

# 训练分类器
log_res.fit(X,y)

在这里插入图片描述

# 构建测试数据(只有一个特征)
# reshape(-1,1)表示将指定数据的全部内容(“-1”),置为一个 1 维的的数组(“1”)
X_new = np.linspace(0,3,1000).reshape(-1,1)

# 查看构建数据的前 10 项
print(X_new[:10])
Out
	[[0.        ]
	 [0.003003  ]
	 [0.00600601]
	 [0.00900901]
	 [0.01201201]
	 [0.01501502]
	 [0.01801802]
	 [0.02102102]
	 [0.02402402]
	 [0.02702703]]
# 得到预测结果(为了便于进行可视化展示,这里的预测结果不返回 0 与 1 的二值结果,而是得到一组概率值)
# CLF.predict()函数默认将所有的概率按 0.5 作为阈值来划分出二值结果
# CLF.predict_proba()函数则是返回所有数据的概率值(其返回类型是一个 [][2] 的数组,第一个维度为“预测目标为 1 的概率”,第二个维度为“预测目标为 0 的概率”)
y_proba = log_res.predict_proba(X_new)
print(np.shape(y_proba))
print(y_proba[:10])
Out
	(1000, 2)
	[[9.99250016e-01 7.49984089e-04]
	 [9.99240201e-01 7.59799387e-04]
	 [9.99230257e-01 7.69743043e-04]
	 [9.99220183e-01 7.79816732e-04]
	 [9.99209978e-01 7.90022153e-04]
	 [9.99199639e-01 8.00361024e-04]
	 [9.99189165e-01 8.10835088e-04]
	 [9.99178554e-01 8.21446109e-04]
	 [9.99167804e-01 8.32195877e-04]
	 [9.99156914e-01 8.43086202e-04]]

可以看出 y_proba 列表中 [ i ][0] 和 [ i ][1] 之和为 1。


2、画图展示

# 画图展示

# 拿到边界
decison_boundary = X_new[y_proba[:,1]>=0.5][0]

# 画出边界线
plt.plot([decison_boundary,decison_boundary],[-0.5,1.5],'k:')

# 画出随花瓣长度变化的概率值
plt.plot(X_new,y_proba[:,1],'g-',label='Iris-Virginica')
plt.plot(X_new,y_proba[:,0],'b-',label='Not Iris-Virginica')

# 画箭头
plt.arrow(decison_boundary,-0.1,-0.3,0,head_width = 0.05, head_length = 0.1,fc='b',ec='b')
plt.arrow(decison_boundary,1.1,0.3,0,head_width = 0.05, head_length = 0.1,fc='g',ec='g')

# 赋标题
plt.text(decison_boundary+0.02,0.05,'Decison Boundary',fontsize = 8,color = 'k',ha='center')

# 设置标题大小
plt.legend(fontsize = 10)

# 赋坐标轴的含义
plt.xlabel('Peta width(cm)',fontsize = 10)
plt.ylabel('y_proba',fontsize = 10)

# 查看函数参数
# print(help(plt.arrow))

Alt

该图表示,随着花瓣长度增加,该花不属于 Virginica 类型的概率在减小,而属于 Virginica 类型的概率在增加




五、决策边界的绘制

步骤如下:
① 构建坐标数据,合理的范围当中,根据实际训练时输入数据来决定(可参考 iris.DESCR)
② 整合坐标点,得到所有测试输入数据坐标点
③ 预测,得到所有点的概率值
④ 绘制等高线,完成决策边界


1、训练数据的决策边界

# 为了便于展示,通常习惯在二维平面中绘制决策边界(其中一个维度是某个属性,另一个维度则是另一个属性)
# 因此,接下来构建分类器时将选取 iris 数据集两个特征
X = iris['data'][:,(2,3)]
print(X.shape)
print(X[:10])

# 这里依然将 Virginica 花的标签设置为 1,其余为 0
y = (iris['target']==2).astype(np.int)

# 训练数据
log_res = LogisticRegression()
log_res.fit(X,y)
Out
	(150, 2)
	[[1.4 0.2]
	 [1.4 0.2]
	 [1.3 0.2]
	 [1.5 0.2]
	 [1.4 0.2]
	 [1.7 0.4]
	 [1.4 0.3]
	 [1.5 0.2]
	 [1.4 0.2]
	 [1.5 0.1]]

Alt

# 查看标签数据规格和内容
print(y.shape)
y==0
Out
	(150,)
	array([ True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True,  True,  True,  True,  True,  True,  True,  True,  True,
	        True, False, False, False, False, False, False, False, False,
	       False, False, False, False, False, False, False, False, False,
	       False, False, False, False, False, False, False, False, False,
	       False, False, False, False, False, False, False, False, False,
	       False, False, False, False, False, False, False, False, False,
	       False, False, False, False, False, False])
# 构建坐标数据时可参考训练数据集中 X 数组的取值范围
print("训练数组中X[,0]的最小值为 {},最大值为 {}".format(X[:,0].min(),X[:,0].max()))
print("训练数组中X[,1]的最小值为 {},最大值为 {}".format(X[:,1].min(),X[:,1].max()))
Out
	训练数组中X[,0]的最小值为 1.0,最大值为 6.9
	训练数组中X[,1]的最小值为 0.1,最大值为 2.5
# 构建坐标数据
# meshgrid(ary1, ary2,…, aryN)函数被用于返回 N 组不同的数据,以构建 N 维数组,其规则如下:
# 1、传入的数组个数有多少个,就返回多少个 ndarray;
# 2、传入的数组个数有多少个,每个返回的 ndarray 就是多少维的;
# 3、若 ary1 长度为 L1,ary2 长度为 L2,…,aryN 长度为 LN,则每个 ndarray 在其每个维度上的长度分别也为 LN、…、L2、L1。
# 4、第 i 个 ndarray 的取值(范围)即为第 i 个 aryi 。

# 接下来,可使用 ravel() 函数来将 N 个 ndarray 拉平,然后再用这 N 个数组构建一个 N 维数组。

x0,x1 = np.meshgrid(np.linspace(1.5,7,500).reshape(-1,1),np.linspace(0.5,2.7,200).reshape(-1,1))
X_new = np.c_[x0.ravel(),x1.ravel()]

# 预测
y_proba = log_res.predict_proba(X_new)

# 绘图
plt.plot(X[y==0,0],X[y==0,1],'bs')
plt.plot(X[y==1,0],X[y==1,1],'g^')

# 查看等高线
zz = y_proba[:,1].reshape(x0.shape)

# 画等高线
contour = plt.contour(x0,x1,zz,cmap=plt.cm.brg)
plt.clabel(contour)
plt.text(3,1.5,'Not Vir',fontsize = 16, color = 'b')
plt.text(6.5,2.5,'Vir',fontsize = 16, color = 'g')

Alt

2、测试数据的决策边界

构建坐标棋盘(这里需要用到一个函数:meshgrid)
meshgrid (ary1, ary2,…, aryN) 函数被用于返回 N 组不同的数据,以构建 N 维数组,其规则如下:
① 传入的数组个数有多少个,就返回多少个 ndarray;
② 传入的数组个数有多少个,每个返回的 ndarray 就是多少维的;
③ 若 ary1 长度为 L1,ary2 长度为 L2,…,aryN 长度为 LN,则每个 ndarray 在其每个维度上的长度分别也为 L1、L2、…、LN。
④ 第 i 个 ndarray 的取值(范围)即为第 i 个 aryi 。
接下来,可使用 ravel() 函数来将 N 个 ndarray 拉平,然后再用这 N 个数组构建一个 N 维数组。

数组拉伸函数说明
numpy.c_(ary1, ary2) :将切片对象沿第二个轴(按列)连接。
numpy.r_(ary1, ary2) :将切片对象沿第一个轴(按行)连接。

# 构建两个维度的数据
x0,x1 = np.meshgrid(np.linspace(1.5,7,500),np.linspace(0.5,2.7,200))

# 将两个维度的数据拉伸后进行连接
X_new = np.c_[x0.ravel(),x1.ravel()]

# 可以将以上两个步骤视为对两个数组进行了笛卡尔积操作,以此完成数据集的构建

# 计算构建的坐标数据的概率值
y_proba = log_res.predict_proba(X_new)

# 绘图
plt.figure(figsize=(6,4))
plt.plot(X[y==0,0],X[y==0,1],'b*')
plt.plot(X[y==1,0],X[y==1,1],'g^')

# 得到“z 轴”的线,这一步需要 reshape 
# 因为 x0,x1 是规格为 (200, 500) 的二维数组,我们绘制等高线时,对于该二维数组中的每个数据都需要画出对应在 z 轴上的线
zz = y_proba[:,1].reshape(x0.shape)

# 设置轮廓等高线的参数
contour = plt.contour(x0,x1,zz,cmap=plt.cm.brg)

# 绘制轮廓等高线
plt.clabel(contour)

# 添加必要的文本内容
plt.text(3,1.6,'Not Vir Class',fontsize = 10, color = 'b')
plt.text(6.2,2.5,'Vir Class',fontsize = 10, color = 'g')

Alt




六、多分类实验:softmax

# 构建训练集
X = iris['data'][:,(2,3)]
y = iris['target']

# 多分类:在逻辑回归中加入必要的 multi_class 参数和需要选用的 solver(用于优化损失函数的算法)
softmax_reg = LogisticRegression(multi_class = 'multinomial',solver = 'lbfgs')
softmax_reg.fit(X,y)

Alt

# 调用分类器预测指定的随机数据
softmax_reg.predict_proba([[5,2]])
Out 
	array([[2.43559894e-04, 2.14859516e-01, 7.84896924e-01]])

上面的结果给出了对输入向量在三个类别上的概率值。


绘制多分类的决策边界

# 构建数据坐标(网格点坐标矩阵)
x0,x1 = np.meshgrid(
    np.linspace(0,8,500).reshape(-1,1),
    np.linspace(0,3.5,200).reshape(-1,1))
X_new = np.c_[x0.ravel(),x1.ravel()]

y_proba = softmax_reg.predict_proba(X_new)

zz = y_proba[:,1].reshape(x0.shape)

plt.figure(figsize = (8,4))
plt.plot(X[y==2,0],X[y==2,1],'g^',label="Iris-Virginica")
plt.plot(X[y==1,0],X[y==1,1],'bs',label="Iris-Versicolor")
plt.plot(X[y==0,0],X[y==0,1],'yo',label="Iris-Setosa")

from matplotlib.colors import ListedColormap
custom_cmap = ListedColormap(['#a0faa0','#fafab0','#9898ff'])

# alpha 为透明度
contour = plt.contourf(x0,x1,zz,alpha=0.6,cmap = custom_cmap)
plt.clabel(contour,inline = 1,fontsize = 10)
plt.xlim(x0.min(),x0.max())
plt.ylim(x1.min(),x1.max())
plt.xlabel('Petal Length',fontsize = 12)
plt.ylabel('Petal Width',fontsize = 12)
plt.legend(fontsize = 12)
plt.show()

Alt

# 构建数据坐标(网格点坐标矩阵)
x0,x1 = np.meshgrid(
    np.linspace(0,8,500).reshape(-1,1),
    np.linspace(0,3.5,200).reshape(-1,1))
X_new = np.c_[x0.ravel(),x1.ravel()]

y_proba = softmax_reg.predict_proba(X_new)

zz = y_proba[:,1].reshape(x0.shape)

plt.figure(figsize = (8,4))
plt.plot(X[y==2,0],X[y==2,1],'g^',label="Iris-Virginica")
plt.plot(X[y==1,0],X[y==1,1],'b*',label="Iris-Versicolor")
plt.plot(X[y==0,0],X[y==0,1],'yo',label="Iris-Setosa")

from matplotlib.colors import ListedColormap
custom_cmap = ListedColormap(['#a0ffa0','#faffb0','#9899ff'])

contour = plt.contour(x0,x1,zz,cmap = plt.cm.brg)
plt.clabel(contour,inline = 1,fontsize = 10)
plt.xlim(x0.min(),x0.max())
plt.ylim(x1.min(),x1.max())
plt.xlabel('Petal Length',fontsize = 12)
plt.ylabel('Petal Width',fontsize = 12)
plt.legend(fontsize = 12)
plt.show()

Alt


END


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/183374.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

[Java]Maven学习笔记(尚硅谷2022)

文章目录🥽 Maven概述🌊 Maven的功能🌊 Maven简介💦 构建💦 依赖💦 Maven 的工作机制🥽 Maven核心程序解压和配置🌊 Maven 核心程序解压与配置💦 下载💦 解压…

电脑本地安装不同版本MySQL

本地已经安装了mysql5.7版本,想测试mysql8版本的用法,想在一台电脑同时配置不同版本的mysql在不同端口号,看起来简单,实现起来其实挺多坑的,总结下实战经验和大家分享下 一、下载安装 下载地址 二、配置 1、解压缩…

word标签功能:如何快速制作批量产品贴纸标签

在日常生活中,在商店购物时,经常可以看到,商品架上放有产品贴纸标签,用于消费者识别产品价格、日期或者组合成分等。在日常办公中,在办公用品或仓库物料上,同样也能看到贴纸标签,用于物品的分类…

Go语言安装

1. 介绍 Go语言是一门编译型语言。Go的语法接近C语言,但对于变量的声明有所不同。Go支持垃圾回收功能。 C/C:C/C语言直接编译成机器码,不需要执行环境,直接执行在操作系统上; Java:Java会先编译成字节码.c…

es6对象中的简写形式

对象属性简写 let name ww; let age 18; // es5写法 let es5 {name: name,age: age, }; // es6写法 let es6 {name,age }函数简写 let obj {es5: function () {}, // es5写法es6() {} // es6写法,省略 :function }计算属性名 let name ww; let age 18 let o…

前后端鉴权的10种方案

文章目录0、基本概念认证授权鉴权权限控制认证、授权、鉴权和权限控制的关系1. HTTP 基本鉴权1.1 认证流程图1.2 认证步骤解析1.2 认证步骤解析1.3 优点1.4 缺点1.5 使用场景2. Session-Cookie 鉴权2.1 什么是 Cookie2.2 什么是 Session2.3 Session-Cookie 的认证流程图2.4 Ses…

一起Talk Android吧(第四百七十八回:旋转类视图动画)

文章目录使用方法属性介绍示例代码各位看官们大家好,上一回中咱们说的例子是"平移类视图动画",这一回中咱们说的例子是"旋转类视图动画"。闲话休提,言归正转,让我们一起Talk Android吧! 使用方法 旋转类动画…

【Java项目】从0到1构建一个博客系统

✨哈喽,进来的小伙伴们,你们好耶!✨ 🛰️🛰️系列专栏:【JavaWeb】 ✈️✈️本篇内容:从0到1构建一个博客系统! 🚀🚀代码托管平台github:博客系统源码托管! ⛵…

【Git】自建代码托管平台-GitLab

10.1、GitLab 简介 GitLab 是由 GitLabInc.开发,使用 MIT 许可证的基于网络的 Git 仓库管理工具,且具有wiki 和 issue 跟踪功能。使用 Git 作为代码管理工具,并在此基础上搭建起来的 web 服务。 GitLab 由乌克兰程序员 DmitriyZaporozhets …

数据分析-深度学习Pytorch Day11

首先要搞懂损失函数与代价函数。损失函数是单个样本与真实值之间的差距代价函数是整个样本集与真实值的平均差距随机梯度下降就是不使用代价函数对参数进行更新,而是使用损失函数对参数更新。梯度下降法( gradient descent )是一阶最优化算法,通常也称为…

SpringBoot+VUE前后端分离项目学习笔记 - 【27 SpringBoot集成Redis】

以首页的文件访问作为示例使用Redis 一方面加快用户访问速度 一方面缓解频繁访问数据库的压力 之前每次访问首页都会请求数据库数据 Redis安装以及配置 所需文件 解压后,双击下述脚本,启动redis 可视化软件安装、设置安装路径然后一直点下一步就OK …

Java OpenJDK 8u362 Windows x64 Installer

文章目录(一)Azul(二)Adopt(三)IBM(四)Oracle(一)Azul WEB Page:🔗Download Azul Zulu Builds of OpenJDK Windows installer&#xf…

一位老测试对测试用例之个人见解

刚入行的时候,看了很多关于测试相关的文章,记得有一篇说到测试用例是测试灵魂让我印象深刻。如今,我入行几年了,越发深感测试用例的设计重要性,可以这么说,测试用例的设计与管理是测试工程师的核心技能。我…

一套计算机网络系统设计方案,包含外网、内网、智能化设备网

一套计算机网络系统设计方案,包含外网、内网、智能化设备网。 弱电工程设计的计算机网络系统一般分为三种:内网、外网、设备网,这三种网络系统如何设计?它们的架构是如何的呢? 计算机网络系统就是利用通信设备和线路将…

面试_Http常见问题

http协议的默认端口 80 应用层有哪些协议 http ,FTP,SMTP,DNS,MQ 在浏览器中输入网址后会发生什么: 首先服务器有自己的ip地址,但ip地址对人来说很难记,所以人会在浏览器里输入域名,然后经过DNS解析为ip,访问对应的服务器 与服务…

内网云盘如何内网穿透实现公网访问

云盘是一种专业的互联网存储工具,是互联网的云技术产物,它通过互联网为企业和个人提供信息的存储、读取、下载等服务,具有安全稳定、海量存储的特点。随着企业信息化发展,云盘系统需求不断扩大,相关系统软件被广泛应用…

自己动手写一个操作系统——loader(1)

前言 上篇文章中,我们写了一个简单的 loader 作为被加载的演示对象。我们知道 loader 是用来加载 kernel 的,今天我们就编写 loader 代码完成这件事情。 实模式下的内存地址 我们计划把 kernel 加载到内存的 0x10000 地址处。 不过面临一个挑战&…

pug模板在Express框架中的集成

在未讲相关的模板引擎之前前面的篇目中所使用的网页页面大多是静态资源的网页内容,如在之前的案例中就使用过 app.use(express.static(path.join(__dirname,public))) ,通过在本地上进行搭建服务器之后使用express.static()方法讲public下静态…

uni-app从入门到上天视频教程 23讲 我终于卷完了

大家好,我是锋哥!祝大家新年快乐! 过年走亲访友,休息了几天,今天把uni-app课程卷完了,23讲,免费基础课程。 uni-app技术介绍 uni-app 是一个使用 Vue.js 开发所有前端应用的框架,…

(免费分享)springboot音乐网站系统

开发工具:eclipse,数据库mysql5.7 jdk1.8技术:springbootmybatis/** * * * */package com.bjpowernode.music.ss.service.impl;import java.util.List;import javax.annotation.Resource;import com.bjpowernode.music.common.AbstractServ…