数据挖掘,计算机网络、操作系统刷题笔记35

news2025/1/12 18:56:58

数据挖掘,计算机网络、操作系统刷题笔记35

2022找工作是学历、能力和运气的超强结合体,遇到寒冬,大厂不招人,可能很多算法学生都得去找开发,测开
测开的话,你就得学数据库,sql,oracle,尤其sql要学,当然,像很多金融企业、安全机构啥的,他们必须要用oracle数据库
这oracle比sql安全,强大多了,所以你需要学习,最重要的,你要是考网络警察公务员,这玩意你不会就别去报名了,耽误时间!
考网警特招必然要考操作系统,计算机网络,由于备考时间不长,你可能需要速成,我就想办法自学速成了,课程太长没法玩
刷题系列文章
【1】Oracle数据库:刷题错题本,数据库的各种概念
【2】操作系统,计算机网络,数据库刷题笔记2
【3】数据库、计算机网络,操作系统刷题笔记3
【4】数据库、计算机网络,操作系统刷题笔记4
【5】数据库、计算机网络,操作系统刷题笔记5
【6】数据库、计算机网络,操作系统刷题笔记6
【7】数据库、计算机网络,操作系统刷题笔记7
【8】数据库、计算机网络,操作系统刷题笔记8
【9】操作系统,计算机网络,数据库刷题笔记9
【10】操作系统,计算机网络,数据库刷题笔记10
【11】操作系统,计算机网络,数据库刷题笔记11
【12】操作系统,计算机网络,数据库刷题笔记12
【13】操作系统,计算机网络,数据库刷题笔记13
【14】操作系统,计算机网络,数据库刷题笔记14
【15】计算机网络、操作系统刷题笔记15
【16】数据库,计算机网络、操作系统刷题笔记16
【17】数据库,计算机网络、操作系统刷题笔记17
【18】数据库,计算机网络、操作系统刷题笔记18
【19】数据库,计算机网络、操作系统刷题笔记19
【20】数据库,计算机网络、操作系统刷题笔记20
【21】数据库,计算机网络、操作系统刷题笔记21
【22】数据库,计算机网络、操作系统刷题笔记22
【23】数据库,计算机网络、操作系统刷题笔记23
【24】数据库,计算机网络、操作系统刷题笔记24
【25】数据库,计算机网络、操作系统刷题笔记25
【26】数据库,计算机网络、操作系统刷题笔记26
【27】数据库,计算机网络、操作系统刷题笔记27
【28】数据库,计算机网络、操作系统刷题笔记28
【29】数据库,计算机网络、操作系统刷题笔记29
【30】数据库,计算机网络、操作系统刷题笔记30
【31】数据库,计算机网络、操作系统刷题笔记31
【32】数据库,计算机网络、操作系统刷题笔记32
【33】数据库,计算机网络、操作系统刷题笔记33
【34】数据库,计算机网络、操作系统刷题笔记34


文章目录

  • 数据挖掘,计算机网络、操作系统刷题笔记35
    • @[TOC](文章目录)
  • 数据挖掘
    • 数据分类
    • 单属性分析
    • 单属性分析——异常值分析
    • 对比分析
    • 结构分析
    • 分布分析
    • 实战代码来玩一下上面的分布,展示HR.csv里面数据的分布啥的,给它分析分析
  • CSMA/CD采用IEEE 802.3标准。
  • 数字签名能够解决篡改,伪造等安全性问题
  • TCP协议是有状态协议,而http/udp/ip是无状态协议
  • 将一个C类网络划分20个子网,最适合的子网掩码是多少()
  • 下列W命令中可以用于检测本机配置的DNS服务器是否工作正常的命令是( )
  • 在 TCP/IP 协议族的层次中,解决计算机之间通信问题是在 ()
  • 隧道技术是 IPV4 向 IPV6 过渡的常用技术之一,它( )
  • 一个标准的分类的IP地址128.202.99.65所属的网络是
  • 下列属于五层分层(物理层、数据链路层、网络层、运输层和应用层)结构的是_ 。
  • STP:Spanning Tree Protocol 生成树协议
  • 顺序文件是指按记录进入文件的先后顺序存放、其逻辑顺序和物理顺序一致的文件。
  • 当今设计高性能计算机的重要技术途径是()
  • 在任一时刻t,都存在一个集合,它包含所有最近k次(该题窗口大小为6)内存访问所访问过的页面。这个集合w(k, t)就是工作集。
  • 关于磁盘引导区描述正确的是?()
  • 访问不同临界资源的两个进程不要求必须互斥的进入临界区
  • 文件的物理结构一般有( )。
  • 总结

数据挖掘

数据分类

类别
顺序–低中高,无法用值衡量
定距离–不能说温度20是10度的2倍
定比:可以节点数据的差值和比例
在这里插入图片描述

单属性分析

在这里插入图片描述

单属性分析——异常值分析

连续异常
在这里插入图片描述
将k取3之上的数都是连续异常值

比如,马云和你的工资平均,发现你贼他妈有钱
这就很离谱

离散异常值:
在这里插入图片描述
集合A是你的离散数据
非A就是异常

知识异常:
身高10米?离谱
在这里插入图片描述

对比分析

通过比较的方式来达到数据的好坏衡量

比什么??数
在这里插入图片描述

绝对数:直接原数比

相对数比较:结构相对【各种率】,比例【同比】,比较【不同竞争对手】,动态【速度】,强度【人均GDP】

对比的维度:
时间:同比【去年同期】,环比【本年上个周期】
充分考虑季节问题

空间:现实方位上的,国家,城市,地区,
逻辑空间:不同的部门
经验与计划的比较:历史上的失业率多大就会暴乱
计划排期与工作进度的比较

在这里插入图片描述
对已有方法的整理很重要

结构分析

总体与部分
静态:组成,第一123产业的比例,产业结构,与其他国家的对比啥的
动态:时间变化,不同5年计划期间,三大产业的比例对比
在这里插入图片描述

分布分析

直接拿概率分布
比如正态分布,瑞利分布,卡方分布
f(x)

正态分布的均值,方差啥的,很好用

1sigma之内占比85%
2sigma之内的95%

极大似然:相似程度的衡量
一串数和一个分布像不像?
在这里插入图片描述
在这里插入图片描述
所有概率的乘积,就是极大似然

单因子稍微好点
不复杂

实战代码来玩一下上面的分布,展示HR.csv里面数据的分布啥的,给它分析分析

这是咱们之前说的HR表,在这个文章我介绍过

咱们来看看有没有异常值
在这里插入图片描述

通过isnull函数查

df = pd.read_csv('HR_comma_sep.csv')
    #  15001条,
    sa_l = df['satisfaction_level']
    # print(sa_l.isnull())  # 看看是否有null异常值
    print(sa_l[sa_l.isnull()])  # 把这个 内部为true的打印出来

在这里插入图片描述
序列【true】:将这个结果为true的范围
我看看是不是将true换成别的数据,也能打印??
no

将刚刚null这个行展示出来的话
可以通过行列索引搞定

print(df[sa_l.isnull()])


       satisfaction_level  last_evaluation  ...  sales  salary
14999                 NaN              NaN  ...    NaN     NaN

[1 rows x 10 columns]

直接将其判空,满足条件就给它打印

好说
对于这null这种,我们直接丢弃

    print(sa_l.dropna())  # 直接丢弃null,然后打印结果

14997    0.11
14998    0.37
Name: satisfaction_level, Length: 14999, dtype: float64

或者我们可以将null填充为别的数据

print(sa_l.fillna(0))  # 将null填充为0
14998    0.37
14999    0.00
Name: satisfaction_level, Length: 15000, dtype: float64

如果有异常值的话,看看能算均值吗

print(sa_l.mean())  # 貌似均值不算null????
    print(sa_l.dropna().mean())  # 貌似均值不算null????
0.6128335222348166
0.6128335222348166

null好像自己就搞废了

去掉null,我们可以看看直方图
统计某个区间内的数量


sa_l = sa_l.dropna()
    print(np.histogram(sa_l.values, bins=np.arange(0,1.1,0.1)))  # bins分为01间隔,统计values它的直方图


(array([ 195, 1214,  532,  974, 1668, 2146, 1972, 2074, 2220, 2004],
      dtype=int64), array([0. , 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1. ]))

Process finished with exit code 0

可以看到x分区
每个区间内个数不同
去掉nullOK

咱看看第二个字段

last_evaluation
def f7():
    df = pd.read_csv('HR_comma_sep.csv')
    #  15001条,
    le_s = df['last_evaluation']
    # print(le_s[le_s.isnull()])  # 只看那些有null为true的值


14999   NaN
Name: last_evaluation, dtype: float64


去掉异常值的话

    df = pd.read_csv('HR_comma_sep.csv')
    #  15001条,
    le_s = df['last_evaluation']
    # print(le_s[le_s.isnull()])  # 只看那些有null为true的值
    # print(le_s.mean())  # 其他的都好说
    # print(le_s.max())  # 其他的都好说
    # print(le_s.min())  # 其他的都好说
    # print(le_s.skew())  # 其他的都好说
    # print(le_s.kurt())  # 其他的都好说
    # print(le_s[le_s>1])  # 这很离谱!!属于异常值,干掉
    print(le_s[le_s <= 1])  # 反着取

14996    0.53
14997    0.96
14998    0.52
Name: last_evaluation, Length: 14999, dtype: float64

上四分位数和下四分位数
来决定上下界

之间的叫正常值
超过了就是异常


    q_low = le_s.quantile(q=0.25)
    q_high = le_s.quantile(q=0.75)
    q_interval = q_high - q_low  # 上下界差值
    k = 1.5  # 1.5---3k上下界
    lower = q_low - k * q_interval
    upper = q_high + k * q_interval
    print(lower)
    print(upper)
    le_s_normal = le_s[le_s<=upper][le_s>=lower]
    print(le_s_normal)  # le_s控制俩条件

    hs_data = np.histogram(le_s_normal.values, bins=np.arange(lower, upper,0.1))
    print(hs_data)


0.09500000000000014
1.335
0        0.53
1        0.86
2        0.88
3        0.87
4        0.52
         ... 
14994    0.57
14995    0.48
14996    0.53
14997    0.96
14998    0.52
Name: last_evaluation, Length: 14999, dtype: float64
(array([   0,    0,  179, 1389, 3174, 2242, 2275, 2752, 2705,  283,    0,
          0], dtype=int64), array([0.095, 0.195, 0.295, 0.395, 0.495, 0.595, 0.695, 0.795, 0.895,
       0.995, 1.095, 1.195, 1.295]))

上面咱们讲过的一个正常数据的范围怎么定?

k = 1.5  # 1.5---3k上下界
lower = q_low - k * q_interval
upper = q_high + k * q_interval

k你定就行
通过上下四分位数来定

然后这样就可以限定数据为正常数据,异常的干掉

分析这些异常,OK吧

再看下一个字段



def f8():
    df = pd.read_csv('HR_comma_sep.csv')
    np_s = df['number_project']
    print(np_s.mean())
    print(np_s.std())
    print(np_s.max())
    print(np_s.min())
    print(np_s.skew())
    print(np_s.kurt())

3.80305353690246
1.2325923553183857
7.0
2.0
0.3377056123598222
-0.4954779519008947

我们也可以数一下不同的值出现了多少次

    print(np_s.value_counts())

4.0    4365
3.0    4055
5.0    2761
2.0    2388
6.0    1174
7.0     256
Name: number_project, dtype: int64

假如但看它占比呢?


    print(np_s.value_counts(normalize=True))
    4.0    0.291019
3.0    0.270351
5.0    0.184079
2.0    0.159211
6.0    0.078272
7.0    0.017068
Name: number_project, dtype: float64

4个项目的人做得最多
美滋滋
反正政协函数要学,这是数据分析与应用岗必须知识

这个函数默认是按照统计结果排序的
如果我们就是要按照这个值本身升序排序呢


    print(np_s.value_counts(normalize=True).sort_index())
    2.0    0.159211
3.0    0.270351
4.0    0.291019
5.0    0.184079
6.0    0.078272
7.0    0.017068
Name: number_project, dtype: float64

这也不难

这就是静态结构分析法

下一个字段
没月平均时长

    df = pd.read_csv('HR_comma_sep.csv')
    av_s = df['average_montly_hours']
    # print(av_s.mean())
    # print(av_s.std())
    # print(av_s.max())
    # print(av_s.min())
    # print(av_s.skew())
    # print(av_s.kurt())

 lower = av_s.quantile(q=0.25)
    upper = av_s.quantile(q=0.75)
    interval = upper - lower
    lower = lower - 1.5 * interval  # 正常边界
    upper = upper + 1.5 * interval
    am_normal = av_s[av_s>=lower][av_s<=upper]  # 排除异常值
    print(am_normal)
    print(len(am_normal))  # 正常的数量
   

再看间隔

    his = np.histogram(am_normal.values, bins=10)  # 分成几份
    print(his)
    his2 = np.histogram(am_normal.values, bins=np.arange(am_normal.min(), am_normal.max(), 10))
    print(his2)


(array([ 367, 1240, 2733, 1722, 1628, 1712, 1906, 2240, 1127,  324],
      dtype=int64), array([ 96. , 117.4, 138.8, 160.2, 181.6, 203. , 224.4, 245.8, 267.2,
       288.6, 310. ]))
(array([ 168,  171,  147,  807, 1153, 1234, 1072,  824,  818,  758,  751,
        738,  856,  824,  987, 1002, 1045,  935,  299,  193,  149],
      dtype=int64), array([ 96., 106., 116., 126., 136., 146., 156., 166., 176., 186., 196.,
       206., 216., 226., 236., 246., 256., 266., 276., 286., 296., 306.]))

Process finished with exit code 0

print(am_normal.value_counts(bins=np.arange(am_normal.min(), am_normal.max(), 10)))  # 类似于统计各个区间的量

左闭右开啥的

(146.0, 156.0]     1277
(136.0, 146.0]     1159
(256.0, 266.0]     1063
(236.0, 246.0]     1006
(156.0, 166.0]      992
(246.0, 256.0]      987
(126.0, 136.0]      886
(216.0, 226.0]      873
(266.0, 276.0]      860
(166.0, 176.0]      832
(226.0, 236.0]      814
(176.0, 186.0]      813
(186.0, 196.0]      761
(196.0, 206.0]      755
(206.0, 216.0]      731
(276.0, 286.0]      319
(95.999, 106.0]     187
(286.0, 296.0]      164
(116.0, 126.0]      162
(106.0, 116.0]      162
(296.0, 306.0]      128
Name: average_montly_hours, dtype: int64

value_counts跟np.histogram类似的

下一个字段:公司待了多久

    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df['time_spend_company']   # 在公司待的时间
    # 快速分析
    print(avt_s.value_counts().sort_index())

2.0     3244
3.0     6443
4.0     2557
5.0     1473
6.0      718
7.0      188
8.0      162
10.0     214
Name: time_spend_company, dtype: int64

大多数待了3你年,跳槽
高工资,跳槽高薪

看看有事故吗?

def f11():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df['Work_accident']   # 在公司待的时间
    # 快速分析
    print(avt_s.value_counts().sort_index())

if __name__ == '__main__':
    f11()

0.0    12830
1.0     2169
Name: Work_accident, dtype: int64

就俩取值


    print(avt_s.value_counts(normalize=True))
Name: Work_accident, dtype: int64
0.0    0.85539
1.0    0.14461
Name: Work_accident, dtype: float64

平均事故率为14%

看下一个字段

def f12():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df['left']   # 在公司待的时间
    # 快速分析
    print(avt_s.value_counts().sort_index())

if __name__ == '__main__':
    f12()
0.0    11428
1.0     3571
Name: left, dtype: int64

left

最近五年晋升

def f13():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df['promotion_last_5years']   #
    # 快速分析
    print(avt_s.value_counts().sort_index())

if __name__ == '__main__':
    f13()

0.0    14680
1.0      319
Name: promotion_last_5years, dtype: int64

并不会有多少人得到了晋升

看看销售字段


def f14():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df['sales']   #
    # 快速分析
    print(avt_s.value_counts().sort_index())

if __name__ == '__main__':
    f14()
IT             1227
RandD           787
accounting      767
hr              739
management      630
marketing       858
product_mng     902
sales          4140
support        2229
technical      2720
Name: sales, dtype: int64

咱们可以加一个异常值

avt_s = avt_s.where(avt_s !='gg')  # 将gg赋值为NaN
    print(avt_s)

14999        NaN
Name: sales, Length: 15000, dtype: object

这样就将其解决了

还可以直接干掉null

avt_s = avt_s.where(avt_s !='gg').dropna()  # 将gg赋值为NaN
    print(avt_s)

美滋滋

回顾一波,value_counts
统计各个value的个数

最后一个字段薪水

def f15():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df['salary']   #
    # 快速分析
    print(avt_s.value_counts().sort_index())

if __name__ == '__main__':
    f15()
high      1237
low       7316
medium    6446
Name: salary, dtype: int64

中等收入人数多
美滋滋

好,整体我们来做一波异常值的消除
异常值出现的话,我们删除行呢?还是列,当然一般是行


def f16():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df.dropna(axis=0, how='any')   # 整体去null,删除行?
    # how:any只要出现null,整行干掉,all整体都是空,才干掉这行
    # axis:0行,1列
    print(avt_s)

if __name__ == '__main__':
    f16()
14998                0.37             0.52  ...  support     low

[14999 rows x 10 columns]

你看看这个就不再了
再通过控制不同字段满足啥条件,就可以去掉异常值


    avt_s = avt_s[avt_s['last_evaluation']<=1]  # 通过规则去掉异常
    avt_s = avt_s[avt_s['sales'] != 'gg']
    print(avt_s)
14997                0.11             0.96  ...  support     low
14998                0.37             0.52  ...  support     low

[14999 rows x 10 columns]

咱们以部门为单位,进行分组
group by
和数据库一样


def f17():
    df = pd.read_csv('HR_comma_sep.csv')
    avt_s = df.dropna(axis=0, how='any')   # 整体去null,删除行?
    # how:any只要出现null,整行干掉,all整体都是空,才干掉这行
    # axis:0行,1列
    # print(avt_s)
    avt_s = avt_s[avt_s['last_evaluation']<=1]  # 通过规则去掉异常
    avt_s = avt_s[avt_s['department'] != 'gg']

    # 然后分组,聚合,和数据库一样哦
    nt = avt_s.groupby("department").mean()
    print(nt)

if __name__ == '__main__':
    f17()
             satisfaction_level  ...  promotion_last_5years
department                       ...                       
IT                     0.618142  ...               0.002445
RandD                  0.619822  ...               0.034307
accounting             0.582151  ...               0.018253
hr                     0.598809  ...               0.020298
management             0.621349  ...               0.109524
marketing              0.618601  ...               0.050117
product_mng            0.619634  ...               0.000000
sales                  0.614447  ...               0.024155
support                0.618300  ...               0.008973
technical              0.607897  ...               0.010294

[10 rows x 8 columns]

这样就根据部门分组,然后统计额一波均值,
离散的字段直接干掉

怎么说,和Oracle数据是不是很相似呢?????
简直一模一样,卧槽
爽的

假如你想单独看某一个列
那就是要切片,全选行,但是只要列

    # 单独看一列
    # 然后分组,聚合,和数据库一样哦
    nt = avt_s.loc[:, ['last_evaluation','department']]
    nt = nt.groupby("department").mean()
    print(nt)

             last_evaluation
department                  
IT                  0.716830
RandD               0.712122
accounting          0.717718
hr                  0.708850
management          0.724000
marketing           0.715886
product_mng         0.714756
sales               0.709717
support             0.723109
technical           0.721099

Process finished with exit code 0

这不就单独列出这个le这列
然后我们再按照分组
相当于我们再Oracle数据库中先把where条件控制好,from表中拿俩列
再去分组,聚合
easy

在读取表格时,你也可以直接控制条件,只取特定的数据

另外,聚合函数不仅仅可以用mean
还可以通过apply来自定义,对这个字段里面的值进行操作
比如max-min

    # 单独看一列
    # 然后分组,和数据库一样哦
    nt = avt_s.loc[:, ['average_montly_hours', 'department']]
    nt = nt.groupby("department")
    ## 然后通过自定义函数来聚合
    nt = nt['average_montly_hours'].apply(lambda x:x.max()-x.min())
    print(nt)

department
IT             212.0
RandD          210.0
accounting     213.0
hr             212.0
management     210.0
marketing      214.0
product_mng    212.0
sales          214.0
support        214.0
technical      213.0
Name: average_montly_hours, dtype: float64

以上整个过程就是对比分析的方法
去掉异常
分组分析也就是对比分析了
很容易的

CSMA/CD采用IEEE 802.3标准。

在这里插入图片描述

链接:https://www.nowcoder.com/questionTerminal/c921efa05dda4c339f07e28044344882
来源:牛客网

CSMA/CD是一种争用型的介质访问控制协议

CSMA/CD应用在 OSI 的第二层数据链路层

它的工作原理是: 发送数据前 先侦听信道是否空闲 ,若空闲,则立即发送数据。若信道忙碌,则等待一段时间至信道中的信息传输结束后再发送数据;若在上一段信息发送结束后,同时有两个或两个以上的节点都提出发送请求,则判定为冲突。若侦听到冲突,则立即停止发送数据,等待一段随机时间,再重新尝试。
其原理简单总结为:先听后发,边发边听,冲突停发,随机延迟后重发

CSMA/CD采用IEEE 802.3标准。
它的主要目的是:提供寻址和媒体存取的控制方式,使得不同设备或网络上的节点可以在多点的网络上通信而不相互冲突。

数字签名能够解决篡改,伪造等安全性问题

在这里插入图片描述

链接:https://www.nowcoder.com/questionTerminal/54ec74b28ce24f60b54109b382fd9751
来源:牛客网

本题考查数字摘要算法的基本概念。
数字签名技术是将摘要用发送者的私钥加密,与原文一起传送给接收者。

接收者只有用发送者的公钥才能解密被加密的摘要,然后用Hash函数对收到的原文产生一个摘要,与解密的摘要对比,
如果相同,则说明收到的信息是完整的,在传输过程中没有被修改,
否则,就是被修改过,不是原信息。

同时,也证明发送者发送了信息,防止了发送者的抵赖。 B正确。

实现数字签名的主要技术是非对称密钥加密技术。C错。
但是,数字签名并不能保证信息在传输过程中不被截获。D错。

既然是加密,怎么着也和这个原文有关系,不可能一点关系没有
A错误

TCP协议是有状态协议,而http/udp/ip是无状态协议

第二次错误了
在这里插入图片描述
这他妈不是多选?????

将一个C类网络划分20个子网,最适合的子网掩码是多少()

这是子网,不是主机
所以5个1在前面,而不是后面

操蛋
在这里插入图片描述
这样是错误的
应该下面这样
在这里插入图片描述

下列W命令中可以用于检测本机配置的DNS服务器是否工作正常的命令是( )

在这里插入图片描述

链接:https://www.nowcoder.com/questionTerminal/a40ab1893aa04d58a6837583b4ea524f
来源:牛客网

pathping 是指提供有关在源和目标之间的中间跃点处网络滞后和网络丢失的信息。
pathping 8.8.8.8

nslookup可以指定查询的类型,可以查到DNS记录的生存时间还可以指定使用哪个 DNS服务器 进行解释。
nslookup www.baidu.com

在 TCP/IP 协议族的层次中,解决计算机之间通信问题是在 ()

别看错了不是tcp/udp

而是协议簇
这样的话,那就要认识到
端到端=进程之间:运输层=传输层
用户应用进程之间:应用层
主机之间:网际层

链接:https://www.nowcoder.com/questionTerminal/0edade7fcbf54329b9015b6be2ac159d
来源:牛客网

在TCP/IP协议族的四个层次中:
应用层:直接为用户的应用进程提供服务,这里的进程指正在运行的程序。
运输层:负责向两个主机中进程之间的通讯提供服务。一个主机可同时运行多个进程。所以运输层是端对端的
网际层:负责为分组交换网上的不同主机提供通信服务。网络层的一个主要任务就是要选择合适的路由,使源主机运输层所传下来的分组(packet,或者包),能够在网络中找到目的主机。所以网络层是主机对主机的。

隧道技术是 IPV4 向 IPV6 过渡的常用技术之一,它( )

在这里插入图片描述
反正使得ipv4和ipv6互通,这样不至于浪费

一个标准的分类的IP地址128.202.99.65所属的网络是

128是B类地址
在这里插入图片描述

下列属于五层分层(物理层、数据链路层、网络层、运输层和应用层)结构的是_ 。

在这里插入图片描述

STP:Spanning Tree Protocol 生成树协议

在这里插入图片描述

STP(生成树协议)的原理是按照树的结构来构造网络拓扑,消除网络中的环路,避免由于环路的存在而造成广播风暴问题。

顺序文件是指按记录进入文件的先后顺序存放、其逻辑顺序和物理顺序一致的文件。

在这里插入图片描述

正确答案:D 顺序文件是指按记录进入文件的先后顺序存放、其逻辑顺序和物理顺序一致的文件。 一切存储在顺序存取存储器(如磁带)上的文件,都只能是顺序文件。 对A:显然,插入新纪录时不能插入到已经有顺序的文件的中间,只能在末尾。 对B:如果查找第i个记录,必须从头找起。 对C:如果要更新,必须复制整个文件,更新,然后在放到另外一块顺序存储器上。 显然,D是错误的,顺序记录的顺序和逻辑记录的顺序是一致的,也因此导致了前三个选项是正确的。

当今设计高性能计算机的重要技术途径是()

在这里插入图片描述

链接:https://www.nowcoder.com/questionTerminal/df1e59be966c4b4e99d192d05109a758
来源:牛客网

早期的计算机是串行逐位处理的,称为串行计算机。

随着计算机技术的发展,现代计算机均有不同程度的并行性,
并行处理计算机主要指:能同时执行多条指令或同时处理多个数据项的单处理器计算机,以及多处理系统,其性能大大地提高

骚啊

在任一时刻t,都存在一个集合,它包含所有最近k次(该题窗口大小为6)内存访问所访问过的页面。这个集合w(k, t)就是工作集。

在这里插入图片描述

关于磁盘引导区描述正确的是?()

在这里插入图片描述

链接:https://www.nowcoder.com/questionTerminal/a308095077c04d5eabed1e0037034aa9
来源:牛客网

磁盘引导区记录着磁盘的一些最基本的信息,磁盘的第一个扇区被保留为主引导扇区,它位于整个硬盘的0磁道0柱面1扇区,包括硬盘主引导记录MBR(Main Boot Record)和分区表DPT(Disk Partition Table)以及磁盘的有效标志。其中主引导记录的作用就是检查分区表是否正确以及确定哪个分区为引导分区,并在程序结束时把该分区的启动程序(也就是操作系统引导扇区)调入内存加以执行。
FORMAT需要指定要格式化的盘符。

访问不同临界资源的两个进程不要求必须互斥的进入临界区

既然是不同
那可以随意
在这里插入图片描述
临界区是指一个访问共用资源的程序片段,而这些共用资源又无法同时被多个线程访问的特性。
进程进入临界区的调度原则是:
1、如果有若干进程要求进入空闲的临界区,一次仅允许一个进程进入。
2、任何时候,处于临界区内的进程不可多于一个。如已有进程进入自己的临界区,则其它所有试图进入临界区的进程必须等待。
3、进入临界区的进程要在有限时间内退出,以便其它进程能及时进入自己的临界区。
4、如果进程不能进入自己的临界区,则应让出CPU,避免进程出现“忙等”现象。

不是数据区………………

文件的物理结构一般有( )。

在这里插入图片描述

链接:https://www.nowcoder.com/questionTerminal/22893193defc48db836e206a14820a50
来源:牛客网

文件的逻辑结构
文件的逻辑结构时从用户观点出发所看到的文件组织形式,是用户可以直接处理的数据及其结构。
记录式的有结构文件
字符流式的无结构文件

文件的物理结构
文件的物理结构是指一个文件在外存上的存储组织形式,它与存储介质的存储特性有关。
①顺序结构/连续结构
将一个逻辑文件的信息存放在外存的连续物理块中。
优点:a顺序访问容易;b顺序访问速度快
缺点:a要求有连续的存储空间;b事先必须知道文件的长度
②链接结构/串联结构
将一个逻辑上连续的文件信息存放在外存的不连续物理块中。
隐式链接:在文件目录的每个目录项中,都须含有指向链接文件第一个盘块喝最后一个盘块的指针。
缺点:a只适用于顺序访问,对随机访问极其低效。b可靠性较差
显式链接:把用于链接文件各物理块的指针,显式地存放在内存地一张链表中
缺点:a不能支持高效的直接存取。b 文件分配表FAT(File Allocation Table)需要占用较大的内存空间
③索引结构
将一个逻辑文件的信息存放与外存的若干个物理块中,并为每个文件建立一个索引表,索引表中的每个表目用于存放文件信息所在的逻辑块号和与之对应的物理块号。
优点:a既适用于顺序存取,还易于进行文件的增删。
缺点:a增加了存储空间的开销。


总结

提示:重要经验:

1)
2)学好oracle,操作系统,计算机网络,即使经济寒冬,整个测开offer绝对不是问题!同时也是你考公网络警察的必经之路。
3)笔试求AC,可以不考虑空间复杂度,但是面试既要考虑时间复杂度最优,也要考虑空间复杂度最优。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/180348.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【论文翻译】Jointformer :一种基于误差预测和改进的三维人体姿态估计的单帧提升变压器

摘要 单目三维人体姿态估计技术有望极大地提高人体运动数据的可用性。表现最好的单幅图像2D3D提升模型使用图卷积网络(GCNs)&#xff0c;通常需要一些手动输入来定义不同身体关节之间的关系。我们提出了一种新的基于变压器的方法&#xff0c;该方法使用更广泛的自我注意机制来…

nodejs+vue高校网上报名系统

本课题利用nodejsVue设计实现网上报名系统。系统的主要功能是&#xff1a;用户在线注册信息之后&#xff0c;利用注册时填写的用户账号与密码&#xff0c;登入系统后&#xff0c;对注册的个人信息进行修改&#xff0c;在线报名&#xff0c;能正确的提交有送报考的基本信息&…

【图卷积网络】01-卷积神经网络:从欧氏空间到非欧氏空间

人工神经网络发展浪潮 第三次浪潮——卷积神经网络 加拿大多伦多大学教授&#xff0c;机器学习领域泰斗Geoffery Hinton及其学生在《科学》上发表了一篇论文 &#xff08;Hinton, G. E . Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006, 313(578…

【Typescript学习】使用 React 和 TypeScript 构建web应用(二)部分UI、useState、useRef、Props

教程来自freecodeCamp&#xff1a;【英字】使用 React 和 TypeScript 构建应用程序 跟做&#xff0c;仅记录用 其他资料&#xff1a;https://www.freecodecamp.org/chinese/news/learn-typescript-beginners-guide/ 第二天 以下是视频(0:18-0:40) 的内容 目录第二天1 App 函数…

【二叉树】java实现代码,详解二叉树,带大家更深刻的掌握二叉树递归思想

前言&#xff1a; 大家好&#xff0c;我是良辰丫&#x1fa90;&#x1fa90;&#x1fa90;&#xff0c;在探索数据结构的旅程中&#xff0c;二叉树可以说是数据结构中的重点&#xff0c;笔试面试经常出现的问题&#xff0c;同时也是难点。&#x1f425;&#x1f425;&#x1f4…

【Java开发】Spring Cloud 09 :微服务网关 Gateway

Spring Cloud Gateway&#xff08;简称 Gateway&#xff09;&#xff0c;它在微服务架构中扮演的角色是“微服务网关”&#xff0c;Nginx 和 Gateway 在微服务体系中的分工是不一样的。Gateway 作为更底层的微服务网关&#xff0c;通常是作为外部 Nginx 网关和内部微服务系统之…

Markdown编辑器基本语法

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题&#xff0c;有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注…

【C语言从0到1之文件操作(FILE)】(原理 画图 举例 不信教不会你 不要放收藏夹落灰 学起来好嘛)

&#x1f57a;作者&#xff1a;迷茫的启明星 &#x1f383;专栏&#xff1a;《数据库》《C语言从0到1专栏》《数据结构》《C语言杂谈》&#x1f3c7;分享喜欢的一句话&#xff1a;心如花木&#xff0c;向阳而生前言在我们的学习中&#xff0c;文件操作是被我们忽略&#xff0c;…

NodeJS 与第三方模块 mysql(基本操作)

文章目录参考描述mysql 模块连接数据库检测基本操作查询数据与代码分离原则占位符插入另一种姿态修改另一种姿态删除标记删除参考 项目描述哔哩哔哩黑马程序员搜索引擎Bing 描述 项目描述NodeJSv18.13.0nodemon2.0.20MySQL5.7.40mysql2.18.1 mysql 模块 npm&#xff08;Node…

Linux——进程

目录 冯诺依曼体系结构 操作系统(Operator System) 概念 设计OS的目的 定位 如何理解 "管理" 总结 系统调用和库函数概念 承上启下 进程 基本概念 描述进程-PCB task_struct-PCB的一种 task_ struct内容分类 组织进程 查看进程 通过系统调用获取进程…

Pycharm使用Git进行版本控制(自建远端Git仓库)

目录本地Git安装远端Git仓库搭建在Pycharm中使用Git进行版本控制设置Git可执行文件路径创建本地Git仓库设置远端Git仓库提交及推送本地Git安装 安装本地Git用于被Pycharm调用&#xff0c;安装方法参考以下博客&#xff1a; Git 的下载与安装_作者&#xff1a;fengzhx0820 远端…

四轮两驱小车(四):STM32驱动5路灰度传感器PID循迹

目录 前言&#xff1a; 小车效果展示&#xff1a; 5路数字灰度传感器&#xff1a; 巡线思路&#xff1a; 加入PID调节的代码&#xff1a; 前言&#xff1a; 之前买了一批5路灰度传感器&#xff0c;想用这传感器进行循迹&#xff0c;无奈网上和官方的资料提供的还是比较少&a…

ARM X210 官方 uboot 配置编译实践

一、X210官方uboot配置编译实践1 1. 找到官方移植好的 uboot&#xff08;BSP 概念&#xff09; (1) 源头的源代码是 uboot 官网下载的。这个下载的源代码可能没有你当前使用的开发板的移植&#xff0c;甚至找不到当前开发板使用的 SoC 对应的移植版本。 (2) SoC 厂商在推出一…

分享145个ASP源码,总有一款适合您

ASP源码 分享145个ASP源码&#xff0c;总有一款适合您 下面是文件的名字&#xff0c;我放了一些图片&#xff0c;文章里不是所有的图主要是放不下...&#xff0c; 145个ASP源码下载链接&#xff1a;https://pan.baidu.com/s/1gxm3rFFLu8pUhVncQga6-g?pwd7n85 提取码&#x…

HJ56、HJ58、JZ4、JZ6、JZ15、JZ17几道题

文章目录HJ56 完全数计算题目描述&#xff1a;具体实现&#xff1a;HJ58 输入n个整数&#xff0c;输出其中最小的k个题目描述&#xff1a;具体实现&#xff1a;JZ4 二维数组中的查找题目描述&#xff1a;具体实现&#xff1a;JZ6 从尾到头打印链表题目描述&#xff1a;具体实现…

springboot文件上传,单文件上传和多文件上传,以及数据遍历和回显

springboot文件上传&#xff0c;单文件上传和多文件上传项目结构及pom.xml创建文件表单页面编写javabean编写controller映射MultipartFile类RequestPart注解controller代码application.properties中的文件上传配置遍历数据显示页面运行显示项目结构及pom.xml pom.xml: <dep…

SQL用法详解补充

本文是对上次“SQL用法详解”的一些补充&#xff0c;一些基本操作可以点击链接查看 目录 一.对表结构的常用操作 查看表结构格式 修改表结构格式 1.修改列名和类型 2.修改添加列 3.修改表删除列 4.修改表名 5.数据删除 二.总结 三.实例 解决 完整代码 一.对表结构的常用操…

TIA博途中启用或禁用DP从站或PROFINET IO设备的具体方法

TIA博途中启用或禁用DP从站或PROFINET IO设备的具体方法 在实际项目中我们会遇到这样的问题, 例如:硬件组态中配置了一个控制器和3个 PN IO设备,但是最后只用到了2个PN IO设备,这样控制器一侧无法连接到第3个PN IO设备时,CPU会产生报警,PLC的Error指示灯会一直闪烁。 那么…

蓝桥杯2021省赛Python

蓝桥杯2021省赛Python 不得不说2021的比2020的难 1.卡片 很明显&#xff0c;最先没的肯定是1或者0&#xff0c;我们只要统计到谁会消耗2022个1或者0就好了 if __name__ __main__:res1 0res0 0for i in range(1,100000):i str(i)res1 i.count(1)res0 i.count(0)if res1…

[Rust笔记] 规则宏的“卫生保健”

规则宏代码的“卫生保健”规则宏mbe即是由macro_rules!宏所定义的宏。它的英文全称是Macro By Example。相比近乎“徒手攀岩”的Cpp模板元编程&#xff0c;rustc提供了有限的编译时宏代码检查功能&#xff08;名曰&#xff1a;Mixed Hygiene宏的混合保健&#xff09;。因为rust…