数据挖掘,计算机网络、操作系统刷题笔记47

news2024/11/26 18:42:22

数据挖掘,计算机网络、操作系统刷题笔记47

2022找工作是学历、能力和运气的超强结合体,遇到寒冬,大厂不招人,可能很多算法学生都得去找开发,测开
测开的话,你就得学数据库,sql,oracle,尤其sql要学,当然,像很多金融企业、安全机构啥的,他们必须要用oracle数据库
这oracle比sql安全,强大多了,所以你需要学习,最重要的,你要是考网络警察公务员,这玩意你不会就别去报名了,耽误时间!
考网警特招必然要考操作系统,计算机网络,由于备考时间不长,你可能需要速成,我就想办法自学速成了,课程太长没法玩
刷题系列文章
【1】Oracle数据库:刷题错题本,数据库的各种概念
【2】操作系统,计算机网络,数据库刷题笔记2
【3】数据库、计算机网络,操作系统刷题笔记3
【4】数据库、计算机网络,操作系统刷题笔记4
【5】数据库、计算机网络,操作系统刷题笔记5
【6】数据库、计算机网络,操作系统刷题笔记6
【7】数据库、计算机网络,操作系统刷题笔记7
【8】数据库、计算机网络,操作系统刷题笔记8
【9】操作系统,计算机网络,数据库刷题笔记9
【10】操作系统,计算机网络,数据库刷题笔记10
【11】操作系统,计算机网络,数据库刷题笔记11
【12】操作系统,计算机网络,数据库刷题笔记12
【13】操作系统,计算机网络,数据库刷题笔记13
【14】操作系统,计算机网络,数据库刷题笔记14
【15】计算机网络、操作系统刷题笔记15
【16】数据库,计算机网络、操作系统刷题笔记16
【17】数据库,计算机网络、操作系统刷题笔记17
【18】数据库,计算机网络、操作系统刷题笔记18
【19】数据库,计算机网络、操作系统刷题笔记19
【20】数据库,计算机网络、操作系统刷题笔记20
【21】数据库,计算机网络、操作系统刷题笔记21
【22】数据库,计算机网络、操作系统刷题笔记22
【23】数据库,计算机网络、操作系统刷题笔记23
【24】数据库,计算机网络、操作系统刷题笔记24
【25】数据库,计算机网络、操作系统刷题笔记25
【26】数据库,计算机网络、操作系统刷题笔记26
【27】数据库,计算机网络、操作系统刷题笔记27
【28】数据库,计算机网络、操作系统刷题笔记28
【29】数据库,计算机网络、操作系统刷题笔记29
【30】数据库,计算机网络、操作系统刷题笔记30
【31】数据库,计算机网络、操作系统刷题笔记31
【32】数据库,计算机网络、操作系统刷题笔记32
【33】数据库,计算机网络、操作系统刷题笔记33
【34】数据库,计算机网络、操作系统刷题笔记34
【35】数据挖掘,计算机网络、操作系统刷题笔记35
【36】数据挖掘,计算机网络、操作系统刷题笔记36
【37】数据挖掘,计算机网络、操作系统刷题笔记37
【38】数据挖掘,计算机网络、操作系统刷题笔记38
【39】数据挖掘,计算机网络、操作系统刷题笔记39
【40】数据挖掘,计算机网络、操作系统刷题笔记40
【41】数据挖掘,计算机网络、操作系统刷题笔记41
【42】数据挖掘,计算机网络、操作系统刷题笔记42
【43】数据挖掘,计算机网络、操作系统刷题笔记43
【44】数据挖掘,计算机网络、操作系统刷题笔记44
【45】数据挖掘,计算机网络、操作系统刷题笔记45
【46】数据挖掘,计算机网络、操作系统刷题笔记46


文章目录

  • 数据挖掘,计算机网络、操作系统刷题笔记47
    • @[TOC](文章目录)
  • 数据挖掘分析应用:朴素贝叶斯
  • 生成模型和判别模型
  • 决策树
  • graphviz:图表可视化软件,画决策树的模型图
  • 我们现在用的网络模式大多是以太网.那么,它的标准是( )
  • 下面关于以太网的描述正确的是( )。
  • 区分局域网(LAN)和广域网(WAN)的依据是______。
  • 进程从等待状态进入就绪状态可能是由于()。
  • 下面有关线程的说法错误的是()
  • 总结

数据挖掘分析应用:朴素贝叶斯

概率知识
在这里插入图片描述
联合就是共同发生的概率

概率和为1
在这里插入图片描述
在这里插入图片描述
easy

如果AB是独立的
条件概率就等于A本身的概率

在这里插入图片描述
得到了贝叶斯公式

在这里插入图片描述
到此你可以不用往下看这些例子了,你就随便看看就行
在这里插入图片描述
第一次抽到2种情况,在这两种情况下,第二次抽到红球的概率——全概率公式

在这里插入图片描述
在这里插入图片描述
请问
判断这个账户是真实的还是虚假的???

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
大概率是真实账户

这么多你也不要看了,反正了解一下即可

在这里插入图片描述
讲课搞这么复杂作甚??????????

直接看代码
在这里插入图片描述
上一篇文章的代码,我们集成一下
自动化程度高
方便以后加别的机器学习模型

# 集成化模型训练代码
# 模型
def hr_modeling_all(features, label):
    from sklearn.model_selection import train_test_split
    # 切分函数
    #DataFrame
    feature_val = features
    label_val = label
    train_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集
    train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集
    print(len(train_data), len(valid_data), len(test_data))

    # KNN分类
    from sklearn.neighbors import NearestNeighbors, KNeighborsClassifier
    from sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价

    models = []
    knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类
    models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖
    for modelName, model in models:
        print(modelName)
        model.fit(train_data, y_train)  # 指定训练集
        # 又集成化数据集
        data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]
        for i in range(len(data)):
            print(i)
            y_input = data[i][0]
            y_label = data[i][1]  # 输入输出预测
            y_pred = model.predict(y_input)
            print("acc:", accuracy_score(y_label, y_pred))
            print("recall:", recall_score(y_label, y_pred))
            print("F1:", f1_score(y_label, y_pred))
    # 不考虑存储,你看看这个模型就会输出仨结果

if __name__ == '__main__':
    features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,
       lower_d=True, ld_n=3)
    # print(df, label)

    # 灌入模型
    hr_modeling_all(features, label)

8999 3000 3000
KNN
0
acc: 0.9595510612290254
recall: 0.9290681502086231
F1: 0.9167429094236048
1
acc: 0.928
recall: 0.8497191011235955
F1: 0.8485273492286115
2
acc: 0.9216666666666666
recall: 0.8547008547008547
F1: 0.8362369337979094

Process finished with exit code 0

现在我们搞贝叶斯模型分类
就是给你提供不同字段状态,属于离职率高的用户,让你做一个分类

贝叶斯回去统计这些概率啥的,贼复杂,你只需要会用就行

# 集成化模型训练代码
# 模型
def hr_modeling_all(features, label):
    from sklearn.model_selection import train_test_split
    # 切分函数
    #DataFrame
    feature_val = features
    label_val = label
    train_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集
    train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集
    print(len(train_data), len(valid_data), len(test_data))

    # KNN分类
    from sklearn.neighbors import NearestNeighbors, KNeighborsClassifier
    from sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价
    from sklearn.naive_bayes import GaussianNB, BernoulliNB  # 高斯,伯努利,都是对特征有严格要求,离散值最好

    models = []
    knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类
    bys_clf = GaussianNB()
    bnl_clf = BernoulliNB()

    models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖
    models.append(("GaussianNB", bys_clf))  # 代码一个个模型测--放入的是元祖
    models.append(("BernoulliNB", bnl_clf))  # 代码一个个模型测--放入的是元祖
    for modelName, model in models:
        print(modelName)
        model.fit(train_data, y_train)  # 指定训练集
        # 又集成化数据集
        data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]
        for i in range(len(data)):
            print(i)
            y_input = data[i][0]
            y_label = data[i][1]  # 输入输出预测
            y_pred = model.predict(y_input)
            print("acc:", accuracy_score(y_label, y_pred))
            print("recall:", recall_score(y_label, y_pred))
            print("F1:", f1_score(y_label, y_pred))
        print("\n")
    # 不考虑存储,你看看这个模型就会输出仨结果

if __name__ == '__main__':
    features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,
       lower_d=True, ld_n=3)
    # print(df, label)

    # 灌入模型
    hr_modeling_all(features, label)

8999 3000 3000
KNN
0
acc: 0.9609956661851317
recall: 0.9373271889400921
F1: 0.9205702647657841
1
acc: 0.921
recall: 0.8587896253602305
F1: 0.8341497550734779
2
acc: 0.9223333333333333
recall: 0.8514851485148515
F1: 0.8378566457898399


GaussianNB
0
acc: 0.8806534059339927
recall: 0.6493087557603686
F1: 0.7240493319630011
1
acc: 0.888
recall: 0.6657060518731989
F1: 0.7333333333333334
2
acc: 0.8766666666666667
recall: 0.6562942008486563
F1: 0.7149460708782743


BernoulliNB
0
acc: 0.7588620957884209
recall: 0.0
F1: 0.0
1
acc: 0.7686666666666667
recall: 0.0
F1: 0.0
2
acc: 0.7643333333333333
recall: 0.0
F1: 0.0



Process finished with exit code 0

高斯贝叶斯比伯努利好
但是也比KNN差劲

反正贝叶斯一般般吧感觉

生成模型和判别模型

生成:求联合概率,再求分类概率——复杂
判别:不通过联合概率分布,直接输出分类概率
在这里插入图片描述
朴素贝叶斯就是生成模型

决策树

一步步按照特招判断,划分
在这里插入图片描述
在这里插入图片描述
怎么决策??


在这里插入图片描述
知道了条件熵,信息就算曝光了
在这里插入图片描述
wind两种条件下,打球的熵
这样的话,计算出来就好说了
这样就是根据风
这个特征进行切分的熵增益

别的字段呢???

在这里插入图片描述
因为天气的增益最大,所以咱们能第一次切分就用天气这个字段
显然天气下雨没法玩啊

信息增益率:
互信息不对称

在这里插入图片描述

基尼系数:取最小的基尼系数,才是我们要的切分字段
不纯度

CART决策树经常用哦

humidity有3取值
high有7个,打球不打球各3 4个
mid
low
类似统计
去算基尼系数
在这里插入图片描述
连续值咋搞?分段呗
规则很多,那就整体投票
解决过拟合的方法可能是剪枝啥的

在这里插入图片描述
收入中的人中,都是帅的,那剪枝,直接见面,别分支了
在这里插入图片描述

看代码

决策树的效果不错哦

# 集成化模型训练代码
# 模型
def hr_modeling_all(features, label):
    from sklearn.model_selection import train_test_split
    # 切分函数
    #DataFrame
    feature_val = features
    label_val = label
    train_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集
    train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集
    print(len(train_data), len(valid_data), len(test_data))

    # KNN分类
    from sklearn.neighbors import NearestNeighbors, KNeighborsClassifier
    from sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价
    from sklearn.naive_bayes import GaussianNB, BernoulliNB  # 高斯,伯努利,都是对特征有严格要求,离散值最好
    from sklearn.tree import DecisionTreeClassifier  # 决策树

    models = []  # 申请模型,挨个验证好坏
    knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类
    bys_clf = GaussianNB()
    bnl_clf = BernoulliNB()
    DT_clf = DecisionTreeClassifier()

    models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖
    models.append(("GaussianNB", bys_clf))  # 代码一个个模型测--放入的是元祖
    models.append(("BernoulliNB", bnl_clf))  # 代码一个个模型测--放入的是元祖
    models.append(("Decision Tree", DT_clf))  # 代码一个个模型测--放入的是元祖

    # 不同的模型,依次验证
    for modelName, model in models:
        print(modelName)
        model.fit(train_data, y_train)  # 指定训练集
        # 又集成化数据集
        data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]
        for i in range(len(data)):
            print(i)
            y_input = data[i][0]
            y_label = data[i][1]  # 输入输出预测
            y_pred = model.predict(y_input)
            print("acc:", accuracy_score(y_label, y_pred))
            print("recall:", recall_score(y_label, y_pred))
            print("F1:", f1_score(y_label, y_pred))
        print("\n")
    # 不考虑存储,你看看这个模型就会输出仨结果

if __name__ == '__main__':
    features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,
       lower_d=True, ld_n=3)
    # print(df, label)

    # 灌入模型
    hr_modeling_all(features, label)
8999 3000 3000
KNN
0
acc: 0.9594399377708634
recall: 0.9254716981132075
F1: 0.9148985777570529
1
acc: 0.918
recall: 0.853185595567867
F1: 0.8335588633288227
2
acc: 0.92
recall: 0.877914951989026
F1: 0.8421052631578947


GaussianNB
0
acc: 0.8820980108900989
recall: 0.6400943396226415
F1: 0.7189403973509934
1
acc: 0.881
recall: 0.6426592797783933
F1: 0.7221789883268482
2
acc: 0.8756666666666667
recall: 0.6488340192043895
F1: 0.7172100075815012


BernoulliNB
0
acc: 0.7644182686965219
recall: 0.0
F1: 0.0
1
acc: 0.7593333333333333
recall: 0.0
F1: 0.0
2
acc: 0.757
recall: 0.0
F1: 0.0


Decision Tree
0
acc: 1.0
recall: 1.0
F1: 1.0
1
acc: 0.9383333333333334
recall: 0.9016620498614959
F1: 0.8755884330867518
2
acc: 0.929
recall: 0.8984910836762688
F1: 0.8601444517399869



Process finished with exit code 0

决策树在测试集上的表现很完美
训练集上基本都是完美的100%
看来决策树贼牛逼啊

graphviz:图表可视化软件,画决策树的模型图

将其加入环境变量

去官网下载

然后在代码中将我们的模型想办法保存到pdf文件中

# 集成化模型训练代码——保存模型DT
# 模型
def hr_modeling_all_saveDT(features, label):
    from sklearn.model_selection import train_test_split
    # 切分函数
    #DataFrame
    feature_val = features.values
    label_val = label
    # 特征段
    feature_name = features.columns
    train_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集
    train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集
    print(len(train_data), len(valid_data), len(test_data))

    # KNN分类
    from sklearn.neighbors import NearestNeighbors, KNeighborsClassifier
    from sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价
    from sklearn.naive_bayes import GaussianNB, BernoulliNB  # 高斯,伯努利,都是对特征有严格要求,离散值最好
    from sklearn.tree import DecisionTreeClassifier, export_graphviz  # 决策树
    from io import StringIO
    import pydotplus
    import os
    os.environ["PATH"] += os.pathsep+r"D:\Program Files\Graphviz\bin"

    models = []  # 申请模型,挨个验证好坏
    knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类
    bys_clf = GaussianNB()
    bnl_clf = BernoulliNB()
    DT_clf = DecisionTreeClassifier()

    # models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖
    # models.append(("GaussianNB", bys_clf))  # 代码一个个模型测--放入的是元祖
    # models.append(("BernoulliNB", bnl_clf))  # 代码一个个模型测--放入的是元祖
    models.append(("Decision Tree", DT_clf))  # 代码一个个模型测--放入的是元祖

    # 不同的模型,依次验证
    for modelName, model in models:
        print(modelName)
        model.fit(train_data, y_train)  # 指定训练集
        # 又集成化数据集
        data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]
        for i in range(len(data)):
            print(i)
            y_input = data[i][0]
            y_label = data[i][1]  # 输入输出预测
            y_pred = model.predict(y_input)
            print("acc:", accuracy_score(y_label, y_pred))
            print("recall:", recall_score(y_label, y_pred))
            print("F1:", f1_score(y_label, y_pred))
        print("\n")
        # 保存模型DT为pdf
        dot_data = export_graphviz(decision_tree=model,
                                   out_file=None,
                                   feature_names=feature_name,
                                   class_names=["Nl", "left"],
                                   filled=True,
                                   rounded=True,
                                   special_characters=True)
        graph = pydotplus.graph_from_dot_data(dot_data)
        graph.write_pdf("dt_tree.pdf")

    # 不考虑存储,你看看这个模型就会输出仨结果

if __name__ == '__main__':
    features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,
       lower_d=True, ld_n=3)
    # print(df, label)

    # 灌入模型
    hr_modeling_all_saveDT(features, label)

安装好之后,一直没有成功,gg

暂时就看不了了
gg

我们现在用的网络模式大多是以太网.那么,它的标准是( )

在这里插入图片描述

下面关于以太网的描述正确的是( )。

在这里插入图片描述

区分局域网(LAN)和广域网(WAN)的依据是______。

在这里插入图片描述
现在课程里教的是根据采用的技术区分啊,根据范围的已经过时了。。。采用广域网技术即使距离近也是广域网

可恶

进程从等待状态进入就绪状态可能是由于()。

在这里插入图片描述

下面有关线程的说法错误的是()

在这里插入图片描述


总结

提示:重要经验:

1)
2)学好oracle,操作系统,计算机网络,即使经济寒冬,整个测开offer绝对不是问题!同时也是你考公网络警察的必经之路。
3)笔试求AC,可以不考虑空间复杂度,但是面试既要考虑时间复杂度最优,也要考虑空间复杂度最优。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/333002.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【LeetCode】1797. 设计一个验证系统

1797. 设计一个验证系统 题目描述 你需要设计一个包含验证码的验证系统。每一次验证中,用户会收到一个新的验证码,这个验证码在 currentTime 时刻之后 timeToLive 秒过期。如果验证码被更新了,那么它会在 currentTime (可能与之…

理解HDFS工作流程与机制,看这篇文章就够了

HDFS(The Hadoop Distributed File System) 是最初由Yahoo提出的分布式文件系统,它主要用来: 1)存储大数据 2)为应用提供大数据高速读取的能力 重点是掌握HDFS的文件读写流程,体会这种机制对整个分布式系统性能提升…

训练营day16

104.二叉树的最大深度 559.n叉树的最大深度111.二叉树的最小深度222.完全二叉树的节点个数104.二叉树的最大深度 力扣题目链接 给定一个二叉树,找出其最大深度。 二叉树的深度为根节点到最远叶子节点的最长路径上的节点数。 说明: 叶子节点是指没有子节点的节点。 示…

javaEE 初阶 — UDP 协议

文章目录UDP 协议1. UDP协议报文结构1.1 一个 UDP 数据报能传输的最大数据1.2 校验和1.3 生成校验和的算法UDP 协议 1. UDP协议报文结构 16位UDP长度,表示整个数据报(UDP首部UDP数据)的最大长度,如果校验和出错,就会直…

计算机网络之http02| HTTPS HTTP1.1的优化

post与get请求的区别 get 是获取资源,Post是向指定URI提交资源,相关信息放在body里 2.http有哪些优点 (1)简单 报文只有报文首部和报文主体,易于理解 (2)灵活易拓展 URI相应码、首部字段都没有…

ORB-SLAM2编译、安装等问题汇总大全(Ubuntu20.04、eigen3、pangolin0.5、opencv3.4.10)

ORB-SLAM2编译、安装等问题汇总大全(Ubuntu20.04、eigen3、pangolin0.5、opencv3.4.10) 1:环境说明: 使用的Linux发行版本为Ubuntu 20.04 SLAM2下载地址为:git clone https://github.com/raulmur/ORB_SLAM2.git ORB_SLAM2 2&a…

Element UI框架学习篇(二)

Element UI框架学习篇(二) 1 整体布局 1.1 前提说明 el-container标签里面的标签默认是从左往右排列,若想要从上往下排列,只需要写el-header或者el-footer就行了 <el-container>&#xff1a;外层容器 <el-header>&#xff1a;顶栏容器。 <el-aside>&#…

Android框架源码分析——从设计模式角度看 Retrofit 核心源码

Android框架源码分析——从设计模式角度看 Retrofit 核心源码 Retrofit中用到了许多常见的设计模式&#xff1a;代理模式、外观模式、构建者模式等。我们将从这三种设计模式入手&#xff0c;分析 Retrofit2 的核心源码。 1. 宏观 Retrofit 是一个外观模式的设计 外观模式&am…

Intel处理器分页机制

分页模式 Intel 64位处理器支持3种分页模式&#xff1a; 32-bit分页PAE分页IA-32e分页 32-bit分页 32-bit分页模式支持两种页面大小&#xff1a;4KB以及4MB。 4KB页面的线性地址转换 4MB页面的线性地址转换 PAE分页模式 PAE分页模式支持两种页面大小&#xff1a;4KB以及…

Java 验证二叉搜索树

验证二叉搜索树中等给你一个二叉树的根节点 root &#xff0c;判断其是否是一个有效的二叉搜索树。有效 二叉搜索树定义如下&#xff1a;节点的左子树只包含 小于 当前节点的数。节点的右子树只包含 大于 当前节点的数。所有左子树和右子树自身必须也是二叉搜索树。示例 1&…

ChatGPT注册流程攻略,含验证码接收(图文步骤)

本文给大家分享一下我成功注册的流程&#xff01; 其实方法都类似&#xff0c;若无海外手机号码可用接验证码的平台&#xff08;ps&#xff1a;我之前使用的是SMS-Activate&#xff09; 必要准备 能够科学上网&#xff08;并且全局模式&#xff09; 能确认登录的电子邮箱&…

ffmpeg硬解码与软解码的压测对比

文章目录ffmpeg硬解码与软解码的压测一、基本知识二、压测实验1. 实验条件及工具说明2. 压测脚本3. 实验数据结果ffmpeg硬解码与软解码的压测 一、基本知识 本文基于intel集显进行压测 软解码&#xff1a;cpu对视频进行解码硬解码&#xff1a;显卡或者多媒体处理芯片对视频进…

Python编程自动化办公案例(1)

作者简介&#xff1a;一名在校计算机学生、每天分享Python的学习经验、和学习笔记。 座右铭&#xff1a;低头赶路&#xff0c;敬事如仪 个人主页&#xff1a;网络豆的主页​​​​​​ 目录 前言 一.使用库讲解 1.xlrd 2.xlwt 二.主要案例 1.批量合并 模板如下&#xf…

Python 如何快速搭建环境?

Python可应用于多平台包括 Linux 和 Mac OS X。 你可以通过终端窗口输入 “python” 命令来查看本地是否已经安装Python以及Python的安装版本。 Unix (Solaris, Linux, FreeBSD, AIX, HP/UX, SunOS, IRIX, 等等。) Win 9x/NT/2000 Macintosh (Intel, PPC, 68K) OS/2 DOS (多个…

67. Python的绝对路径

67. Python的绝对路径 文章目录67. Python的绝对路径1. 准备工作2. 路径3. 绝对路径3.1 概念3.2 查看绝对路径的方法4. 课堂练习5. 用绝对路径读取txt文件6. 加\改写绝对路径6.1 转义字符知识回顾6.2 转义字符改写7. 总结1. 准备工作 对照下图&#xff0c;新建文件夹和txt文件…

小知识点:MySQL 的 redo log、undo log、binlog 以及 Java 监控 binlog

SQL 入库流程 服务器与 MySQL 建立连接依次经过 MySQL 服务器内存中 Server 层的分析器、优化器、执行器执行器根据执行计划操作 InnoDB 引擎InnoDB 从磁盘数据文件中将 data 读到缓冲池中修改之前&#xff0c;会写入 undo log 将 data 存起来然后将缓冲池中的 data 改成 new_d…

数据结构复习(三)顺序表oj

目录 27. 移除元素 26. 删除有序数组中的重复项 88. 合并两个有序数组 27. 移除元素 给你一个数组 nums 和一个值 val&#xff0c;你需要 原地 移除所有数值等于 val 的元素&#xff0c;并返回移除后数组的新长度。 不要使用额外的数组空间&#xff0c;你必须仅使用 O(1) 额外…

多数据库学习之GBase8s查询数据库表元信息常用SQL

多数据库学习之GBase8s查询数据库表元信息常用SQL简介常用SQL创建用户创建数据库及模式获取表元数据其他参考链接简介 背景介绍 GBase 8t是基于IBM informix源代码、编译和测试体系自主研发的交易型数据库产品。 南大通用安全数据库管理系统&#xff08;简称 GBase 8s&#xff…

Linux基础命令2(常见的文件相关命令)

目录 查找文件命令 pwd 显示当前所在的工作目录&#xff08;Print working directory&#xff09; cd 切换命令&#xff08;change directory&#xff09; ls 查看目录下的文件&#xff08;list&#xff09; tree 查看目录下的子目录&#xff08;查看目录结构&#…

Grafana 系列文章(十二):如何使用Loki创建一个用于搜索日志的Grafana仪表板

概述 创建一个简单的 Grafana 仪表板, 以实现对日志的快速搜索. 有经验的直接用 Grafana 的 Explore 功能就可以了. 但是对于没有经验的人, 他们如何能有一个已经预设了简单的标签搜索的仪表板&#xff0c;以帮助一些团队在排除故障时快速找到他们正在寻找的东西。虽然 Expl…