人工智能及其应用(蔡自兴)期末复习

news2024/10/2 16:29:18

人工智能及其应用(蔡自兴)期末复习

相关资料:

人工智能期末复习

人工智能复习题

人工智能模拟卷

人工智能期末练习题

1 ⭐️绪论

人工智能:人工智能就是用人工的方法在机器(计算机)上实现的智能,或称机器智能、计算机智能。

人工智能发展的三个阶段:

  • 计算
  • 感知
  • 认知

⭐️人工智能发展时期:

  • 孕育期 ( 1956年前):亚里士多德,莱布尼茨,图灵,莫克,麦克洛奇和皮兹,维纳

  • 形成期 ( 1956-1970年):1956年第一次人工智能研讨会(达特茅斯会议),

  • 暗淡期 ( 1966-1974年):过高预言

  • 知识应用期 ( 1970-1988年):专家系统的出现

  • 集成发展期 ( 1986年至今):AI技术进一步研究

⭐️人工智能学派:

  • 符号主义(功能模拟方法):逻辑主义,以物理符号系统为原理,代表:纽厄尔,肖,西蒙,尼尔逊(诺艾尔,魈,派蒙,泥鳅)(诺艾尔打架溅了一身,被卷到天上,突然击中了派蒙
  • 连接主义(结构模拟方法):仿生学派,神经网络之间连接机制为原理,代表:卡洛克,皮茨,霍普菲尔德,鲁梅尔哈特
  • 行为主义(行为模拟方法):控制论学派,类似于控制机器人,代表:布鲁克斯

人工智能应用:问题求解和博弈,逻辑推理和定理证明,计算智能,分布式人工智能和真体,自动程序设计,专家系统,机器学习,自然语言理解,机器人学,模式识别,机器视觉,神经网络,智能控制

人工智能系统分类:专家系统,模糊系统,神经网络系统,学习系统,仿生系统,群智能系统,多真体系统,混合智能系统

目标:

  • 近期目标:建造智能计算机代替人类的部分智力劳动
  • 远期目标:揭示人类智能的根本机理,用智能机器去模拟、延伸和扩展人类的智能

研究的基本内容:认知建模,知识表示,知识推理,知识应用,机器感知,机器思维,机器学习,机器行为,智能系统构建

2 知识表示

2.1 ⭐️状态空间表示

概念理解:状态,算符

状态表示(知道初始状态和目标状态),状态表示图的画法

相关问题:

  • 野人传教士渡河问题

( a , b , c ) (a, b, c) (a,b,c)表示(左岸传教士人数,左岸野人数,左岸船数)

  • 梵塔问题

状态: ( S A , S B ) (S_A, S_B) (SA,SB) S A S_A SA表示 A A A所在杆号, S B S_B SB表示 B B B所在杆号, S A , S B ∈ { 1 , 2 , 3 } S_A,S_B \in \{1, 2, 3\} SA,SB{1,2,3},全部状态为:
( 1 , 1 ) , ( 1 , 2 ) , ( 1 , 3 ) , ( 2 , 1 ) , ( 2 , 2 ) , ( 2 , 3 ) , ( 3 , 1 ) , ( 3 , 2 ) , ( 3 , 3 ) (1,1), (1, 2), (1, 3), (2, 1), (2, 2),(2,3),(3,1),(3,2),(3,3) (1,1),(1,2),(1,3),(2,1),(2,2),(2,3),(3,1),(3,2),(3,3)
初始状态: ( 1 , 1 ) (1,1) (1,1),目标状态: ( 3 , 3 ) (3,3) (3,3)

状态空间图:

  • 八数码问题

2.2 ⭐️归约表示(与或图)

需要理解:归约表示思路,与或图表示

  • 梵塔问题(四阶为例)

假设用向量 ( D 4 , D 3 , D 2 , D 1 ) (D_4, D_{3},D_2, D_1) (D4,D3,D2,D1)表示从大到小的圆盘所在的柱子号,则

初始状态: ( 1 , 1 , 1 , 1 ) (1, 1, 1, 1) (1,1,1,1)

目标状态: ( 3 , 3 , 3 , 3 ) (3, 3, 3, 3) (3,3,3,3)

问题归约为子问题:

  1. 移动3,2,1号圆盘至2号柱子
  2. 移动4号圆盘至3号柱子
  3. 移动3,2,1号圆盘至3号柱子

归约图表示:

在这里插入图片描述

2.3 谓词逻辑表示

概念理解:谓词,项,谓词公式,原子公式,合式公式

合式公式性质:

在这里插入图片描述

在这里插入图片描述

自然语言转换成谓词:

  • 人都会死
    ( ∀ x ) ( m a n ( x ) → d i e ( x ) ) (\forall x) (man(x) \to die(x)) (x)(man(x)die(x))

  • 有的人聪明
    ( ∃ x ) ( m a n ( x ) → c l e v e r ( x ) ) (\exist x) (man(x) \to clever(x)) (x)(man(x)clever(x))

谓词推理:

下面的例子使用了 P ∨ Q ¬ P ∨ Q    ⟹    Q ∨ Q = Q P \lor Q \hspace{1em} \neg P \lor Q \implies Q \lor Q = Q PQ¬PQQQ=Q 消解推理规则
在这里插入图片描述

2.4 语义网络表示

常用语义联系:

在这里插入图片描述

在这里插入图片描述

推理机制:匹配和继承

2.5 框架表示

结构:

  • 节点
  • 槽:每个槽可有多个侧面,每个侧面可有多个值

推理机制:

  • 匹配
  • 填槽(查询,默认,继承,附加过程计算)

大学教师的框架:

在这里插入图片描述

2.6 ⭐️知识表示方法的联系

在这里插入图片描述

3 搜索推理

3.1 ⭐️盲目搜索(无信息搜索)

本小节没有加以整理,请看课件

  • ⭐️深度优先搜素
  • ⭐️宽(广)度优先搜索
  • 等代价搜索(UCS):就是Dijkstra算法
  • 有界深搜:就是限制深度的深搜
  • 迭代加深算法(IDS)

知道OPEN表和CLOSED表的作用

3.2 ⭐️启发式搜索(有信息搜索)

按选择范围不同分为:全局择优搜索(A,A*)和局部择优搜素
f ( x ) = g ( x ) + h ( x ) f(x) = g(x) + h(x) f(x)=g(x)+h(x)
h ( x ) h(x) h(x):启发函数

搜索算法:

  • A算法: h ( x ) h(x) h(x)不做限制

  • A*算法: h ( x ) h(x) h(x)有限制

3.3 ⭐️消解原理(归结原理)

就是对几个子句推导出新的子句(几个公理推导出新的结论)

  • ⭐️如何求子句集(将谓词演算公式化成子句集)P97

子句集特征:没有蕴涵词( → \rightarrow )、等值词( ↔ , ≡ \leftrightarrow, \equiv ,), ¬ \neg ¬作用原子谓词,没有全称和存在量词,合取范式,元素之间变元不同,集合形式

在这里插入图片描述

  • ⭐️消解推理规则

P ¬ P ∨ Q    ⟹    Q P ∨ Q ¬ P ∨ Q    ⟹    Q ∨ Q = Q ¬ P P    ⟹    N I L ¬ P ∨ R ( P → R ) ¬ Q ∨ R ( Q → R )    ⟹    ¬ P ∨ Q ( P → Q ) P \hspace{1em} \neg P \lor Q \implies Q \\ P \lor Q \hspace{1em} \neg P \lor Q \implies Q \lor Q = Q \\ \neg P \hspace{1em} P \implies NIL \\ \neg P \lor R(P \to R) \hspace{1em} \neg Q \lor R(Q \to R) \implies \neg P \lor Q(P \to Q) P¬PQQPQ¬PQQQ=Q¬PPNIL¬PR(PR)¬QR(QR)¬PQ(PQ)

  • 消解反演

消解通过反演来证明。将目标公式否定添加到命题公式集中,从中推导出一个空子句。(类似于反证法,否定结论,并将其作为条件,推导出一个空结论,即不可能满足的结论)

反演树的画法与理解

  • 置换与合一的概念

置换: σ = { f ( a ) / x , f ( y ) / z } \sigma = \{f(a) / x , f(y) / z\} σ={f(a)/x,f(y)/z} 代表用 f ( a ) f(a) f(a)代替掉 x x x,用 f ( y ) f(y) f(y)代替掉 z z z

合一:寻找一个置换,使两个表达式一致的过程。

3.4 规则演绎

  • 产生式系统

产生式规则一般形式:

I F A 1 , A 2 , . . . , A n T H E N B IF \hspace{1em} A_1,A_2,...,A_n \hspace{1em} THEN \hspace{1em} B IFA1,A2,...,AnTHENB

逻辑蕴含式是产生式的一种特殊形式。

产生式系统的组成:

  • 总数据库
  • 产生式规则(规则库)
  • 控制策略(推理机)

产生式系统的推理:正向推理,逆向推理,双向推理。

3.5 不确定性推理

三种不确定性程度:

  • 知识不确定性
  • 证据不确定性
  • 结论不确定性

不确定性表示度量:

  • 静态强度:知识的不确定性程度表示,(LS,LN)为知识的不确定性表示。
  • 动态强度:证据的不确定性程度表示

3.5.1 ⭐️概率推理

条件概率公式:
P ( A ∣ B ) = P ( A B ) P ( B ) P(A|B) = \frac{P(AB)}{P(B)} P(AB)=P(B)P(AB)

全概率公式:( A i A_i Ai构成一个完备事件组,互相独立,其总和为全集)
P ( B ) = ∑ i = 1 n P ( A i ) P ( B ∣ A i ) P(B) = \sum \limits_{i = 1}^n P(A_i)P(B|A_i) P(B)=i=1nP(Ai)P(BAi)

贝叶斯公式:(先验概率 P ( H ) P(H) P(H),条件概率 P ( H ∣ E ) P(H|E) P(HE)
P ( H ∣ E ) = P ( H ) P ( E ∣ H ) P ( E ) P ( B i ∣ A ) = P ( B i ) P ( A ∣ B i ) ∑ i P ( B i ) P ( A ∣ B i ) P ( H i ∣ E 1 E 2 ⋯ E m ) = P ( E 1 ∣ H i ) P ( E 2 ∣ H i ) ⋯ P ( E m ∣ H i ) P ( H i ) ∑ j = 1 n P ( E 1 ∣ H j ) P ( E 2 ∣ H j ) ⋯ P ( E m ∣ H j ) P ( H j ) P(H|E) = \frac{P(H)P(E|H)}{P(E)} \\ P(B_i | A) = \frac{P(B_i)P(A|B_i)}{\sum_i P(B_i) P(A|B_i)} \\ P(H_i | E_1E_2 \cdots E_m) = \frac{P(E_1|H_i)P(E_2|H_i) \cdots P(E_m|H_i)P(H_i)}{\sum \limits_{j = 1}^n P(E_1|H_j)P(E_2|H_j) \cdots P(E_m|H_j)P(H_j)} P(HE)=P(E)P(H)P(EH)P(BiA)=iP(Bi)P(ABi)P(Bi)P(ABi)P(HiE1E2Em)=j=1nP(E1Hj)P(E2Hj)P(EmHj)P(Hj)P(E1Hi)P(E2Hi)P(EmHi)P(Hi)

在这里插入图片描述

3.5.2 主观贝叶斯(?)

在这里插入图片描述

相关公式:
O ( X ) = P ( X ) 1 − P ( X ) O ( H ∣ E ) = L S ⋅ O ( H ) O ( H ∣ ¬ E ) = L N ⋅ O ( H ) O ( H ∣ S 1 , S 2 , ⋯   , S n ) = O ( H ∣ S 1 ) O ( H ) ⋅ O ( H ∣ S 2 ) O ( H ) ⋯ O ( H ∣ S n ) O ( H ) ⋅ O ( H ) O(X) = \frac{P(X)}{1 - P(X)} \\ O(H|E) = LS \cdot O(H) \\ O(H| \neg E) = LN \cdot O(H) \\ O(H|S_1, S_2, \cdots, S_n) = \frac{O(H|S_1)}{O(H)} \cdot \frac{O(H|S_2)}{O(H)} \cdots \frac{O(H|S_n)}{O(H)} \cdot O(H) O(X)=1P(X)P(X)O(HE)=LSO(H)O(H∣¬E)=LNO(H)O(HS1,S2,,Sn)=O(H)O(HS1)O(H)O(HS2)O(H)O(HSn)O(H)

EH公式:
P ( H ∣ S ) = { P ( H ∣ ¬ E ) + P ( H ) − P ( H ∣ ¬ E ) P ( E ) × P ( E ∣ S ) 0 ≤ P ( E ∣ S ) < P ( E ) P ( H ) + P ( H ∣ E ) − P ( H ) 1 − P ( E ) × ( P ( E ∣ S ) − P ( E ) ) P ( E ) ≤ P ( E ∣ S ) ≤ 1 ( 1 ) P(H|S) = \begin{cases} P(H| \neg E) + \frac{P(H) - P(H|\neg E)}{P(E)} \times P(E|S) & 0 \le P(E|S) \lt P(E) \\ P(H) + \frac{P(H|E) - P(H)}{1 - P(E)} \times (P(E|S) - P(E)) & P(E) \le P(E|S) \le 1 \end{cases} \hspace{2em} (1) P(HS)={P(H∣¬E)+P(E)P(H)P(H∣¬E)×P(ES)P(H)+1P(E)P(HE)P(H)×(P(ES)P(E))0P(ES)<P(E)P(E)P(ES)1(1)

CP公式:
P ( H ∣ S ) = { P ( H ∣ ¬ E ) + ( P ( H ) − P ( H ∣ ¬ E ) ) × ( 1 5 C ( E ∣ S ) + 1 ) C ( E ∣ S ) ≤ 0 P ( H ) + ( P ( H ∣ E ) − P ( H ) ) × 1 5 C ( E ∣ S ) C ( E ∣ S ) > 0 ( 2 ) P(H|S) = \begin{cases} P(H| \neg E) + (P(H) - P(H|\neg E)) \times (\frac{1}{5}C(E|S) + 1) & C(E|S) \le 0 \\ P(H) + (P(H|E) - P(H)) \times \frac{1}{5}C(E|S) & C(E|S) \gt 0 \end{cases} \hspace{2em} (2) P(HS)={P(H∣¬E)+(P(H)P(H∣¬E))×(51C(ES)+1)P(H)+(P(HE)P(H))×51C(ES)C(ES)0C(ES)>0(2)

根据第一张图得到 P ( E ∣ S ) P(E|S) P(ES) C ( E ∣ S ) C(E|S) C(ES)的关系,记为式 ( 3 ) (3) (3)

根据第二张图得到 P ( H ∣ S ) P(H|S) P(HS) P ( E ∣ S ) P(E|S) P(ES)的关系,即为式 ( 1 ) (1) (1)

将式 ( 3 ) (3) (3)代入到式 ( 1 ) (1) (1)中,得到CP公式

在这里插入图片描述

3.5.3 ⭐️可信度方法

可信度表示知识或证据的不确定性,范围 [ − 1 , 1 ] [-1,1] [1,1]

知识的不确定性表示:

if  E  then  H   (CF(H, E)) 

CF(H,E):是该条知识的可信度,称为可信度因子或规则强度,它指出当前提条件 E 所对应的证据为真时,它对结论为真的支持程度。

在这里插入图片描述

在这里插入图片描述

推理结论CF值计算:
C F ( H ) = C F ( H , E ) × m a x { 0 , C F ( E ) } CF(H) = CF(H, E) \times max\{0, CF(E) \} CF(H)=CF(H,E)×max{0,CF(E)}
重复结论CF值计算:
i f E 1 t h e n H ( C F ( H , E 1 ) ) i f E 2 t h e n H ( C F ( H , E 2 ) ) 则 C F 1 , 2 ( H ) = { C F 1 ( H ) + C F 2 ( H ) − C F 1 ( H ) × C F 2 ( H ) C F 1 ( H ) ≥ 0 , C F 2 ( H ) ≥ 0 C F 1 ( H ) + C F 2 ( H ) + C F 1 ( H ) × C F 2 ( H ) C F 1 ( H ) < 0 , C F 2 ( H ) < 0 C F 1 ( H ) + C F 2 ( H ) 1 − m i n { ∣ C F 1 ( H ) ∣ , ∣ C F 2 ( H ) ∣ } C F 1 ( H ) , C F 2 ( H ) 异号 if \hspace{1em} E_1 \hspace{1em} then \hspace{1em} H \hspace{1em} (CF(H,E_1)) \\ if \hspace{1em} E_2 \hspace{1em} then \hspace{1em} H \hspace{1em} (CF(H,E_2)) \\ \text{则} CF_{1,2}(H) = \begin{cases} CF_1(H) + CF_2(H) - CF_1(H) \times CF_2(H) & CF_1(H) \ge 0, CF_2(H) \ge 0 \\ CF_1(H) + CF_2(H) + CF_1(H) \times CF_2(H) & CF_1(H) \lt 0, CF_2(H) \lt 0 \\ \frac{CF_1(H) + CF_2(H)}{1 - min\{ |CF_1(H)|, |CF_2(H)|\}} & CF_1(H),CF_2(H) \text{异号} \end{cases} ifE1thenH(CF(H,E1))ifE2thenH(CF(H,E2))CF1,2(H)= CF1(H)+CF2(H)CF1(H)×CF2(H)CF1(H)+CF2(H)+CF1(H)×CF2(H)1min{CF1(H),CF2(H)}CF1(H)+CF2(H)CF1(H)0,CF2(H)0CF1(H)<0,CF2(H)<0CF1(H),CF2(H)异号
在这里插入图片描述

在这里插入图片描述

4 计算智能

4.1 神经计算

神经网络三要素:

  • 神经元

    • 为一个简单的线性阈值单元(阈值逻辑单元TLU),简单的单层前馈网络,叫感知器
    • 多个输入通过 f ( ∑ i = 1 n w i x i − θ ) f(\sum \limits_{i = 1}^n w_i x_i - \theta) f(i=1nwixiθ)输出, f f f称为变换函数, θ \theta θ称为阈值或偏差。
  • 网络拓扑结构

    • 递归(反馈)网络(多个神经元之间组成一个互连神经网络)
    • 前馈(多层)网络(神经元之间不存在互连)(代表:BP网络(梯度下降法))
  • 学习算法

    • 有师学习算法

    • 无师学习算法(无需知道期望输出)

      • 聚类算法
    • 强化学习算法

      • 遗传算法

感知器逻辑推理:

  • 可以解决AND, OR, NOT问题
  • 不可解决线性不可分问题,例如XOR问题
  • 但XOR可以使用多层感知器网络(前馈网络)和递归网络实现

4.2 模糊计算

4.2.1 表示

A = { ( x , μ A ( x ) ) ∣ x ∈ U } A = \{ (x, \mu_A(x)) |x \in U \} A={(x,μA(x))xU}

μ A ( x ) \mu_A(x) μA(x) x x x A A A的隶属度, μ A ( x ) ∈ [ 0 , 1 ] \mu_A(x) \in [0, 1] μA(x)[0,1]

表示:

  • X X X为离散域
    F = ∑ i = 1 n μ F ( x ) / x A = 0 / 1 + 0.1 / 2 + 0.5 / 3 + 0.8 / 4 + 1 / 5 或 F = { μ F ( u 1 ) , μ F ( u 2 ) , ⋯   , μ F ( u n ) } A = { 0 , 0.1 , 0.5 , 0.8 , 1 } F = \sum \limits_{i = 1}^n \mu _F(x) / x \hspace{1em} A = 0/1 + 0.1/2 + 0.5/3 + 0.8 / 4 + 1/5 \\ \text{或} \\ F = \{\mu_F(u_1), \mu_F(u_2), \cdots, \mu_F(u_n) \} \hspace{1em} A = \{0, 0.1, 0.5, 0.8, 1 \} F=i=1nμF(x)/xA=0/1+0.1/2+0.5/3+0.8/4+1/5F={μF(u1),μF(u2),,μF(un)}A={0,0.1,0.5,0.8,1}

  • X X X 为连续域
    F = ∫ X μ F ( x ) / x F = \int_X \mu_F(x) / x F=XμF(x)/x

4.2.2 模糊运算

在这里插入图片描述

4.2.3 原理(求解过程)

  • 模糊化
  • 模糊计算:模糊统计法,对比排序法,专家评判法
  • 模糊判决(解模糊):重心法,最大隶属度法,系统加权平均法,隶属度限幅元素平均法

4.3 ⭐️遗传算法

  • 是一种模仿生物遗传学和自然选择机理的优化搜索算法,是进化计算的一种重要的形式。有选择算子,交叉算子,变异算子。
  • 流程
    • 初始化群体,群体中的每一个个体都是染色体,由二进制串组成,所以算法中会牵扯到编码和解码操作
    • 计算所有个体的适应度(适应度函数由用户自定义,保证适应度大的个体质量更好)
    • 选择:选择方法一般有赌轮选择和联赛选择。赌轮选择:每个个体有一个选择的概率,可以定为个体的适应度除以群体总的适应度,产生随机数选择一个个体。联赛选择:随机选择m个个体,选择适应度最大的个体。选择之后要进行解码操作。
    • 以某一概率进行交叉。(交叉分为一点交叉和两点交叉)
    • 以某一概率进行突变
    • 直至满足某种停止条件,否则一直进行适应度计算往下的操作
    • 输出适应度最优的染色体作为最优解

4.4 ⭐️粒群优化算法(?)

迭代公式

速度更新公式:
v ( t + 1 ) = w v ( t ) + c 1 r a n d ( ) ( p i − x ( t ) ) + c 2 r a n d ( ) ( p g − x ( t ) ) v(t + 1) = wv(t) + c_1rand() (p_i - x(t)) + c_2rand()(p_g - x(t)) v(t+1)=wv(t)+c1rand()(pix(t))+c2rand()(pgx(t))

w w w :惯性权重, c 1 , c 2 c_1,c_2 c1,c2 :加速常数, p i p_i pi :个体极值, p g p_g pg :全局极值

位置更新公式: x ( t + 1 ) = x ( t ) + v ( t + 1 ) x(t + 1) = x(t) + v(t + 1) x(t+1)=x(t)+v(t+1)

5 机器学习

5.1 归纳学习

分为:

  • 有师学习(示例学习)
  • 无师学习(观察发现学习)

5.2 神经网络学习

BP算法:反向传播算法

学习过程:正向传播 + 反向传播

5.3 深度学习

定义:将神经-中枢-大脑的工作原理设计成一个不断迭代、不断抽象的过程,以便得到最优数据特征表示的机器学习算法

卷积神经网络:

  • 神经元之间非全连接
  • 同一层神经元之间采用权值共享的方式

优点:

  • 采用非线性处理单元组成的多层结构
  • 分为有监督学习和无监督学习
  • 学习无标签数据优势明显

常用模型:

  • 自动编码器:无监督学习
  • 受限玻尔兹曼机:学习概率分布的一个随机生成神经网络,限定模型必须为二分图
  • 深度信念网络:靠近可视层部分使用贝叶斯信念网络
  • 卷积神经网络:多个卷积层和全连接层组成

5.4 ⭐️决策树

可参考:https://wyqz.top/p/808139430.html#toc-heading-34

信息熵:
E n t ( X ) = − ∑ p i l o g 2 p i i = 1, 2,  … , n Ent(X) = - \sum p_i log_2 p_i \hspace{2em} \text{i = 1, 2, …, n} Ent(X)=pilog2pii = 1, 2, , n
信息增益: 表示特征 X X X使得类 Y Y Y的不确定性减少的程度(熵值减少),即当前划分对信息熵所造成的变化。

信息增益越大,表示特征a来划分所减少的熵最大,即提升最大,应当作为根节点。
G a i n ( S , A ) = E n t ( S ) − ∑ v ∈ v a l u e s ( A ) ∣ S v ∣ ∣ S ∣ E n t ( S v ) Gain(S, A) = Ent(S) - \sum \limits_{v \in values(A)} \frac{|S_v|}{|S|} Ent(S_v) Gain(S,A)=Ent(S)vvalues(A)SSvEnt(Sv)

基于信息增益的ID3算法的实例:

我们有14天的数据,4个特征条件:天气,温度,湿度,是否有风。最终结果是去玩不玩。

在这里插入图片描述

在这里插入图片描述

上面有四种划分方式,我们需要判断谁来当根节点,根据的主要就是信息增益这个指标。下面计算信息增益来判断根节点。

总的数据中,9天玩,5天不玩,熵值为:
− 9 14 l o g 2 9 14 − 5 14 l o g 2 5 14 = 0.940 -\frac{9}{14}log_2 \frac{9}{14} - \frac{5}{14}log_2 \frac{5}{14} = 0.940 149log2149145log2145=0.940
本例暂且以ent(a, b)代表以下含义:(只有两种结果的时候的熵值计算)

from math import log2
def ent(a, b):
    tot = a + b
    x, y = a / tot, b / tot
    return -(x * log2(x) + y * log2(y))

然后对4个特征逐个分析:

  • outlook

    • outlook = sunny时,熵值为0.971,取值为sunny的概率为 5 14 \frac{5}{14} 145
    • outlook = overcast时,熵值为0,取值为overcast的概率为 4 14 \frac{4}{14} 144
    • outlook = rainy时,熵值为0.971,取值为rainy的概率为 5 14 \frac{5}{14} 145

    熵值为:
    5 14 × 0.971 + 4 14 × 0 + 5 14 × 0.971 = 0.693 \frac{5}{14} \times 0.971 + \frac{4}{14} \times 0 + \frac{5}{14} \times 0.971 = 0.693 145×0.971+144×0+145×0.971=0.693
    信息增益:系统熵值从0.940下降到0.693,增益为0.247。

  • temperture

    • temperture = hot时,熵值为1.0(ent(2, 2)),取值为hot的概率为 4 14 \frac{4}{14} 144
    • temperture = mild时,熵值为0.918(ent(4, 2)),取值为mild的概率为 6 14 \frac{6}{14} 146
    • temperture = cool时,熵值为0.81(ent(3,1)),取值为cool的概率为 4 14 \frac{4}{14} 144

    熵值为:
    4 14 × 1.0 + 6 14 × 0.918 + 4 14 × 0.81 = 0.911 \frac{4}{14} \times 1.0 + \frac{6}{14} \times 0.918 + \frac{4}{14} \times 0.81 = 0.911 144×1.0+146×0.918+144×0.81=0.911
    信息增益: G a i n ( S , t e m p e r t u r e ) = 0.940 − 0.911 = 0.029 Gain(S, temperture) = 0.940 - 0.911 = 0.029 Gain(S,temperture)=0.9400.911=0.029

G a i n ( S , O u t l o o k ) = 0.247 G a i n ( S , H u m i d i t y ) = 0.151 G a i n ( S , W i n d ) = 0.048 G a i n ( S , T e m p e r a t u r e ) = 0.029 Gain(S,Outlook)=0.247 \\ Gain(S, Humidity)=0.151 \\ Gain(S, Wind)=0 .048 \\ Gain(S,Temperature)=0 .029 Gain(SOutlook)=0.247Gain(S,Humidity)=0.151Gain(S,Wind)=0.048Gain(S,Temperature)=0.029

计算出所有的信息增益之后,选择有最大的信息增益的特征作为根节点。

下面找Sunny分支的决策树划分:

总的熵值
− 2 5 × l o g 2 ( 2 5 ) − 3 5 l o g 2 ( 3 5 ) = 0.97 -\frac{2}{5} \times log_2(\frac{2}{5}) - \frac{3}{5}log_2(\frac{3}{5}) = 0.97 52×log2(52)53log2(53)=0.97
以剩下的三个特征进行分析:

  • temperture

    • temperture=hot,熵值为0,概率为 2 5 \frac{2}{5} 52
    • temperture=mild,熵值为1.0,概率为 2 5 \frac{2}{5} 52
    • temperture=cool,熵值为0,概率为 1 5 \frac{1}{5} 51

    熵值为 2 5 \frac{2}{5} 52

    信息增益: 0.97 − 0.4 = 0.57 0.97-0.4 = 0.57 0.970.4=0.57

  • humidity

    • high,熵值为0,概率为 3 5 \frac{3}{5} 53
    • normal,熵值为1,概率为 2 5 \frac{2}{5} 52

    熵值为 2 5 \frac{2}{5} 52

    信息增益: 0.97 − 0.4 = 0.57 0.97 - 0.4 = 0.57 0.970.4=0.57

  • windy

    • false,熵值为0.918,概率为 3 5 \frac{3}{5} 53
    • true,熵值为1,概率为 2 5 \frac{2}{5} 52

    熵值为 0.951 0.951 0.951

    信息增益: 0.97 − 0.95 = 0.02 0.97 - 0.95 = 0.02 0.970.95=0.02

故选择humidy或temperture划分

剩下的划分同理

最终决策树:

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/380299.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

攻不下dfs不参加比赛(八)

标题 为什么练dfs题目重点为什么练dfs 相信学过数据结构的朋友都知道dfs(深度优先搜索)是里面相当重要的一种搜索算法,可能直接说大家感受不到有条件的大家可以去看看一些算法比赛。这些比赛中每一届或多或少都会牵扯到dfs,可能提到dfs大家都知道但是我们为了避免眼高手低有…

2.2 数据库的常用操作

文章目录1.分类2.创建数据库3.删除数据库4.查看所有数据库5.备份数据库6.数据库维护7.数据库使用与结构7.1 数据库的使用7.2 数据库结构虽然我们已经安装了可视化视图软件&#xff0c;但前期为了熟悉管理命令行的操作&#xff0c;我们暂时先在管理命令窗口进行操作&#xff1a;…

关于.bashrc和setup.bash的理解

在创建了ROS的workspace后&#xff0c;需要将workspace中的setup.bash文件写入~/.bashrc 文件中&#xff0c;让其启动&#xff1a; source /opt/ros/melodic/setup.bash这句话的目的就是在开新的terminal的时候&#xff0c;运行这个setup.bash&#xff0c;而这个setup.bash的作…

【2373. 矩阵中的局部最大值】

来源&#xff1a;力扣&#xff08;LeetCode&#xff09; 描述&#xff1a; 给你一个大小为 n x n 的整数矩阵 grid 。 生成一个大小为 (n - 2) x (n - 2) 的整数矩阵 maxLocal &#xff0c;并满足&#xff1a; maxLocal[i][j] 等于 grid 中以 i 1 行和 j 1 列为中心的 3 …

搭建私人《我的世界》服务器,使用Cpolar内网穿透更简单

文章目录1.前言2.本地服务器搭建2.1 设置环境变量2.2 进行《我的世界》服务器端设置2.3 测试和使用3.本地MC服务器的内网穿透3.1.Cpolar云端设置3.2.Cpolar本地设置3.3.测试和使用4.结语1.前言 要说去年游戏圈的重磅大瓜&#xff0c;想必网易和暴雪的分家必能上榜。虽然两家大…

元宇宙对体育运动意味着什么?

欢迎来到Hubbleverse &#x1f30d; 关注我们 关注宇宙新鲜事 &#x1f4cc; 预计阅读时长&#xff1a;8分钟 本文仅代表作者个人观点&#xff0c;不代表平台意见&#xff0c;不构成投资建议。 Facebook将其品牌重塑为“Meta”&#xff0c;“元”的概念推向了主流&#xff…

如何退出PPT文件的“只读模式”?

PPT文件设置了“只读模式”&#xff0c;打开文件就会弹出对话框&#xff0c;提示【输入密码以修改或以只读方式打开】。 如果有密码&#xff0c;输入密码后可以正常修改编辑PPT&#xff0c;但下次再打开时仍旧会出现提示框&#xff1b;如果没有密码&#xff0c;选择【只读】可…

第十五届(2022年)山东省职业院校技能大赛高职组信息安全管理与评估竞赛试题

第十五届&#xff08;2022年&#xff09;山东省职业院校技能大赛高职组信息安全管理与评估 竞赛试题 第一阶段竞赛项目试题 根据信息安全管理与评估技术文件要求&#xff0c;第一阶段为网络平台搭建与网络安全设备配置与防护。本文件为信息安全管理与评估项目竞赛-第一阶段试题…

【正点原子FPGA连载】第二十一章AXI DMA环路测试 摘自【正点原子】DFZU2EG_4EV MPSoC之嵌入式Vitis开发指南

1&#xff09;实验平台&#xff1a;正点原子MPSoC开发板 2&#xff09;平台购买地址&#xff1a;https://detail.tmall.com/item.htm?id692450874670 3&#xff09;全套实验源码手册视频下载地址&#xff1a; http://www.openedv.com/thread-340252-1-1.html 第二十一章AXI D…

全网资料最全Java数据结构与算法-----算法分析

算法分析 研究算法的最终目的就是如何花更少的时间&#xff0c;如何占用更少的内存去完成相同的需求&#xff0c;并且也通过案例演示了不同算法之间时间耗费和空间耗费上的差异&#xff0c;但我们并不能将时间占用和空间占用量化&#xff0c;因此&#xff0c;接下来我们要学习…

Keil新建一个国民32位MCU工程

1.打开Keil软件&#xff0c;点击Project→New uVision→Project 2.将工程保存到自己的工程文件夹&#xff0c;并给项目命名&#xff0c;点击保存 3.选择自己需要开发的芯片&#xff0c;点击OK 4.点击OK 5.出现上图所示&#xff0c;工程已经建好了&#xff0c;点击配置工程。 6.…

用Python实现九九乘法表的几种方式,最简单只需一行代码

前言 嗨喽~大家好呀&#xff0c;这里是魔王呐 ❤ ~! 我们在学习Python的过程中需要不断的积累和练习&#xff0c;这样才能够走的更远&#xff0c; 今天一起来学习怎么用Python写九九乘法表~ 更多教程源码资料电子书: 点击此处跳转文末名片获取 第一种方法、for-for 代码&…

大数据处理学习笔记1.6 Scala数据结构

文章目录零、本讲学习目标一、数组 (Array)&#xff08;一&#xff09;定长数组1、数组定义&#xff08;1&#xff09;定义数组时初始化数据&#xff08;2&#xff09;定义时指定数组长度&#xff0c;后赋值2、数组遍历&#xff08;1&#xff09;传统for循环方式&#xff08;2&…

JavaSE:异常机制

异常概念异常发生的原因用户输入非法数据要打开的文件不存在网络中断/JVM内存溢出&#xff08;JVM是JRE的一部分。它是一个虚构出来的计算机&#xff09;除0、非法参数等三种类型的异常&#xff0c;用以理解异常检查性异常【otherException】&#xff1a;程序员无法预见的&…

Linux权限相关知识(大量图文展示,及详细操作)

Linux权限相关概念 Linux下有两种用户&#xff1a;一种是超级用户&#xff08;root&#xff09;、一种是普通用户。 超级用户&#xff1a;可以在linux系统下做任何事情&#xff0c;不受限制 普通用户&#xff1a;在linux下做有限的事情。 超级用户的命令提示符是“#”&#xf…

关于excel文件导入的bug总结

从项目中获取到模板文件&#xff0c;更名 “external_platform_account_template.xls” &#xff0c;注意此时我只改了文件名没改文件属性。 文件填充内容如下&#xff1a; postman调用导入接口本地测试报错&#xff0c;错误如下&#xff1a; 报错信息&#xff1a; The supp…

微信扫码登录

一、准备工作 微信开发者平台&#xff1a;https://open.weixin.qq.com 1、注册 2、邮箱激活 3、完善开发者资料 4、开发者资质认证&#xff1a;仅能企业注册&#xff08;后面提供学习的使用渠道&#xff09;准备营业执照&#xff0c;1-2个工作日审批、300元 5、创建网站应用&…

leetcode 61~70 学习经历

leetcode 61~70 学习经历61. 旋转链表62. 不同路径63. 不同路径 II64. 最小路径和65. 有效数字66. 加一67. 二进制求和68. 文本左右对齐69. x 的平方根70. 爬楼梯小结61. 旋转链表 给你一个链表的头节点 head &#xff0c;旋转链表&#xff0c;将链表每个节点向右移动 k 个位置…

【论文精读】Benchmarking Deep Learning Interpretability in Time Series Predictions

【论文精读】Benchmarking Deep Learning Interpretability in Time Series Predictions Abstract Saliency methods are used extensively to highlight the importance of input features in model predictions. These methods are mostly used in vision and language task…

嵌入式 Linux多进程

目录 一、Linux进程概述 1、进程标识 2、进程的运行身份 3、进程的状态 4、Linux下进程的结果及管理 5、一些进程相关信息&相关命令 进程process&#xff1a; 进程相关命令&#xff1a; 二、Linux进程创建与控制 1、fork进程创建函数 2、进程的终止 3、wait和wa…