Map和Set
- 搜索树
- 概念
- 操作 - 查找
- 操作 - 插入
- 操作 - 删除
- cur没有左树(cur.left == null)
- cur没有右树(cur.right == null)
- cur既有左树也有右树(最困难的情况)
- 替罪羊删除法
- 操作代码
- 性能分析
- 和 java 类集的关系
- 搜索
- 概念及场景
- 模型
- Map的使用
- 关于Map的说明
- 关于Map.Entry<K,V>的说明
- Map常用方法
- Set
- 常见方法说明
- 哈希表
- 概念
- 哈希冲突——概念
- 哈希冲突——避免
- 避免——哈希函数设计
- 常见哈希函数设计
- 避免——复杂因子调节
- 解决
- 解决——闭散列
- 闭散列——线性探测
- 闭散列——二次探测
- 解决——开散列
- 冲突严重时的解决办法
- 实现简易的哈希桶
- 性能分析
- 和java集合类的关系
搜索树
概念
二叉搜索树又称二叉排序树,它或者是一棵空树,或者是具有以下性质的二叉树:
若它的左子树不为空,则左子树上所有节点的值都小于根节点的值
若它的右子树不为空,则右子树上所有节点的值都大于根节点的值
它的左右子树也分别为二叉搜索树
操作 - 查找
顾名思义 二叉搜索树主要的作用是查找
根据二叉搜索树的定义可以直到 我们如果要找一个元素 从树顶开始比较即可
假设根节点的值key
如果key == 我们要找的树 直接返回
如果key > 要查找的值 根据定义 这个数要不不存在 要不就只能在我们树的左侧
如果key < 要查找的值 根据定义 这个数要不不存在 要不就只能在我们树的右侧
如果根节点为null也无法找到 说明树中没有这个元素
操作 - 插入
我们要构建一颗二叉搜索树 就要实现插入操作
如果树是一颗空树 我们直接插入即可
如果不是 则要和我们的查找逻辑一样判断这个节点应该在什么位置
值得注意的是 插入元素只能插入到搜索树的叶子节点 第一个插入的节点即为根节点 不再改变
操作 - 删除
**删除操作相对于查找和插入操作更复杂 因为我们要处理很多种情况 在不同的情况下需要的插入操作不同 **
我们要删除一个元素 假设要删除的元素为cur 待删除的元素的父亲结点是parent 之所以要记录待删除元素的父亲节点是因为防止在删除cur之后 无法将cur之后的节点和整棵树连接起来
在删除时 有很多种情况 :
cur没有左树 ,cur没有右树,cur既有左树又有右树,且在这些情况下还有更特殊的情况 此时我们要对每种情况具体分析
下面是情况分析
cur没有左树(cur.left == null)
在没有左树的情况下也分为很多种情况
- cur是root节点 则可以root = cur.right来完成删除
- cur 不是root cur是parent.left 则parent.left = cur.right
- cur 不是root,cur是parent.right 则parent.right = cur.right
cur没有右树(cur.right == null)
和没有左树的分析方式一样分析没有右树
- cur 是 root 则root = cur.left
- cur 不是root cur是parent.left 则parent.left = cur.left
- cur不是root cur是parent.right 则parent.right = cur.right.
cur既有左树也有右树(最困难的情况)
以上两种情况处理起来比较简单 但是当cur的左树和右树都存在时 想要简单的删除就比较难了 在这里我们采用一种方法——替罪羊删除法
替罪羊删除法
我们在删除cur时 因为他的左树和右数都存在元素所以删除起来很困难 我们的思路是 如何将删除cur 节点转换成删除一个没有左树或者没有右树的节点呢?
我们可以用一个元素来替换 我们要删除的cur节点
可以是cur左树的最大值 或者cur右树的最小值 **这两个值都有一个特点 我们用这个数来替换掉我们要删除的cur值 而保持二叉搜索树的结构不发生改变 **
且我们可以想到 左树的最右边的节点 是一定没有右树的 右节点也是这样的情况
所以我们可以用左树的最右节点 或者右树的最左节点 来替换掉cur 转而去删除这两个节点 此时就是我们之前的两种情况
具体步骤
- 找到左树最大值 或者右数最小值(也就是左树最右边的节点或者右树的最左边的节点 目的是不改变搜索树的性质)
- 将这个节点覆盖掉我们要删除的cur节点
- 将问题转化为删除左树最右边的节点或者右树的最左边的节点 这两个节点的删除方法就是前两种情况
操作代码
public class BrinarySearchTree {
static class TreeNode {
public int val;
public TreeNode left;
public TreeNode right;
public TreeNode(int val) {
this.val = val;
}
}
public TreeNode root;
/**
* 查找操作
*/
public TreeNode search(int val) {
TreeNode cur = root;
while (cur != null) {
if (cur.val == val) {
return cur;
} else if (cur.val < val) {
cur = cur.right;
} else {
cur = cur.left;
}
}
return null;
}
/**
* 插入操作
*/
public boolean insert(int val) {
TreeNode node = new TreeNode(val);
//先构建出这个节点再插入
if (root == null) {
root = node;
return true;
}
TreeNode cur = root;
TreeNode parent = null;
while (cur != null) {
if (cur.val < val) {
parent = cur;
cur = cur.right;
} else if (cur.val > val) {
parent = cur;
cur = cur.left;
} else {
//搜索树中已经有相同的元素
//此时不能进行插入
return false;
}
}
//此时找到合适的叶子节点位置
if (parent.val > val) {
parent.left = node;
} else {
parent.right = node;
}
return true;
}
/**
* 删除值为key的节点
*/
private void remove(TreeNode cur, TreeNode parent) {
//第一种情况 cur的左树为空
if (cur.left == null) {
if (cur == root) {
root = cur.right;
} else if (cur == parent.left) {
parent.left = cur.right;
} else {
parent.right = cur.right;
}
}//第二种情况 cur的右数为空
else if (cur.right == null) {
if (cur == root) {
root = cur.left;
} else if (parent.left == cur) {
parent.left = cur.left;
} else {
parent.right = cur.left;
}
}//第三种情况 替罪羊删除法
else {
TreeNode targetParent = cur;
TreeNode target = cur.right;
//我在这里是找右树的最小值
while (target.left != null){
targetParent = target;
target = target.left;
}
//此时找到了要当替罪羊的那个节点
//保存在target中
cur.val = target.val;
//覆盖掉cur节点的值 此时删除target节点
//下面判断我们找的是右树的最小值还是左树的最大值
if(target == targetParent.left){
//如果是右树的最小值
targetParent.left = target.right;
}else {
targetParent.right = target.right;
}
}
}
public void removeNode(int key) {
TreeNode cur = root;
TreeNode parent = null;
while (cur != null) {
if (cur.val > key) {
parent = cur;
cur = cur.left;
} else if (cur.val < key) {
parent = cur;
cur = cur.right;
} else {
remove(cur, parent);
return;
}
}
}
}
性能分析
插入和删除操作都必须先查找,查找效率代表了二叉搜索树中各个操作的性能。
对有n个结点的二叉搜索树,若每个元素查找的概率相等,则二叉搜索树平均查找长度是结点在二叉搜索树的深度的函数,即结点越深,则比较次数越多。
但对于同一个关键码集合,如果各关键码插入的次序不同,可能得到不同结构的二叉搜索树
最优情况下,二叉搜索树为完全二叉树,其平均比较次数为:logN
最差情况下,二叉搜索树退化为单支树,其平均比较次数为:N/2
和 java 类集的关系
TreeMap 和 TreeSet 即 java 中利用搜索树实现的 Map 和 Set;实际上用的是红黑树,而红黑树是一棵近似平衡的二叉搜索树,即在二叉搜索树的基础之上 + 颜色以及红黑树性质验证,
搜索
概念及场景
**Map和set是一种专门用来进行搜索的容器或者数据结构,其搜索的效率与其具体的实例化子类有关。**以前常见的搜索方式有:
- 直接遍历,时间复杂度为O(N),元素如果比较多效率会非常慢
- 二分查找,时间复杂度为O(logN) ,但搜索前必须要求序列是有序的
上述排序比较适合静态类型的查找,即一般不会对区间进行插入和删除操作了,而现实中的查找比如: - 根据姓名查询考试成绩
- 通讯录,即根据姓名查询联系方式
- 不重复集合,即需要先搜索关键字是否已经在集合中
模型
一般把搜索的数据称为关键字(Key),和关键字对应的称为值(Value),将其称之为Key-value的键值对,所以模型会有两种:
- 纯 key 模型,比如:
有一个英文词典,快速查找一个单词是否在词典中快速查找某个名字在不在通讯录中 - Key-Value 模型,比如:
统计文件中每个单词出现的次数,统计结果是每个单词都有与其对应的次数:<单词,单词出现的次数>
梁山好汉的江湖绰号:每个好汉都有自己的江湖绰号
而Map中存储的就是key-value的键值对,Set中只存储了Key。
Map的使用
关于Map的说明
Map是一个接口类,该类没有继承自Collection,该类中存储的是<K,V>结构的键值对,并且K一定是唯一的,不能重复。
关于Map.Entry<K,V>的说明
Map.Entry<K, V> 是Map内部实现的用来存放<key, value>键值对映射关系的内部类,该内部类中主要提供了<key, value>的获取,value的设置以及Key的比较方式。
方法 | 解释 |
---|---|
K getKey() | 返回 entry 中的 key |
V getValue() | 返回 entry 中的 value |
V setValue(V value) | 将键值对中的value替换为指定value |
注意:Map.Entry<K,V>并没有提供设置Key的方法
Map常用方法
注意:
- Map是一个接口,不能直接实例化对象,如果要实例化对象只能实例化其实现类TreeMap或者HashMap
- Map中存放键值对的Key是唯一的,value是可以重复的
- 在TreeMap中插入键值对时,Key不能为空,否则就会抛出NullPointerException异常,value可以为空,但是HasnMap中的key和value都可以为空
- Map中的key可以全部分离出来,存储到set中来进行访问(因为key不可以重复)
- Map中的value可以全部分离出来 存储在Collection的任何一个子集合中(value可能会重复)
- Map中键值对的Key不能直接修改,value可以修改,如果要修改key,只能先将该key删除掉,然后再来进行重新插入。
HashMap和TreeMap的区别
Map底层结构 | TreeMap | HashMap |
---|---|---|
底层结构 | 红黑树 | 哈希桶 |
插入/删除/查找时间 | O(logN) | O(1) |
是否有序 | 关于Key有序 | 无序 |
线程安全 | 不安全 | 不安全 |
插入/删除/查找区别 | 需要进行元素比较 | 通过哈希函数计算哈希地址 |
比较与覆写 | key必须能够比较,否则会抛出ClassCastException异常 | 自定义类型需要覆写equals和hashCode方法 |
应用场景 | 需要Key有序场景下 | Key是否有序不关心,需要更高的时间性能 |
Set
Set与Map主要的不同有两点:Set是继承自Collection的接口类,Set中只存储了Key。
常见方法说明
方法 | 解释 |
---|---|
boolean add(E e) | 添加元素,但重复元素不会被添加成功 |
void clear() | 清空集合 |
boolean contains(Object o) | 判断 o 是否在集合中 |
Iterator iterator() | 返回迭代器 |
boolean remove(Object o) | 删除集合中的 o |
int size() | 返回set中元素的个数 |
boolean isEmpty() | 检测set是否为空,空返回true,否则返回false |
Object[] toArray() | 将set中的元素转换为数组返回 |
boolean containsAll(Collection<?> c) | 集合c中的元素是否在set中全部存在,是返回true,否则返回false |
boolean addAll(Collection<? extendsE> c) | 将集合c中的元添加到set中,可以达到去重的效果 |
注意:
- Set是继承自Collection的一个接口类
- Set中只存储了key,并且要求key一定要唯一
- TreeSet的底层是使用Map来实现的,其使用key与Object的一个默认对象作为键值对插入到Map中的
- Set最大的功能就是对集合中的元素进行去重
- 实现Set接口的常用类有TreeSet和HashSet,还有一个LinkedHashSet,LinkedHashSet是在HashSet的基础
上维护了一个双向链表来记录元素的插入次序。 - Set中的Key不能修改,如果要修改,先将原来的删除掉,然后再重新插入
- TreeSet中不能插入null的key,HashSet可以。
哈希表
概念
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O( logN ),搜索的效率取决于搜索过程中元素的比较次数。
理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。
当向该结构中:
插入元素
根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放
搜索元素
对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)(或者称散列表)
例如:数据集合{1,7,6,4,5,9};
哈希函数设置为:hash(key) = key % capacity; capacity为存储元素底层空间总的大小。
用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快 问题:按照上述哈希方式,向集合中插入元素44,会出现什么问题?
44在插入时 要先根据哈希函数计算出他应该放在那个下标位置 hash(key) = 44 % 10 = 4 此时我们发现在该下标已经有一个元素了 此时就发生了哈希冲突
哈希冲突——概念
对于两个数据元素的关键字 和 (i != j),有 != ,但有:Hash( ) == Hash( ),即:不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。
把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”
我们上面的例子就是哈希冲突
哈希冲突——避免
首先,我们需要明确一点,由于我们哈希表底层数组的容量往往是小于实际要存储的关键字的数量的,这就导致一个问题,冲突的发生是必然的,但我们能做的应该是尽量的降低冲突率。
避免——哈希函数设计
引起哈希冲突的一个原因可能是:哈希函数设计不够合理。 哈希函数设计原则:
- 哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m个地址时,其值域必须在0到m-1之间
- 哈希函数计算出来的地址能均匀分布在整个空间中
- 哈希函数应该比较简单
常见哈希函数设计
- 直接定制法–(常用)
取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B
优点:简单、均匀
缺点:需要事先知道关键字的分布情况 使用场景:适合查找比较小且连续的情况 - 除留余数法–(常用)
设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:Hash(key) = key% p(p<=m),将关键码转换成哈希地址
避免——复杂因子调节
负载因子和冲突率的关系粗略演示
解决
解决哈希冲突的两种常见的方法是:闭散列合开散列
解决——闭散列
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以
把key存放到冲突位置中的“下一个” 空位置中去。那如何寻找下一个空位置呢?
闭散列——线性探测
比如上面的场景,现在需要插入元素44,先通过哈希函数计算哈希地址,下标为4,因此44理论上应该插在该位置,但是该位置已经放了值为4的元素,即发生哈希冲突。
线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
闭散列——二次探测
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:Hi = (H0 + i2)% m, 或者:= ( - )% m。其中:i = 1,2,3…, 是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表的大小。 对于2.1中如果要插入44,产生冲突,使用解决后的情况为
研究表明:当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表装满的情况,但在插入时必须确保表的装载因子a不超过0.5,如果超出必须考虑增容。
解决——开散列
开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
从上图可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。
开散列,可以认为是把一个在大集合中的搜索问题转化为在小集合中做搜索了。
冲突严重时的解决办法
刚才我们提到了,哈希桶其实可以看作将大集合的搜索问题转化为小集合的搜索问题了,那如果冲突严重,就意味着小集合的搜索性能其实也时不佳的,这个时候我们就可以将这个所谓的小集合搜索问题继续进行转化,例如:
1. 每个桶的背后是另一个哈希表
2. 每个桶的背后是一棵搜索树
实现简易的哈希桶
哈希桶是数组+链表+红黑树的结构
我们因为是简易实现 就只实现数组+链表的结构
/**
* 数组+链表实现哈希桶
* key和value都是int类型的版本
* 每一个数组都存放这链表的头节点
*/
public class HashBucket {
//定义哈希桶节点
static class Node {
private int key;
private int value;
private Node next;
public Node(int key, int value) {
this.key = key;
this.value = value;
}
}
public Node[] array;
//数组+链表的数组
public int usedSize;
//哈希桶中的数据数目
private static final float DEFAULT_LOAD_FACTOR = 0.75f;
//默认负载因子为0.75
//当usedSize/array.length > 0.75 时 要对数组进行扩容
public HashBucket() {
this.array = new Node[10];
}
//向哈希桶中放元素
public void put(int key, int val) {
Node node = new Node(key, val);
int index = key % array.length;
//哈希函数找到他应该存放位置的下标
Node cur = array[index];
//找到该下标的链表 从头结点开始向下遍历
while (cur != null){
if(cur.key == key){
//如果key值相同 则修改这个元素
cur.value = val;
return;
}
cur = cur.next;
//尾插元素
}
node.next = array[index];
array[index] = node;
//如果该位置没有元素 则头插;
usedSize++;
//添加完成之后检查负载因子是否还是小于0.75
if(loadFactor() >= DEFAULT_LOAD_FACTOR){
resize();
//扩容
}
}
//获取当前的负载因子
private float loadFactor(){
return usedSize * 1.0f / array.length;
}
//数组扩容
//扩容后要重新hash原来的数据
private void resize(){
//2倍扩容
Node[] tempArray = new Node[2 * array.length];
//遍历每个链表 重新hash新的数组中的位置
for (Node node : array) {
Node cur = node;
while (cur != null) {
Node curNext = cur.next;
int index = cur.key % array.length;
//重新hash得到的下标
cur.next = tempArray[index];
tempArray[index] = cur;
cur = curNext;
}
}
//最后把临时数组给原始数组
array = tempArray;
}
public int get(int key){
int index = key % array.length;
Node cur = array[index];
while (cur != null) {
if (cur.key == key) {
return cur.value;
}
cur = cur.next;
}
return -1;
}
}
性能分析
虽然哈希表一直在和冲突做斗争,但在实际使用过程中,我们认为哈希表的冲突率是不高的,冲突个数是可控的,也就是每个桶中的链表的长度是一个常数,所以,通常意义下,我们认为哈希表的插入/删除/查找时间复杂度是O(1) 。
和java集合类的关系
- HashMap 和 HashSet 即 java 中利用哈希表实现的 Map 和 Set
- java 中使用的是哈希桶方式解决冲突的
- java 会在冲突链表长度大于一定阈值后,将链表转变为搜索树(红黑树)
- java 中计算哈希值实际上是调用的类的 hashCode 方法,进行 key 的相等性比较是调用 key 的 equals 方法。所以如果要用自定义类作为 HashMap 的 key 或者 HashSet 的值,必须覆写 hashCode 和 equals 方法,而且要做到 equals 相等的对象,hashCode 一定是一致的。