redis学习笔记(基础)

news2025/1/10 23:58:00

Redis简介

Redis是一个开源(BSD许可),内存存储的数据结构服务器,可用作数据库,高速缓存和消息队列代理。它支持字符串、哈希表、列表、集合、有序集合,位图,hyperloglogs等数据类型。内置复制、Lua脚本、LRU收回、事务以及不同级别磁盘持久化功能,同时通过Redis Sentinel提供高可用,通过Redis Cluster提供自动分区。

ubuntu18.04安装redis教程

1.五大数据类型

1.Redis-key

  • set x y :设置键和值
  • exists key:判断键是否存在
  • del key:删除键值对
  • move key db:将键值对移动到指定数据库
  • expire key second:设置键值对的过期时间
  • type key:查看value的数据类型
127.0.0.1:6379> keys * # 查看当前数据库所有key
(empty list or set)
127.0.0.1:6379> set name qinjiang # set key
OK
127.0.0.1:6379> set age 20
OK
127.0.0.1:6379> keys *
1) "age"
2) "name"
127.0.0.1:6379> move age 1 # 将键值对移动到指定数据库
(integer) 1
127.0.0.1:6379> EXISTS age # 判断键是否存在
(integer) 0 # 不存在
127.0.0.1:6379> EXISTS name
(integer) 1 # 存在
127.0.0.1:6379> SELECT 1
OK
127.0.0.1:6379[1]> keys *
1) "age"
127.0.0.1:6379[1]> del age # 删除键值对
(integer) 1 # 删除个数


127.0.0.1:6379> set age 20
OK
127.0.0.1:6379> EXPIRE age 15 # 设置键值对的过期时间

(integer) 1 # 设置成功 开始计数
127.0.0.1:6379> ttl age # 查看key的过期剩余时间
(integer) 13
127.0.0.1:6379> ttl age
(integer) 11
127.0.0.1:6379> ttl age
(integer) 9
127.0.0.1:6379> ttl age
(integer) -2 # -2 表示key过期,-1表示key未设置过期时间

127.0.0.1:6379> get age # 过期的key 会被自动delete
(nil)
127.0.0.1:6379> keys *
1) "name"

127.0.0.1:6379> type name # 查看value的数据类型
string

2.String

127.0.0.1:6379> set key1 v1  # 设置值
OK
127.0.0.1:6379> get key1       # 获取值
"v1"
127.0.0.1:6379> keys *        # 获取所有的值
1) "name"
2) "age"
3) "key1"
127.0.0.1:6379> exists key1      # 判断某一个值是否存在
(integer) 1
127.0.0.1:6379> append key1 hello	#追加字符串,如果当前 key 不存在,就相当于 set key
(integer) 7
127.0.0.1:6379> get key1
"v1hello"
127.0.0.1:6379> strlen key1	#获取字符串的长度
(integer) 7
127.0.0.1:6379> append key1 ,kuangshen
(integer) 17
127.0.0.1:6379> get key1
"v1hello,kuangshen"
#####################################################################################
# i++
# 步长 i+=

127.0.0.1:6379> set views 0	#浏览量初始为0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views	#自增1	浏览量为1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views	#自减1
(integer) 1
127.0.0.1:6379> decr views
(integer) 0
127.0.0.1:6379> decr views
(integer) -1
127.0.0.1:6379> get views
"-1"
127.0.0.1:6379> incrby views 10	#可以设置步长,指定增量
(integer) 9
127.0.0.1:6379> incrby views 10
(integer) 19
127.0.0.1:6379> decrby views 10
(integer) 9
#####################################################################################
字符串范围:range

127.0.0.1:6379> set key1 hello,kuangshen
OK
127.0.0.1:6379> get key1
"hello,kuangshen"
127.0.0.1:6379> GETRANGE key1 0 3	# 截取字符串[0,3]
"hell"
127.0.0.1:6379> GETRANGE key1 0 -1	# 获取全部的字符串,和 get key 是一样的
"hello,kuangshen"
# 替换
127.0.0.1:6379> set key2 abcdefg
OK
127.0.0.1:6379> get key2
"abcdefg"
127.0.0.1:6379> SETRANGE key2 1 xx	# 替换指定位置开始的字符串!
(integer) 7
127.0.0.1:6379> get key2
"axxdefg"
#####################################################################################
setex (set with exprie)  	# 设置过期时间
setnx (set if not exist)	# 不存在再设置	(在分布式锁中会常常用到!)

127.0.0.1:6379> setex key3 30 "hello"	# 设置 key3 的值为 hello,30秒后过期
OK
127.0.0.1:6379> ttl key3
(integer) 26
127.0.0.1:6379> get key3
"hello"
127.0.0.1:6379> setnx mykey "redis"	# 如果 mykey 不存在,创建 mykey
(integer) 1
127.0.0.1:6379> keys *
1) "mykey"
2) "key2"
3) "key1"
127.0.0.1:6379> setnx mykey "mongoDB" # 如果 mykey 存在,创建失败
(integer) 0
127.0.0.1:6379> get mykey
"redis"
#####################################################################################
127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3	# 同时设置多个值
OK
127.0.0.1:6379> keys *
1) "k3"
2) "k2"
3) "k1"
127.0.0.1:6379> mget k1 k2 k3	# 同时获取多个值
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 v1 k4 v4	# msetnx 是一个原子性操作,要么一起成功,要么一起失败!
(integer) 0
127.0.0.1:6379> get k4
(nil)

对象
set user:1 {name:zhangsan,age:3}	# 设置一个 user:1 对象,值为 json 字符来保存一个对象

这里的 key 是一个巧妙的设计:user:{id}:{filed},如此设计在 Redis 中是完全Ok的

127.0.0.1:6379> mset user:1:name zhangsan user:1:age 2
OK
127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangsan"
2) "2"

#####################################################################################
getset:先 get 再 set

127.0.0.1:6379> getset db redis	# 如果不存在值,则返回 nil
(nil)
127.0.0.1:6379> get db
"redis"
127.0.0.1:6379> getset db mongodb # 如果存在值,获取原来的值,并设置新的值
"redis"
127.0.0.1:6379> get db
"mongodb"

  • String 类似的使用场景:value 除了可以是我们的字符串还可以是我们的数字
    • 计数器
    • 统计多单位的数量
    • 粉丝数
    • 对象缓存存储

3.List

127.0.0.1:6379> LPUSH list one	# 将一个值或者多个值,插入到列表头部(左)
(integer) 1
127.0.0.1:6379> LPUSH list two
(integer) 2
127.0.0.1:6379> LPUSH list three
(integer) 3
127.0.0.1:6379> LRANGE list 0 -1	# 获取 list 中的值
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
127.0.0.1:6379> rpush list right	# 将一个值或者多个值,插入到列表尾部(右)
(integer) 4
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
#####################################################################################

LPOP
RPOP

127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> lpop list	# 移除 list 的第一个元素
"three"
127.0.0.1:6379> rpop list	# 移除 list 的最后一个元素
"right"
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
#####################################################################################
Lindex

127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
127.0.0.1:6379> lindex list 1	# 通过下标获得 list 中的某一个值
"one"
127.0.0.1:6379> lindex list 0
"two"
#####################################################################################

Llen

127.0.0.1:6379> LPush list one
(integer) 1
127.0.0.1:6379> LPush list two
(integer) 2
127.0.0.1:6379> LPush list three
(integer) 3
127.0.0.1:6379> Llen list	# 返回列表的长度
(integer) 3
#####################################################################################
移除指定的值:
取关:uid
lrem

127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "three"
3) "two"
4) "one"
127.0.0.1:6379> lrem list 1 one 	# 移除 list 集合中指定个数的 value,精确匹配
(integer) 1
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "three"
3) "two"
127.0.0.1:6379> lrem list 2 three 
(integer) 2
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
#####################################################################################
trim 修剪:list 截断

127.0.0.1:6379> RPush mylist hello
(integer) 1
127.0.0.1:6379> RPush mylist hello1
(integer) 2
127.0.0.1:6379> RPush mylist hello2
(integer) 3
127.0.0.1:6379> RPush mylist hello3
(integer) 4
127.0.0.1:6379> ltrim mylist 1 2	# 通过下标,截取(保留)指定范围内的内容,这个 list 已经改变了
OK
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello1"
2) "hello2"
#####################################################################################
rpoplpush 移除列表的最后一个元素,将它移动到新的列表中

127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist hello1
(integer) 2
127.0.0.1:6379> rpush mylist hello2
(integer) 3
127.0.0.1:6379> rpoplpush mylist myotherlist
"hello2"
127.0.0.1:6379> lrange mylist 0 -1	# 查看原来的列表
1) "hello"
2) "hello1"
127.0.0.1:6379> lrange myotherlist 0 -1	# 查看目标列表,新值确实存在
1) "hello2"

#####################################################################################
lset 将列表中指定下标的值替换为另外一个值,更新操作

127.0.0.1:6379> exists list		# 判断这个列表是否存在
(integer) 0
127.0.0.1:6379> lset list 0 item	# 如果不存在列表我们去更新就会报错
(error) ERR no such key
127.0.0.1:6379> lpush list value1
(integer) 1
127.0.0.1:6379> lrange list 0 0
1) "value1"
127.0.0.1:6379> lset list 0 item	# 如果存在,更新当前下标的值
OK
127.0.0.1:6379> lrange list 0 0
1) "item"
127.0.0.1:6379> lset list 1 other
(error) ERR index out of range

#####################################################################################
linsert :将某个具体的 value 插入到列表中,某个元素的前面或者后面

127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist world
(integer) 2
127.0.0.1:6379> linsert mylist before world other
(integer) 3
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"
127.0.0.1:6379> Linsert mylist after world new
(integer) 4
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"
4) "new"

小结

  • list实际上是一个链表,before Node after , left, right 都可以插入值

  • 如果key不存在,则创建新的链表

  • 如果key存在,新增内容

  • 如果移除了所有值,空链表,也代表不存在

  • 在两边插入或者改动值,效率最高!修改中间元素,效率相对较低

4.Set

127.0.0.1:6379> sadd myset hello	# set集合中添加元素
(integer) 1
127.0.0.1:6379> sadd myset kuangshen
(integer) 1
127.0.0.1:6379> sadd myset lovekuangshen
(integer) 1
127.0.0.1:6379> smembers myset	# 查看指定set的所有值
1) "lovekuangshene"
2) "kuangshen"
3) "hello"
127.0.0.1:6379> sismember myset hello	# 判断某一个值是不是在set集合中
(integer) 1
127.0.0.1:6379> sismember myset world
(integer) 0
#####################################################################################
scard

127.0.0.1:6379> scard myset		# 获取set集合中的内容元素个数
(integer) 3
#####################################################################################

srem:移除set集合中的指定元素

127.0.0.1:6379> srem myset hello
(integer) 1
127.0.0.1:6379> scard myset
(integer) 2
127.0.0.1:6379> smembers myset
1) "lovekuangshene"
2) "kuangshen"
#####################################################################################

set 是无序不重合集合
srandmember 抽随机

127.0.0.1:6379> sadd myset  penge
(integer) 1
127.0.0.1:6379> sadd myset  penge666
(integer) 1
127.0.0.1:6379> sadd myset  penge520
(integer) 1
127.0.0.1:6379> smembers myset
1) "penge520"
2) "penge"
3) "penge666"
127.0.0.1:6379> srandmember myset  # 随机抽1个
"penge520"
127.0.0.1:6379> srandmember myset 2  # 随机抽指定个数
1) "penge520"
2) "penge"
127.0.0.1:6379> 

#####################################################################################
spop:删除指定的key,随机删除key

127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
3) "penge666"
127.0.0.1:6379> spop myset
"penge666"
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
127.0.0.1:6379> 
#####################################################################################
smove:将一个指定的值,移动到另外一个集合中


127.0.0.1:6379> sadd myset1 hello
(integer) 1
127.0.0.1:6379> sadd myset1 world
(integer) 1
127.0.0.1:6379> SMEMBERS myset1
1) "world"
2) "hello"
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
127.0.0.1:6379> smove myset myset1 pengge
(integer) 0
127.0.0.1:6379> smove myset myset1 penge
(integer) 1
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
127.0.0.1:6379> SMEMBERS myset1
1) "penge"
2) "world"
3) "hello"
#####################################################################################

微博,B站,共同关注(并集)
数字集合类:
- 差集 SDIFF:sdiff key1 key2,显示出 key1 中,key2 没有的元素
- 交集 SINTER:
- 并集 SUNION:


5.Hash

Map 集合,结构为key-map。此时这个值是一个 map 集合,本质和 String 类型没有太大区别,还是一个简单的 key-value
set myhash field kuangshen

127.0.0.1:6379> hset myhash field1 kuangshen	# set 一个具体的 key-value
(integer) 1
127.0.0.1:6379> hget myhash field1
"kuangshen"
127.0.0.1:6379> hmset myhash field1 hello field2 world
OK
127.0.0.1:6379> hmget myhash field1 field2
1) "hello"
2) "world"
127.0.0.1:6379> hgetall myhash	# 获取全部的数据
1) "field1"
2) "hello"
3) "field2"
4) "world"
127.0.0.1:6379> hdel myhash field1	# 删除hash指定key字段!对应的value值也就消失了
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"

#####################################################################################

# hlen 
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"
3) "field1"
4) "hello"
127.0.0.1:6379> hlen myhash	# 获取hash表的字段数量
(integer) 2
#####################################################################################
127.0.0.1:6379> hexists myhash field1	# 判断hash中指定字段是否存在
(integer) 1
127.0.0.1:6379> hexists myhash field3
(integer) 0

#####################################################################################
127.0.0.1:6379> hkeys myhash	# 只获取所有field
1) "field2"
2) "field1"
127.0.0.1:6379> hvals myhash	# 只获取所有value
1) "world"
2) "hello"

#####################################################################################
incrby (注意:没有decrby,使用 incrby -1 代替)

127.0.0.1:6379> hset myhash field3 5
(integer) 1
127.0.0.1:6379> hincrby myhash field3 1
(integer) 6
127.0.0.1:6379> hincrby myhash field3 -1
(integer) 5
127.0.0.1:6379> hdecrby myhash field3 1
(error) ERR unknown command `hdecrby`, with args beginning with: `myhash`, `field3`, `1`, 
127.0.0.1:6379> hsetnx myhash field4 hello
(integer) 1
127.0.0.1:6379> hsetnx myhash field4 world
(integer) 0

应用

  • 使用 hash 变更数据:user,name,age。尤其是用户信息之类的,经常变动的信息!
  • hash 更适合对象的存储,String 更适合字符串的存储

6.Zset

在 set 的基础上(set k1 v1),增加了一个值:zset k1 score1 v1

127.0.0.1:6379> zadd myset 1 one
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three
(integer) 2
127.0.0.1:6379> ZRANGE myset 0 -1
1) "one"
2) "two"
3) "three"

#####################################################################################
排序如何实现
127.0.0.1:6379> zadd salary 2500 xiaohong
(integer) 1
127.0.0.1:6379> zadd salary 5000 zhangsan
(integer) 1
127.0.0.1:6379> zadd salary 50000 kuangshen
(integer) 1
127.0.0.1:6379> zrangebyscore salary -inf +inf	# 从小到大
1) "xiaohong"
2) "zhangsan"
3) "kuangshen"
127.0.0.1:6379> zrangebyscore salary +inf -inf
(empty array)
127.0.0.1:6379> zrangebyscore salary -inf +inf withscores	# 从小到大,附带信息
1) "xiaohong"
2) "2500"
3) "zhangsan"
4) "5000"
5) "kuangshen"
6) "50000"
127.0.0.1:6379> zrangebyscore salary -inf 2500 withscores	# 显示工资小于200的员工进行升序排序
1) "xiaohong"
2) "2500"
127.0.0.1:6379> zrevrangebyscore salary +inf -inf	# 从大到小,降序排序
1) "kuangshen"
2) "zhangsan"
3) "xiaohong"

#####################################################################################
127.0.0.1:6379> zrange salary 0 -1
1) "xiaohong"
2) "zhangsan"
3) "kuangshen"
127.0.0.1:6379> zrem salary xiaohong
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "zhangsan"
2) "kuangshen"
127.0.0.1:6379> zcard salary	# 获取有序集合中的个数
(integer) 2


#####################################################################################
获取指定区间内的成员数量

127.0.0.1:6379> zadd myset 1 hello 2 world 3 kuangshen
(integer) 3
127.0.0.1:6379> zcount myset 1 3
(integer) 3
127.0.0.1:6379> zcount myset 1 2
(integer) 2

2.三种特殊数据类型

1.geospatial

Redis 在 3.2 版本中加入了地理空间(geospatial)以及索引半径查询的功能,主要用在需要地理位置的应用上。将指定的地理空间位置(经度、纬度、名称)添加到指定的 key 中,这些数据将会存储到 sorted set。这样的目的是为了方便使用 GEORADIUS 或者 GEORADIUSBYMEMBER 命令对数据进行半径查询等操作。也就是说,推算地理位置的信息,两地之间的距离,周围方圆的人等等场景都可以用它实现。

小结:geo 底层是使用 zset来实现

6个命令

1.getadd

可以将指定的地理空间位置(经度、纬度、名称)添加到指定的 key 中。

127.0.0.1:6379> geoadd china:city 116.30 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen
(integer) 2
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou 108.96 34.26 xian
(integer) 2

注意:南北极无法直接添加。用添加城市数据来说,一般都会使用Java的Jedis来操作,而这些城市数据都是被下载下来通过JavaAPI调用。

2.getpos

获得当前定位:返回一个坐标值

127.0.0.1:6379> geopos china:city beijing
1) 1) "116.30000084638595581"
   2) "39.90000009167092543"
127.0.0.1:6379> geopos china:city chongqing
1) 1) "106.49999767541885376"
   2) "29.52999957900659211"

3.geodist

  • 两人之间的距离
  • 指定单位的参数 unit 必须是以下单位的其中一个:
m 表示单位为米。
km 表示单位为千米。
mi 表示单位为英里。
ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city beijing shanghai
"1071277.5456"
127.0.0.1:6379> geodist china:city beijing shanghai km
"1071.2775"
127.0.0.1:6379> geodist china:city beijing chongqing km
"1458.4830"

4.georadius

georadius:以给定的经纬度为中心,找出某一半径内的元素

我附近的人?(获得所有附近的人的地址,定位)通过半径来查询
获得指定数量的人
所有数据应该都录入:china:city,才会让结果更加精确
127.0.0.1:6379> georadius china:city 110 30 1000 km		# 以 110,30 这个经纬度为中心,寻找方圆1000km以内的城市
1) "chongqing"
2) "xian"
3) "shenzhen"
4) "hangzhou"
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chongqing"
2) "xian"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist		# 显示到中间位置的距离
1) 1) "chongqing"
   2) "341.9374"
2) 1) "xian"
   2) "483.8340"
127.0.0.1:6379> georadius china:city 110 30 500 km withcoord	# 显示他人的定位信息
1) 1) "chongqing"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1	# 筛选出指定的结果
1) 1) "chongqing"
   2) "341.9374"
   3) 1) "106.49999767541885376"
      2) "29.52999957900659211"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 2
1) 1) "chongqing"
   2) "341.9374"
   3) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) "483.8340"
   3) 1) "108.96000176668167114"
      2) "34.25999964418929977"

4.GEORADIUSBYMEMBER

GEORADIUSBYMEMBER:找出位于指定元素周围的其他元素!

# 找出以shanghai为中心,1000km为半径搜索
127.0.0.1:6379> GEORADIUSBYMEMBER china:city shanghai 1000 km 
1) "xiamen"
2) "fuzhou"
3) "shanghai"

2.Hyperloglog

  • Redis HyperLogLog 是用来做基数统计的算法

  • 优点:占用的内存是固定的,只需要花费 12KB 的内存,就可以计算 264个不同元素的基数。

  • 如果要从内存角度来比较的话,Hyperloglog 就是首选!

    • 网页的访问量(UV):一个用户访问一个网站多次,但还是算作一个人。

    • PV(page view):页面浏览量,UV(unique visitor):网站独立访客

    • 传统的方式,set 保存用户的 id,然后就可以统计 set 中的元素数量作为标准判断

    • 这个方式如果保存大量的用户id,就会比较麻烦!但我们的目的是为了计数,而不是保存用户id

    • 0.81% 错误率,统计 UV 任务,可以忽略不计

127.0.0.1:6379> PFadd mykey a b c d e f g h i j
(integer) 1
127.0.0.1:6379> PFcount mykey	# 统计 mykey 的元素的基数数量
(integer) 10
127.0.0.1:6379> PFadd mykey2 i j z x c v b n m
(integer) 1
127.0.0.1:6379> PFcount mykey2
(integer) 9
127.0.0.1:6379> pfmerge mykey3 mykey mykey2		# 合并 mykey,mykey2 ===》 mykey3
OK
127.0.0.1:6379> PFcount mykey3	# 统计 mykey3 的元素的基数数量
(integer) 15

如果允许容错,可以使用 Hyperloglog。若不允许,就使用 set 或者自己的数据类型即可。

3.Bitmaps

Bitmaps是一种位存储的数据类型,在Redis2.2.0被推出,

生活中可以实现的场景,统计活跃用户,在线状态,用户签到,这些都是表示两种状态之间的,可以使用Bitmaps.
1.每天打卡
**加粗样式**
2.查看某一天是否有打卡

127.0.0.1:6379> getbit sign 3
(integer) 1
127.0.0.1:6379> getbit sign 6
(integer) 0

3.统计操作,查看-打卡的天数

127.0.0.1:6379> bitcount sign	# 统计这周的打卡记录,就可以知道是否有全勤
(integer) 3

3.事务

Redis事务的本质:一组命令的集合!一个事务中的所有命令都会被序列化,在事务执行过程中,会按照顺序执行!
一次性、顺序性、排他性! 执行一些列的命令

------ 队列 set set set 执行 ------

Redis 事务没有隔离级别的概念

所有的命令在事务中,并没有直接被执行,只有发起执行命令的时候才会执行!
Redis 的单条命令是保证原子性的,但是 Redis 事务不能保证原子性

redis 的事务阶段:
	开启事务(multi)
	命令入队(…)
	执行事务(exec) or 取消事务(discard)

异常:
1.编译型异常(代码有问题!命令有错!),事务中所有的命令都不会被执行。
2.运行时异常(1 / 0),如果事务队列中存在语法性错误,那么执行命令时,其它命令是可以正常执行的,错误命令抛出异常。

监控:Watch

  • 悲观锁:
    1.很悲观,无论执行什么操作都会出现问题,所以会对所有的操作加锁
  • 乐观锁
    1.很乐观,任何情况下都不会出问题,所以不会加锁!但是在数据更新时需要判断在此之前是否有人修改过这个数据
    2.可以添加一个字段叫version用来查询
    3.在进行数据更新时对version进行比较
  • 例子
    1.正常交付情况
    watch key …: 对指定key进行监控,监控这个key在事务执行之前是否被修改.
    在这里插入图片描述
    2.不正常交付
    在这里插入图片描述
    解释:在提交之前更改money的值,导致最后exec未成功。
    在这里插入图片描述

UNWATCH的含义:解除所有监控。

4.Jedis

我们要使用 java 来操作 Redis,是 Redis 官方推荐的 java 连接开发工具

1.导入对应的依赖

<!--导入jeris的包-->
<dependency>
	<groupId>redis.clients</groupId>
	<artifactId>jedis</artifactId>
	<version>3.2.0</version>
</dependency>
<!--fastjson-->
<dependency>
	<groupId>com.alibaba</groupId>
	<artifactId>fastjson</artifactId>
	<version>1.2.62</version>
</dependency>

2.连接测试

package com.kuang;
import redis.clients.jedis.Jedis;

public class TestPing {
    public static void main(String[] args) {
        //1.new Jedis 对象即可
        Jedis jedis = new Jedis("127.0.01", 6379);
        //jedis 所有的命令就是我们之前学习的所有指令
        System.out.println(jedis.ping());
    }
}

5.Redis.conf配置文件

1.单位
配置文件对大小写不敏感

在这里插入图片描述
2.包含其他文件
在这里插入图片描述

3.网络

bind 127.0.0.1 # 绑定的ip 
protected-mode yes # 保护模式 
port 6379 # 端口设置

4.通用 【GENERAL】

daemonize yes # 以守护进程的方式运行,默认是 no,我们需要自己开启为yes! 

pidfile /var/run/redis_6379.pid # 如果以后台的方式运行,我们就需要指定一个 pid 文件! 

# 日志 
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably) 生产环境适用
# warning (only very important / critical messages are logged)
loglevel notice

logfile "/usr/local/bin/redis-log.log" # 日志的文件位置名
databases 16 # 数据库的数量,默认是 16 个数据库
always-show-logo yes # 是否总是显示LOGO

5.快照【SNAPSHOTTING】

  • 持久化,在规定的时间内,执行了多少次操作,则会持久化到文件 .rdb 和.aof.
  • redis 是内存数据库,如果没有持久化,那么数据断电即失!
# 如果900s内,如果至少有一个1 key进行了修改,我们就进行持久化操作 
save 900 1 
# 如果300s内,如果至少10 key进行了修改,我们就进行持久化操作 
save 300 10 
# 如果60s内,如果至少10000 key进行了修改,我们就进行持久化操作 
save 60 10000 
# 我们之后学习持久化,会自己定义这个测试!

stop-writes-on-bgsave-error yes # 持久化如果出错,是否还需要继续工作!

rdbcompression yes # 是否压缩 rdb 文件,需要消耗一些cpu资源!

rdbchecksum yes # 保存rdb文件的时候,进行错误的检查校验!

dir ./ # rdb 文件保存的目录!

6.安全【SECURITY】

127.0.0.1:6379> ping 
PONG 
127.0.0.1:6379> config get requirepass # 获取redis的密码 
1) "requirepass" 
2) "" 
127.0.0.1:6379> config set requirepass "123456" # 设置redis的密码 
OK
127.0.0.1:6379> config get requirepass # 发现所有的命令都没有权限了 
(error) NOAUTH Authentication required. 
127.0.0.1:6379> ping 
(error) NOAUTH Authentication required. 
127.0.0.1:6379> auth 123456 # 使用密码进行登录! 
OK
127.0.0.1:6379> config get requirepass 
1) "requirepass" 
2) "123456"

7.限制 【CLIENTS】

maxclients 10000 # 设置能连接上redis的最大客户端的数量 

maxmemory <bytes> # redis 配置最大的内存容量 

maxmemory-policy noeviction # 内存到达上限之后的处理策略 
	1、volatile-lru:只对设置了过期时间的key进行LRU(默认值) 
	2、allkeys-lru : 删除lru算法的key 
	3、volatile-random:随机删除即将过期key 
	4、allkeys-random:随机删除 
	5、volatile-ttl : 删除即将过期的 
	6、noeviction : 永不过期,返回错误

8.aof配置【APPEND ONLY MODE】

appendonly no # 默认是不开启aof模式的,默认是使用rdb方式持久化的,在大部分所有的情况下, rdb完全够用!
appendfilename "appendonly.aof" # 持久化的文件的名字

# appendfsync always # 每次修改都会 sync。消耗性能 
appendfsync everysec # 每秒执行一次 sync,可能会丢失这1s的数据! 
# appendfsync no 	 # 不执行 sync,这个时候操作系统自己同步数据,速度最快!

6.Redis 持久化※

  • Redis 是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据库状态也会消失。所以 Redis 提供了持久化功能!

1、RDB(Redis DataBase)

在这里插入图片描述

  • 在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的 Snapshot 快照,它恢复时是将快照文件直接读到内存里。
  • Redis 会单独创建(fork)一个子进程来进行持久化,会将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何 IO 操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那 RDB 方式要比 AOF 方式更加的高效。RDB 的缺点是最后一次持久化后的数据可能丢失。我们默认的就是 RDB,一般情况下不需要修改这个配置!
    rdb保存的文件是dump.rdb都是在我们的配置文件中的快照中进行配置的!

触发机制

1.save 的规则满足的情况下,会自动触发 rdb 规则
2.执行 flushall 命令,也会触发我们的rdb规则!
3.退出 redis,也会产生 rdb 文件!
备份就自动生成一个 dump.rdb

恢复rdb文件!

1.只需要将rdb文件放在我们redis启动目录就可以,redis启动的时候会自动检查dump.rdb 恢复其中
的数据
2.查看需要存在的位置

2、AOF(Append Only File)

  • 利用 AOF 持久化将服务器收到的所有写操作命令记录下来,并在服务器重新启动的时候,利用这些命令来恢复数据集。
    在这里插入图片描述
    以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件 的内容将写指令从前到后执行一次以完成数据的恢复工作
    【或】
    利用 AOF 持久化将服务器收到的所有写操作命令记录下来,并在服务器重新启动的时候,利用这些命令来恢复数据集。AOF 的命令使用的是与 Redis 本身协议的命令一致,通过追加的方式将数据写入备份文件中,同时当备份文件过大时,Redis 也能对备份文件进行重压缩。

默认是不开启的,需要手动配置!将appendonly改为yes就开启aof!重启 redis就可以生效了!

7.Redis 订阅发布

  • Redis 发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。如:微信、微博、关注系统!
  • Redis 客户端可以订阅任意数量的频道。
  • 订阅/发布消息图:
    第一个:消息发送者, 第二个:频道,第三个:消息订阅者!
    在这里插入图片描述
    clint客户通过channel通道订阅:
    在这里插入图片描述
    当有新消息通过 PUBLISH 命令发送给频道 channel1 时,这个消息就会被发送给订阅它的三个客户端:
    在这里插入图片描述
    常用命令Redis 发布订阅
    在这里插入图片描述
    具体实例:Redis 发布订阅实例

8.主从复制

概念

  1. 主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能由主节点到从节点。Master以写为主,Slave 以读为主。
  2. 默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。

示意图
在这里插入图片描述
1.主从复制,读写分离! 80% 的情况下都是在进行读操作!减缓服务器的压力!架构中经常使用!一主二从!
2.只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用Redis!
作用
1.数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
2.故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
3.负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写 Redis 数据时应用连接主节点,读 Redis 数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
4.高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
注意:单台Redis最大使用内存不应该超过20G
简单配置实例

1.查看当前信息

127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:0   #没有从机
master_replid:afad979a5cfd05af5ffa6fa01102ca86a2f6af6e
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

2.复制3个配置文件,然后修改对应的信息
复制配置文件
在这里插入图片描述
修改配置文件

1、端口
2、pid 名字
3、log文件名字
4、dump.rdb 名字

3.通过ps -ef|grep redis查看进程信息

:默认情况下,每台Redis服务器都是主节点;
设置从机:

127.0.0.1:6380> slaveof 127.0.0.1 6379	# SLAVEOF host 6379 找谁当自己的老大!
OK

特点

  • 真实的从主配置应该在配置文件中配置,这样的话是永久的,我们这里使用的是命令,暂时的!
  • 主机可以写,从机不能写只能读!主机中的所有信息和数据,都会自动被从机保存
  • 主机断开连接,从机是依旧连接到主机的,但是没有写操作。这时,如果主机回来了,从机依旧可以直接获取到主机写的信息
  • 如果是使用命令行,来配置的主从,这个时候如果重启了,就会变回主机!只要变为从机,立马就会从主机中获取值!

复制原理

1.Slave 启动成功连接到 master 后会发送一个sync同步命令
2.Master 接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。
3.全量复制:slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
4.增量复制:Master 继续将新的所有收集到的修改命令依次传给slave,完成同步
5.但是只要是重新连接master,一次完全同步(全量复制)将被自动执行!我们的数据一定可以在从机中看到!

9.哨兵模式

概念

  • 主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel(哨兵)架构来解决这个问题。
  • 谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库
  • 哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。
    在这里插入图片描述

这里的哨兵有两个作用

  • 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
  • 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。
    在这里插入图片描述
    假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线
    当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行 failover [故障转移] 操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线

配置过程
1.配置哨兵配置文件 sentinel.conf

# sentinel monitor 被监控的名称 host port 1
sentinel monitor myredis 127.0.0.1 6379 1

后面的这个数字1,代表主机挂了,哨兵投票,最少有几票可以让下一个接替成为主机!
2.启动哨兵

redis-sentinel kconfig/sentinel.conf

规则

1.当主机宕机时(Master 节点断开),这个时候就会从从机中随机选择一个服务器!(这里面有一个投票算法!)
2.如果主机此时回来了,只能归并到新的主机下,当做从机,这就是规则!

优点

1.哨兵集群,基于主从复制模式,所有的主从复制优点,它全有
2.主从可以切换,故障可以转移,系统的可用性就会更好
3.哨兵模式就是主从模式的升级,手动到自动,更加健壮

缺点

1.Redis 难以在线扩容,集群容量一旦到达上限,到时的在线扩容就会十分麻烦
2.实现哨兵模式的配置其实是很麻烦的,里面有很多选择

哨兵模式的全部配置

# Examplesentinel.conf

# 哨兵sentinel实例运行的端口默认26379 
如果有哨兵集群,我们还需要配置每个哨兵的端口
port 26379

# 哨兵sentinel的工作目录
dir /tmp

# 哨兵sentinel监控的redis主节点的 ip port
# master-name 可以自己命名的主节点名字只能由字母A-z、数字0-9、这三个字符".-_"组成。
# quorum 配置:多少个 sentinel 哨兵统一认为master主节点失联,那么这时客观上认为主节点失联了
# sentinelmonitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 63792

# 当在Redis实例中开启了requirepass foobared 授权密码,这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵 sentinel 连接主从的密码,注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd

# 指定多少毫秒之后,主节点没有应答哨兵sentinel,此时 哨兵主观上认为主节点下线,默认30秒
#sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000

# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行同步,
这个数字越小,完成failover所需的时间就越长,
但是如果这个数字越大,就意味着越多的slave因为replication而不可用。
可以通过将这个值设为1来保证每次只有一个slave处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1

# 故障转移的超时时间 failover-timeout 可以用在以下这些方面:
# 1.同一个sentinel对同一个master两次failover之间的间隔时间。
# 2.当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
# 3.当想要取消一个正在进行的failover所需要的时间。 
# 4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,
# 4.  slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000

# SCRIPTS EXECUTION
# 配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
# 对于脚本的运行结果有以下规则:
# 若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
# 若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
# 如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
# 一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。

# 通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),
#    将会去调用这个脚本,这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。
#    调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentinel.conf配置文件中
#    配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。
# 通知脚本
# shell编程
# sentinel notification-script <master-name> <script-path>
sentinel notification-script mymaster /var/redis/notify.sh

# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。
# 参数 from-ip,from-port,to-ip,to-port 是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh # 一般都是由运维来配置!

10.Redis 缓存穿透和雪崩

缓存穿透(查不到)

概念
缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(商品秒杀!),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。
在这里插入图片描述
解决方案
1.布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力.
在这里插入图片描述
2.缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;

在这里插入图片描述
存在问题:
1、如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键。
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会有影响。

缓存击穿(量太大,缓存过期)

概述

这里需要注意和缓存穿透的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。

当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。

解决方案
1.设置热点数据永不过期(这样就不会访问数据库)
2.加互斥锁(setnx)

分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
在这里插入图片描述

缓存雪崩

概述
缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis 宕机!

例子
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。
在这里插入图片描述
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。

解决方案

  • redis高可用
    这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群。(异地多活!)
  • 限流降级(在SpringCloud讲解过)
    这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。
  • 数据预热
    数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/118409.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

飞腾FT-2000/4处理器+复旦微FPGA+国产操作系统解决方案

XM-1203-FPGA飞腾定制主板 自主可控&#xff0c;国产CPU、BIOS和国产Linux操作系统 性能稳定&#xff0c;FT-2000/4处理器 功能接口多样化&#xff0c;可扩展性强 高度集成&#xff0c;具有丰富的接口和电磁兼容性能. XM-1203-FPGA基于飞腾4 核CPU FT-2000/4的处理器板&#x…

【Javassist】快速入门系列09 当检测到数组创建时用代码块替换

系列文章目录 01 在方法体的开头或结尾插入代码 02 使用Javassist实现方法执行时间统计 03 使用Javassist实现方法异常处理 04 使用Javassist更改整个方法体 05 当有指定方法调用时替换方法调用的内容 06 当有构造方法调用时替换方法调用的内容 07 当检测到字段被访问时使用语…

springboot整合之统一结果返回

特别说明&#xff1a;本次项目整合基于idea进行的&#xff0c;如果使用Eclipse可能操作会略有不同&#xff0c;不过总的来说不影响。 springboot整合之如何选择版本及项目搭建 springboot整合之版本号统一管理 springboot整合mybatis-plusdurid数据库连接池 springboot整合…

树与二叉树(遍历)

一、树 树结构是一种非常重要的非线性数据结构&#xff0c;该结构中的一个数据元素可以有两个或者两个以上的直接后继元素。 1、树的定义 树是由 n(n>0)个有限结点组成一个具有层次关系的集合&#xff0c;当 n0时称为空树&#xff0c;当 n>0时称为非空树。 对于非空树来…

水上交通AIS常见问题解决方案

水上交通AIS常见问题解决方案 AIS无信号的几种情况 情况一&#xff1a;AIS未开启。 解决方法&#xff1a;开启AIS设备。 情况二&#xff1a;AIS开启但MMSI码和证书不一致。 解决方法&#xff1a;船长向直属海事部门申请MMSI码&#xff0c;并请专业人员将正确的MMSI码写入AIS设…

数据结构之堆的实现以及实现堆排序和建堆解决Top K问题

文章目录前言1.堆的相关介绍1.什么是堆2.堆的结构2.堆的相关接口具体实现1.堆的声明和堆的初始化2.堆插入数据和删除数据3.堆的其他函数接口3.堆的实际运用1.建堆算法2.堆的应用之堆排序3.堆解决Top k问题4.总结前言 之前对树的相关知识概念进行了简单介绍&#xff0c;本文将实…

odps-jdbc提交MaxCompute数据源SQL报错HTTP/1.0 is not allowed

概述 最近负责的一款数据产品。有个功能&#xff1a;选择某个数据源&#xff0c;比如阿里云的MaxCompute数据源&#xff0c;然后手写SQL&#xff0c;点击自动生成字段&#xff08;即获取前置SQL里的查询字段。前置SQL可以有drop then create table动作子句&#xff0c;但是最后…

【PS-选区速成】快速选择工具、魔棒工具、对象选择工具

目录 快速选择工具 1、位置 2、3种模式&#xff1a;新选区、添加到选区、从选区减去 3、画笔的设置参数 画笔大小&#xff1a;识别的范围 硬度&#xff1a;边缘的识别能力 间距&#xff1a;识别的连贯程度 跟【选区工具】配套使用的快捷键 1、按【ALT】减区 2、放大…

数据结构之排序【快速排序和归并排序的非递归代码实现及分析】

引言&#xff1a; 今天因为要写论文&#xff0c;所以现在有点迟了&#xff0c;并且此时是北京时间&#xff1a;2022/12/28/1:41 ,我发现晚睡我真的是专业的&#xff0c;当然睡觉我也是专业的&#xff0c;懂的都懂&#xff0c;现在有点迟加上天大寒&#xff0c;手指不可屈伸&am…

android之View的滑动

其实不管是哪种滑动方式&#xff0c;基本思想都是类似的&#xff1a;当点击事件传递到View时&#xff0c;系统记下触摸点的坐标&#xff0c;手指移动的时候&#xff0c;系统记下移动后的坐标&#xff0c;并计算出偏移量&#xff0c;并通过偏移量来修改View的坐标。 下面我们来…

黑客比程序员高在哪里?

黑客其实和一般的程序员一样&#xff0c;但是他们的关注点不一样。黑客关注的是如何破坏&#xff0c;通过这些有创造性的破坏来获取利益&#xff0c;展现自己的能力。而程序员关注的是如何创造&#xff0c;通过创造来获取利益&#xff0c;展现自己的能力。 就如同一个硬币的两…

CCF BDCI|算能赛题决赛选手说明论文-01

基于TPU平台实现人群密度估计 加速器队伍 黄显钧 个人名义参赛 中国-广东广州peterhuang0323qq.com 团队简介 加速器队伍队长&#xff1a;黄显钧&#xff0c;现任某科技公司的高级工程师&#xff0c;技术栈涉足嵌入式全栈开发&#xff0c;AI 开发等领域&#xff0c;对技术充满…

云桌面 Vscode 远程debug python

云桌面 Vscode 远程debug python1、进入云桌面2、下载VScode配套软件3、挂载本地磁盘4、安装软件4.1 安装VScode4.2 安装插件vsix文件4.3 在服务端安装vscode server5、VScode 配置6、远程调试6.1 python解释器选择6.2 设置debug7. mtu 配置Author: 沧海一阳1、进入云桌面 根据…

傻白入门芯片设计,盘点计算机体系结构顶会

目录 一、集成电路/半导体领域的三大顶会&#xff1a; &#xff08;1&#xff09;ISSCC &#xff08;2&#xff09;IEDM &#xff08;3&#xff09;VLSI 二、计算机体系结构四大顶会 &#xff08;1&#xff09;ISCA &#xff08;2&#xff09;HPCA &#xff08;3&#x…

42. 网络中的网络(NiN)

LeNet、AlexNet和VGG都有一个共同的设计模式&#xff1a;通过一系列的卷积层与汇聚层来提取空间结构特征&#xff1b;然后通过全连接层对特征的表征进行处理。 AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。 或者&#xff0c;可以想象在这个过程的早期使用全连…

利用GithubPage和Hexo搭建个人博客

title: 利用Github搭建个人博客 date: 2022-11-28 20:55:30 tags: [blogs] categories: Hexo 建立Git远程仓库 固定格式为&#xff1a;name.github.io ![]](https://img-blog.csdnimg.cn/fa9d7320d1cc422a8a79f2b41dd8458e.png) 开启Github Pages 设置github的token登陆 连接…

免费在线绘制高颜值,带填充的连贯堆叠柱状图

堆叠柱状图是我们日常工作中经常使用的一类图形。然而当分类较多时&#xff0c;堆叠柱状图看起来不是那么清晰&#xff0c;通过添加额外的连线&#xff0c;可以增加堆叠柱状图的颜值&#xff0c;给人一种连贯的感觉&#xff0c;并且能够更好地观察数据比例的变化。 图1. 堆叠柱…

1.8 异常 模块和包

文章目录了解异常异常的捕获方法为什么需要捕获异常捕获常规的异常捕获指定的异常捕获多个异常捕获所有的异常异常else异常的finally异常的传递Python模块模块的导入自定义模块测试模块\_all\_模块Python包了解异常 当我们的解释器运行时发生了一些没办法的操作&#xff0c;或…

初学Java web(十)

Filter和Listener 一.Filter 概念&#xff1a;Filter表示过滤器&#xff0c;是JavaWeb三大组件(Servlet、Filter、Listener)之一。 过滤器可以把对资源的请求拦截下来&#xff0c;从而实现一些特殊的功能。 过滤器一般完成一些通用的操作&#xff0c;比如&#xff1a;权限控…

新键盘到了,我的工作效率提升了数十倍

前言&#xff1a;快过年了&#xff0c;找到了一份满意的实习&#xff0c;正好旧的键盘坏掉了&#xff0c;最近入手了一款不错的机械键盘奖励自己。到货使用一段时间了&#xff0c;来一篇键盘开箱的博客做一个反馈。 新键盘使用感言&#xff1a;优良的键盘如图云上漫步&#xf…