Redis简介
Redis是一个开源(BSD许可),内存存储的数据结构服务器,可用作数据库,高速缓存和消息队列代理。它支持字符串、哈希表、列表、集合、有序集合,位图,hyperloglogs等数据类型。内置复制、Lua脚本、LRU收回、事务以及不同级别磁盘持久化功能,同时通过Redis Sentinel提供高可用,通过Redis Cluster提供自动分区。
ubuntu18.04安装redis教程
1.五大数据类型
1.Redis-key
set x y
:设置键和值exists key
:判断键是否存在del key
:删除键值对move key db
:将键值对移动到指定数据库expire key second
:设置键值对的过期时间type key
:查看value的数据类型
127.0.0.1:6379> keys * # 查看当前数据库所有key
(empty list or set)
127.0.0.1:6379> set name qinjiang # set key
OK
127.0.0.1:6379> set age 20
OK
127.0.0.1:6379> keys *
1) "age"
2) "name"
127.0.0.1:6379> move age 1 # 将键值对移动到指定数据库
(integer) 1
127.0.0.1:6379> EXISTS age # 判断键是否存在
(integer) 0 # 不存在
127.0.0.1:6379> EXISTS name
(integer) 1 # 存在
127.0.0.1:6379> SELECT 1
OK
127.0.0.1:6379[1]> keys *
1) "age"
127.0.0.1:6379[1]> del age # 删除键值对
(integer) 1 # 删除个数
127.0.0.1:6379> set age 20
OK
127.0.0.1:6379> EXPIRE age 15 # 设置键值对的过期时间
(integer) 1 # 设置成功 开始计数
127.0.0.1:6379> ttl age # 查看key的过期剩余时间
(integer) 13
127.0.0.1:6379> ttl age
(integer) 11
127.0.0.1:6379> ttl age
(integer) 9
127.0.0.1:6379> ttl age
(integer) -2 # -2 表示key过期,-1表示key未设置过期时间
127.0.0.1:6379> get age # 过期的key 会被自动delete
(nil)
127.0.0.1:6379> keys *
1) "name"
127.0.0.1:6379> type name # 查看value的数据类型
string
2.String
127.0.0.1:6379> set key1 v1 # 设置值
OK
127.0.0.1:6379> get key1 # 获取值
"v1"
127.0.0.1:6379> keys * # 获取所有的值
1) "name"
2) "age"
3) "key1"
127.0.0.1:6379> exists key1 # 判断某一个值是否存在
(integer) 1
127.0.0.1:6379> append key1 hello #追加字符串,如果当前 key 不存在,就相当于 set key
(integer) 7
127.0.0.1:6379> get key1
"v1hello"
127.0.0.1:6379> strlen key1 #获取字符串的长度
(integer) 7
127.0.0.1:6379> append key1 ,kuangshen
(integer) 17
127.0.0.1:6379> get key1
"v1hello,kuangshen"
#####################################################################################
# i++
# 步长 i+=
127.0.0.1:6379> set views 0 #浏览量初始为0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views #自增1 浏览量为1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views #自减1
(integer) 1
127.0.0.1:6379> decr views
(integer) 0
127.0.0.1:6379> decr views
(integer) -1
127.0.0.1:6379> get views
"-1"
127.0.0.1:6379> incrby views 10 #可以设置步长,指定增量
(integer) 9
127.0.0.1:6379> incrby views 10
(integer) 19
127.0.0.1:6379> decrby views 10
(integer) 9
#####################################################################################
字符串范围:range
127.0.0.1:6379> set key1 hello,kuangshen
OK
127.0.0.1:6379> get key1
"hello,kuangshen"
127.0.0.1:6379> GETRANGE key1 0 3 # 截取字符串[0,3]
"hell"
127.0.0.1:6379> GETRANGE key1 0 -1 # 获取全部的字符串,和 get key 是一样的
"hello,kuangshen"
# 替换
127.0.0.1:6379> set key2 abcdefg
OK
127.0.0.1:6379> get key2
"abcdefg"
127.0.0.1:6379> SETRANGE key2 1 xx # 替换指定位置开始的字符串!
(integer) 7
127.0.0.1:6379> get key2
"axxdefg"
#####################################################################################
setex (set with exprie) # 设置过期时间
setnx (set if not exist) # 不存在再设置 (在分布式锁中会常常用到!)
127.0.0.1:6379> setex key3 30 "hello" # 设置 key3 的值为 hello,30秒后过期
OK
127.0.0.1:6379> ttl key3
(integer) 26
127.0.0.1:6379> get key3
"hello"
127.0.0.1:6379> setnx mykey "redis" # 如果 mykey 不存在,创建 mykey
(integer) 1
127.0.0.1:6379> keys *
1) "mykey"
2) "key2"
3) "key1"
127.0.0.1:6379> setnx mykey "mongoDB" # 如果 mykey 存在,创建失败
(integer) 0
127.0.0.1:6379> get mykey
"redis"
#####################################################################################
127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3 # 同时设置多个值
OK
127.0.0.1:6379> keys *
1) "k3"
2) "k2"
3) "k1"
127.0.0.1:6379> mget k1 k2 k3 # 同时获取多个值
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 v1 k4 v4 # msetnx 是一个原子性操作,要么一起成功,要么一起失败!
(integer) 0
127.0.0.1:6379> get k4
(nil)
对象
set user:1 {name:zhangsan,age:3} # 设置一个 user:1 对象,值为 json 字符来保存一个对象
这里的 key 是一个巧妙的设计:user:{id}:{filed},如此设计在 Redis 中是完全Ok的
127.0.0.1:6379> mset user:1:name zhangsan user:1:age 2
OK
127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangsan"
2) "2"
#####################################################################################
getset:先 get 再 set
127.0.0.1:6379> getset db redis # 如果不存在值,则返回 nil
(nil)
127.0.0.1:6379> get db
"redis"
127.0.0.1:6379> getset db mongodb # 如果存在值,获取原来的值,并设置新的值
"redis"
127.0.0.1:6379> get db
"mongodb"
- String 类似的使用场景:value 除了可以是我们的字符串还可以是我们的数字
- 计数器
- 统计多单位的数量
- 粉丝数
- 对象缓存存储
3.List
127.0.0.1:6379> LPUSH list one # 将一个值或者多个值,插入到列表头部(左)
(integer) 1
127.0.0.1:6379> LPUSH list two
(integer) 2
127.0.0.1:6379> LPUSH list three
(integer) 3
127.0.0.1:6379> LRANGE list 0 -1 # 获取 list 中的值
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
127.0.0.1:6379> rpush list right # 将一个值或者多个值,插入到列表尾部(右)
(integer) 4
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
#####################################################################################
LPOP
RPOP
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> lpop list # 移除 list 的第一个元素
"three"
127.0.0.1:6379> rpop list # 移除 list 的最后一个元素
"right"
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
#####################################################################################
Lindex
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
127.0.0.1:6379> lindex list 1 # 通过下标获得 list 中的某一个值
"one"
127.0.0.1:6379> lindex list 0
"two"
#####################################################################################
Llen
127.0.0.1:6379> LPush list one
(integer) 1
127.0.0.1:6379> LPush list two
(integer) 2
127.0.0.1:6379> LPush list three
(integer) 3
127.0.0.1:6379> Llen list # 返回列表的长度
(integer) 3
#####################################################################################
移除指定的值:
取关:uid
lrem
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "three"
3) "two"
4) "one"
127.0.0.1:6379> lrem list 1 one # 移除 list 集合中指定个数的 value,精确匹配
(integer) 1
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "three"
3) "two"
127.0.0.1:6379> lrem list 2 three
(integer) 2
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
#####################################################################################
trim 修剪:list 截断
127.0.0.1:6379> RPush mylist hello
(integer) 1
127.0.0.1:6379> RPush mylist hello1
(integer) 2
127.0.0.1:6379> RPush mylist hello2
(integer) 3
127.0.0.1:6379> RPush mylist hello3
(integer) 4
127.0.0.1:6379> ltrim mylist 1 2 # 通过下标,截取(保留)指定范围内的内容,这个 list 已经改变了
OK
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello1"
2) "hello2"
#####################################################################################
rpoplpush 移除列表的最后一个元素,将它移动到新的列表中
127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist hello1
(integer) 2
127.0.0.1:6379> rpush mylist hello2
(integer) 3
127.0.0.1:6379> rpoplpush mylist myotherlist
"hello2"
127.0.0.1:6379> lrange mylist 0 -1 # 查看原来的列表
1) "hello"
2) "hello1"
127.0.0.1:6379> lrange myotherlist 0 -1 # 查看目标列表,新值确实存在
1) "hello2"
#####################################################################################
lset 将列表中指定下标的值替换为另外一个值,更新操作
127.0.0.1:6379> exists list # 判断这个列表是否存在
(integer) 0
127.0.0.1:6379> lset list 0 item # 如果不存在列表我们去更新就会报错
(error) ERR no such key
127.0.0.1:6379> lpush list value1
(integer) 1
127.0.0.1:6379> lrange list 0 0
1) "value1"
127.0.0.1:6379> lset list 0 item # 如果存在,更新当前下标的值
OK
127.0.0.1:6379> lrange list 0 0
1) "item"
127.0.0.1:6379> lset list 1 other
(error) ERR index out of range
#####################################################################################
linsert :将某个具体的 value 插入到列表中,某个元素的前面或者后面
127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist world
(integer) 2
127.0.0.1:6379> linsert mylist before world other
(integer) 3
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"
127.0.0.1:6379> Linsert mylist after world new
(integer) 4
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"
4) "new"
小结
-
list实际上是一个链表,before Node after , left, right 都可以插入值
-
如果key不存在,则创建新的链表
-
如果key存在,新增内容
-
如果移除了所有值,空链表,也代表不存在
-
在两边插入或者改动值,效率最高!修改中间元素,效率相对较低
4.Set
127.0.0.1:6379> sadd myset hello # set集合中添加元素
(integer) 1
127.0.0.1:6379> sadd myset kuangshen
(integer) 1
127.0.0.1:6379> sadd myset lovekuangshen
(integer) 1
127.0.0.1:6379> smembers myset # 查看指定set的所有值
1) "lovekuangshene"
2) "kuangshen"
3) "hello"
127.0.0.1:6379> sismember myset hello # 判断某一个值是不是在set集合中
(integer) 1
127.0.0.1:6379> sismember myset world
(integer) 0
#####################################################################################
scard
127.0.0.1:6379> scard myset # 获取set集合中的内容元素个数
(integer) 3
#####################################################################################
srem:移除set集合中的指定元素
127.0.0.1:6379> srem myset hello
(integer) 1
127.0.0.1:6379> scard myset
(integer) 2
127.0.0.1:6379> smembers myset
1) "lovekuangshene"
2) "kuangshen"
#####################################################################################
set 是无序不重合集合
srandmember 抽随机
127.0.0.1:6379> sadd myset penge
(integer) 1
127.0.0.1:6379> sadd myset penge666
(integer) 1
127.0.0.1:6379> sadd myset penge520
(integer) 1
127.0.0.1:6379> smembers myset
1) "penge520"
2) "penge"
3) "penge666"
127.0.0.1:6379> srandmember myset # 随机抽1个
"penge520"
127.0.0.1:6379> srandmember myset 2 # 随机抽指定个数
1) "penge520"
2) "penge"
127.0.0.1:6379>
#####################################################################################
spop:删除指定的key,随机删除key
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
3) "penge666"
127.0.0.1:6379> spop myset
"penge666"
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
127.0.0.1:6379>
#####################################################################################
smove:将一个指定的值,移动到另外一个集合中
127.0.0.1:6379> sadd myset1 hello
(integer) 1
127.0.0.1:6379> sadd myset1 world
(integer) 1
127.0.0.1:6379> SMEMBERS myset1
1) "world"
2) "hello"
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
127.0.0.1:6379> smove myset myset1 pengge
(integer) 0
127.0.0.1:6379> smove myset myset1 penge
(integer) 1
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
127.0.0.1:6379> SMEMBERS myset1
1) "penge"
2) "world"
3) "hello"
#####################################################################################
微博,B站,共同关注(并集)
数字集合类:
- 差集 SDIFF:sdiff key1 key2,显示出 key1 中,key2 没有的元素
- 交集 SINTER:
- 并集 SUNION:
5.Hash
Map 集合,结构为key-map
。此时这个值是一个 map 集合,本质和 String 类型没有太大区别,还是一个简单的 key-value
set myhash field kuangshen
127.0.0.1:6379> hset myhash field1 kuangshen # set 一个具体的 key-value
(integer) 1
127.0.0.1:6379> hget myhash field1
"kuangshen"
127.0.0.1:6379> hmset myhash field1 hello field2 world
OK
127.0.0.1:6379> hmget myhash field1 field2
1) "hello"
2) "world"
127.0.0.1:6379> hgetall myhash # 获取全部的数据
1) "field1"
2) "hello"
3) "field2"
4) "world"
127.0.0.1:6379> hdel myhash field1 # 删除hash指定key字段!对应的value值也就消失了
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"
#####################################################################################
# hlen
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"
3) "field1"
4) "hello"
127.0.0.1:6379> hlen myhash # 获取hash表的字段数量
(integer) 2
#####################################################################################
127.0.0.1:6379> hexists myhash field1 # 判断hash中指定字段是否存在
(integer) 1
127.0.0.1:6379> hexists myhash field3
(integer) 0
#####################################################################################
127.0.0.1:6379> hkeys myhash # 只获取所有field
1) "field2"
2) "field1"
127.0.0.1:6379> hvals myhash # 只获取所有value
1) "world"
2) "hello"
#####################################################################################
incrby (注意:没有decrby,使用 incrby -1 代替)
127.0.0.1:6379> hset myhash field3 5
(integer) 1
127.0.0.1:6379> hincrby myhash field3 1
(integer) 6
127.0.0.1:6379> hincrby myhash field3 -1
(integer) 5
127.0.0.1:6379> hdecrby myhash field3 1
(error) ERR unknown command `hdecrby`, with args beginning with: `myhash`, `field3`, `1`,
127.0.0.1:6379> hsetnx myhash field4 hello
(integer) 1
127.0.0.1:6379> hsetnx myhash field4 world
(integer) 0
应用
- 使用 hash 变更数据:user,name,age。尤其是用户信息之类的,经常变动的信息!
- hash 更适合对象的存储,String 更适合字符串的存储
6.Zset
在 set 的基础上(set k1 v1
),增加了一个值:zset k1 score1 v1
127.0.0.1:6379> zadd myset 1 one
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three
(integer) 2
127.0.0.1:6379> ZRANGE myset 0 -1
1) "one"
2) "two"
3) "three"
#####################################################################################
排序如何实现
127.0.0.1:6379> zadd salary 2500 xiaohong
(integer) 1
127.0.0.1:6379> zadd salary 5000 zhangsan
(integer) 1
127.0.0.1:6379> zadd salary 50000 kuangshen
(integer) 1
127.0.0.1:6379> zrangebyscore salary -inf +inf # 从小到大
1) "xiaohong"
2) "zhangsan"
3) "kuangshen"
127.0.0.1:6379> zrangebyscore salary +inf -inf
(empty array)
127.0.0.1:6379> zrangebyscore salary -inf +inf withscores # 从小到大,附带信息
1) "xiaohong"
2) "2500"
3) "zhangsan"
4) "5000"
5) "kuangshen"
6) "50000"
127.0.0.1:6379> zrangebyscore salary -inf 2500 withscores # 显示工资小于200的员工进行升序排序
1) "xiaohong"
2) "2500"
127.0.0.1:6379> zrevrangebyscore salary +inf -inf # 从大到小,降序排序
1) "kuangshen"
2) "zhangsan"
3) "xiaohong"
#####################################################################################
127.0.0.1:6379> zrange salary 0 -1
1) "xiaohong"
2) "zhangsan"
3) "kuangshen"
127.0.0.1:6379> zrem salary xiaohong
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "zhangsan"
2) "kuangshen"
127.0.0.1:6379> zcard salary # 获取有序集合中的个数
(integer) 2
#####################################################################################
获取指定区间内的成员数量
127.0.0.1:6379> zadd myset 1 hello 2 world 3 kuangshen
(integer) 3
127.0.0.1:6379> zcount myset 1 3
(integer) 3
127.0.0.1:6379> zcount myset 1 2
(integer) 2
2.三种特殊数据类型
1.geospatial
Redis 在 3.2 版本中加入了地理空间(geospatial)以及索引半径查询的功能,主要用在需要地理位置的应用上。将指定的地理空间位置(经度、纬度、名称)添加到指定的 key 中,这些数据将会存储到 sorted set。这样的目的是为了方便使用 GEORADIUS 或者 GEORADIUSBYMEMBER 命令对数据进行半径查询等操作。也就是说,推算地理位置的信息,两地之间的距离,周围方圆的人等等场景都可以用它实现。
小结:geo 底层是使用 zset来实现
6个命令
1.getadd
可以将指定的地理空间位置(经度、纬度、名称)添加到指定的 key 中。
127.0.0.1:6379> geoadd china:city 116.30 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen
(integer) 2
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou 108.96 34.26 xian
(integer) 2
注意:南北极无法直接添加。用添加城市数据来说,一般都会使用Java的Jedis来操作,而这些城市数据都是被下载下来通过JavaAPI调用。
2.getpos
获得当前定位:返回一个坐标值
127.0.0.1:6379> geopos china:city beijing
1) 1) "116.30000084638595581"
2) "39.90000009167092543"
127.0.0.1:6379> geopos china:city chongqing
1) 1) "106.49999767541885376"
2) "29.52999957900659211"
3.geodist
- 两人之间的距离
- 指定单位的参数 unit 必须是以下单位的其中一个:
m 表示单位为米。
km 表示单位为千米。
mi 表示单位为英里。
ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city beijing shanghai
"1071277.5456"
127.0.0.1:6379> geodist china:city beijing shanghai km
"1071.2775"
127.0.0.1:6379> geodist china:city beijing chongqing km
"1458.4830"
4.georadius
georadius:以给定的经纬度为中心,找出某一半径内的元素
我附近的人?(获得所有附近的人的地址,定位)通过半径来查询
获得指定数量的人
所有数据应该都录入:china:city,才会让结果更加精确
127.0.0.1:6379> georadius china:city 110 30 1000 km # 以 110,30 这个经纬度为中心,寻找方圆1000km以内的城市
1) "chongqing"
2) "xian"
3) "shenzhen"
4) "hangzhou"
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chongqing"
2) "xian"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist # 显示到中间位置的距离
1) 1) "chongqing"
2) "341.9374"
2) 1) "xian"
2) "483.8340"
127.0.0.1:6379> georadius china:city 110 30 500 km withcoord # 显示他人的定位信息
1) 1) "chongqing"
2) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "xian"
2) 1) "108.96000176668167114"
2) "34.25999964418929977"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1 # 筛选出指定的结果
1) 1) "chongqing"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 2
1) 1) "chongqing"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "xian"
2) "483.8340"
3) 1) "108.96000176668167114"
2) "34.25999964418929977"
4.GEORADIUSBYMEMBER
GEORADIUSBYMEMBER:找出位于指定元素周围的其他元素!
# 找出以shanghai为中心,1000km为半径搜索
127.0.0.1:6379> GEORADIUSBYMEMBER china:city shanghai 1000 km
1) "xiamen"
2) "fuzhou"
3) "shanghai"
2.Hyperloglog
-
Redis HyperLogLog 是用来做基数统计的算法
-
优点:占用的内存是固定的,只需要花费 12KB 的内存,就可以计算 264个不同元素的基数。
-
如果要从内存角度来比较的话,Hyperloglog 就是首选!
-
网页的访问量(UV):一个用户访问一个网站多次,但还是算作一个人。
-
PV(page view):页面浏览量,UV(unique visitor):网站独立访客
-
传统的方式,set 保存用户的 id,然后就可以统计 set 中的元素数量作为标准判断
-
这个方式如果保存大量的用户id,就会比较麻烦!但我们的目的是为了计数,而不是保存用户id
-
0.81% 错误率,统计 UV 任务,可以忽略不计
-
127.0.0.1:6379> PFadd mykey a b c d e f g h i j
(integer) 1
127.0.0.1:6379> PFcount mykey # 统计 mykey 的元素的基数数量
(integer) 10
127.0.0.1:6379> PFadd mykey2 i j z x c v b n m
(integer) 1
127.0.0.1:6379> PFcount mykey2
(integer) 9
127.0.0.1:6379> pfmerge mykey3 mykey mykey2 # 合并 mykey,mykey2 ===》 mykey3
OK
127.0.0.1:6379> PFcount mykey3 # 统计 mykey3 的元素的基数数量
(integer) 15
如果允许容错,可以使用 Hyperloglog。若不允许,就使用 set 或者自己的数据类型即可。
3.Bitmaps
Bitmaps是一种位存储的数据类型,在Redis2.2.0被推出,
生活中可以实现的场景,统计活跃用户,在线状态,用户签到,这些都是表示两种状态之间的,可以使用Bitmaps.
1.每天打卡
2.查看某一天是否有打卡
127.0.0.1:6379> getbit sign 3
(integer) 1
127.0.0.1:6379> getbit sign 6
(integer) 0
3.统计操作,查看-打卡的天数
127.0.0.1:6379> bitcount sign # 统计这周的打卡记录,就可以知道是否有全勤
(integer) 3
3.事务
Redis事务的本质:一组命令的集合!一个事务中的所有命令都会被序列化,在事务执行过程中,会按照顺序执行!
一次性、顺序性、排他性! 执行一些列的命令
------ 队列 set set set 执行 ------
Redis 事务没有隔离级别的概念
所有的命令在事务中,并没有直接被执行,只有发起执行命令的时候才会执行!
Redis 的单条命令是保证原子性的,但是 Redis 事务不能保证原子性
redis 的事务阶段:
开启事务(multi)
命令入队(…)
执行事务(exec) or 取消事务(discard)
异常:
1.编译型异常(代码有问题!命令有错!),事务中所有的命令都不会被执行。
2.运行时异常(1 / 0),如果事务队列中存在语法性错误,那么执行命令时,其它命令是可以正常执行的,错误命令抛出异常。
监控:Watch
- 悲观锁:
1.很悲观,无论执行什么操作都会出现问题,所以会对所有的操作加锁 - 乐观锁
1.很乐观,任何情况下都不会出问题,所以不会加锁!但是在数据更新时需要判断在此之前是否有人修改过这个数据
2.可以添加一个字段叫version用来查询
3.在进行数据更新时对version进行比较 - 例子
1.正常交付情况
watch key …: 对指定key进行监控,监控这个key在事务执行之前是否被修改.
2.不正常交付
解释:在提交之前更改money的值,导致最后exec未成功。
UNWATCH的含义:解除所有监控。
4.Jedis
我们要使用 java 来操作 Redis,是 Redis 官方推荐的 java 连接开发工具
1.导入对应的依赖
<!--导入jeris的包-->
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.2.0</version>
</dependency>
<!--fastjson-->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.62</version>
</dependency>
2.连接测试
package com.kuang;
import redis.clients.jedis.Jedis;
public class TestPing {
public static void main(String[] args) {
//1.new Jedis 对象即可
Jedis jedis = new Jedis("127.0.01", 6379);
//jedis 所有的命令就是我们之前学习的所有指令
System.out.println(jedis.ping());
}
}
5.Redis.conf配置文件
1.单位
配置文件对大小写不敏感
2.包含其他文件
3.网络
bind 127.0.0.1 # 绑定的ip
protected-mode yes # 保护模式
port 6379 # 端口设置
4.通用 【GENERAL】
daemonize yes # 以守护进程的方式运行,默认是 no,我们需要自己开启为yes!
pidfile /var/run/redis_6379.pid # 如果以后台的方式运行,我们就需要指定一个 pid 文件!
# 日志
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably) 生产环境适用
# warning (only very important / critical messages are logged)
loglevel notice
logfile "/usr/local/bin/redis-log.log" # 日志的文件位置名
databases 16 # 数据库的数量,默认是 16 个数据库
always-show-logo yes # 是否总是显示LOGO
5.快照【SNAPSHOTTING】
- 持久化,在规定的时间内,执行了多少次操作,则会持久化到文件 .rdb 和.aof.
- redis 是内存数据库,如果没有持久化,那么数据断电即失!
# 如果900s内,如果至少有一个1 key进行了修改,我们就进行持久化操作
save 900 1
# 如果300s内,如果至少10 key进行了修改,我们就进行持久化操作
save 300 10
# 如果60s内,如果至少10000 key进行了修改,我们就进行持久化操作
save 60 10000
# 我们之后学习持久化,会自己定义这个测试!
stop-writes-on-bgsave-error yes # 持久化如果出错,是否还需要继续工作!
rdbcompression yes # 是否压缩 rdb 文件,需要消耗一些cpu资源!
rdbchecksum yes # 保存rdb文件的时候,进行错误的检查校验!
dir ./ # rdb 文件保存的目录!
6.安全【SECURITY】
127.0.0.1:6379> ping
PONG
127.0.0.1:6379> config get requirepass # 获取redis的密码
1) "requirepass"
2) ""
127.0.0.1:6379> config set requirepass "123456" # 设置redis的密码
OK
127.0.0.1:6379> config get requirepass # 发现所有的命令都没有权限了
(error) NOAUTH Authentication required.
127.0.0.1:6379> ping
(error) NOAUTH Authentication required.
127.0.0.1:6379> auth 123456 # 使用密码进行登录!
OK
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "123456"
7.限制 【CLIENTS】
maxclients 10000 # 设置能连接上redis的最大客户端的数量
maxmemory <bytes> # redis 配置最大的内存容量
maxmemory-policy noeviction # 内存到达上限之后的处理策略
1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)
2、allkeys-lru : 删除lru算法的key
3、volatile-random:随机删除即将过期key
4、allkeys-random:随机删除
5、volatile-ttl : 删除即将过期的
6、noeviction : 永不过期,返回错误
8.aof配置【APPEND ONLY MODE】
appendonly no # 默认是不开启aof模式的,默认是使用rdb方式持久化的,在大部分所有的情况下, rdb完全够用!
appendfilename "appendonly.aof" # 持久化的文件的名字
# appendfsync always # 每次修改都会 sync。消耗性能
appendfsync everysec # 每秒执行一次 sync,可能会丢失这1s的数据!
# appendfsync no # 不执行 sync,这个时候操作系统自己同步数据,速度最快!
6.Redis 持久化※
- Redis 是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据库状态也会消失。所以 Redis 提供了持久化功能!
1、RDB(Redis DataBase)
- 在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的 Snapshot 快照,它恢复时是将快照文件直接读到内存里。
- Redis 会单独创建(fork)一个子进程来进行持久化,会将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何 IO 操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那 RDB 方式要比 AOF 方式更加的高效。RDB 的缺点是最后一次持久化后的数据可能丢失。我们默认的就是 RDB,一般情况下不需要修改这个配置!
rdb保存的文件是dump.rdb都是在我们的配置文件中的快照中进行配置的!
触发机制
1.save 的规则满足的情况下,会自动触发 rdb 规则
2.执行 flushall 命令,也会触发我们的rdb规则!
3.退出 redis,也会产生 rdb 文件!
备份就自动生成一个 dump.rdb
恢复rdb文件!
1.只需要将rdb文件放在我们redis启动目录就可以,redis启动的时候会自动检查dump.rdb 恢复其中
的数据
2.查看需要存在的位置
2、AOF(Append Only File)
- 利用 AOF 持久化将服务器收到的所有写操作命令记录下来,并在服务器重新启动的时候,利用这些命令来恢复数据集。
以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件 的内容将写指令从前到后执行一次以完成数据的恢复工作
【或】
利用 AOF 持久化将服务器收到的所有写操作命令记录下来,并在服务器重新启动的时候,利用这些命令来恢复数据集。AOF 的命令使用的是与 Redis 本身协议的命令一致,通过追加的方式将数据写入备份文件中,同时当备份文件过大时,Redis 也能对备份文件进行重压缩。
默认是不开启的,需要手动配置!将appendonly改为yes就开启aof!重启 redis就可以生效了!
7.Redis 订阅发布
- Redis 发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。如:微信、微博、关注系统!
- Redis 客户端可以订阅任意数量的频道。
- 订阅/发布消息图:
第一个:消息发送者, 第二个:频道,第三个:消息订阅者!
clint客户通过channel通道订阅:
当有新消息通过 PUBLISH 命令发送给频道 channel1 时,这个消息就会被发送给订阅它的三个客户端:
常用命令Redis 发布订阅
具体实例:Redis 发布订阅实例
8.主从复制
概念
- 主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能由主节点到从节点。Master以写为主,Slave 以读为主。
- 默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
示意图
1.主从复制,读写分离! 80% 的情况下都是在进行读操作!减缓服务器的压力!架构中经常使用!一主二从!
2.只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用Redis!
作用
1.数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
2.故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
3.负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写 Redis 数据时应用连接主节点,读 Redis 数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
4.高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
注意:单台Redis最大使用内存不应该超过20G
简单配置实例
1.查看当前信息
127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:0 #没有从机
master_replid:afad979a5cfd05af5ffa6fa01102ca86a2f6af6e
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
2.复制3个配置文件,然后修改对应的信息
复制配置文件
修改配置文件
1、端口
2、pid 名字
3、log文件名字
4、dump.rdb 名字
3.通过ps -ef|grep redis
查看进程信息
注:默认情况下,每台Redis服务器都是主节点;
设置从机:
127.0.0.1:6380> slaveof 127.0.0.1 6379 # SLAVEOF host 6379 找谁当自己的老大!
OK
特点
- 真实的从主配置应该在配置文件中配置,这样的话是永久的,我们这里使用的是命令,暂时的!
- 主机可以写,从机不能写只能读!主机中的所有信息和数据,都会自动被从机保存
- 主机断开连接,从机是依旧连接到主机的,但是没有写操作。这时,如果主机回来了,从机依旧可以直接获取到主机写的信息
- 如果是使用命令行,来配置的主从,这个时候如果重启了,就会变回主机!只要变为从机,立马就会从主机中获取值!
复制原理
1.Slave 启动成功连接到 master 后会发送一个sync同步命令
2.Master 接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。
3.全量复制:slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
4.增量复制:Master 继续将新的所有收集到的修改命令依次传给slave,完成同步
5.但是只要是重新连接master,一次完全同步(全量复制)将被自动执行!我们的数据一定可以在从机中看到!
9.哨兵模式
概念
- 主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel(哨兵)架构来解决这个问题。
- 谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。
- 哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。
这里的哨兵有两个作用
- 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
- 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。
假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。
当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行 failover [故障转移] 操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线。
配置过程
1.配置哨兵配置文件 sentinel.conf
# sentinel monitor 被监控的名称 host port 1
sentinel monitor myredis 127.0.0.1 6379 1
后面的这个数字1,代表主机挂了,哨兵投票,最少有几票可以让下一个接替成为主机!
2.启动哨兵
redis-sentinel kconfig/sentinel.conf
规则
1.当主机宕机时(Master 节点断开),这个时候就会从从机中随机选择一个服务器!(这里面有一个投票算法!)
2.如果主机此时回来了,只能归并到新的主机下,当做从机,这就是规则!
优点
1.哨兵集群,基于主从复制模式,所有的主从复制优点,它全有
2.主从可以切换,故障可以转移,系统的可用性就会更好
3.哨兵模式就是主从模式的升级,手动到自动,更加健壮
缺点
1.Redis 难以在线扩容,集群容量一旦到达上限,到时的在线扩容就会十分麻烦
2.实现哨兵模式的配置其实是很麻烦的,里面有很多选择
哨兵模式的全部配置
# Examplesentinel.conf
# 哨兵sentinel实例运行的端口默认26379
如果有哨兵集群,我们还需要配置每个哨兵的端口
port 26379
# 哨兵sentinel的工作目录
dir /tmp
# 哨兵sentinel监控的redis主节点的 ip port
# master-name 可以自己命名的主节点名字只能由字母A-z、数字0-9、这三个字符".-_"组成。
# quorum 配置:多少个 sentinel 哨兵统一认为master主节点失联,那么这时客观上认为主节点失联了
# sentinelmonitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 63792
# 当在Redis实例中开启了requirepass foobared 授权密码,这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵 sentinel 连接主从的密码,注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd
# 指定多少毫秒之后,主节点没有应答哨兵sentinel,此时 哨兵主观上认为主节点下线,默认30秒
#sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000
# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行同步,
这个数字越小,完成failover所需的时间就越长,
但是如果这个数字越大,就意味着越多的slave因为replication而不可用。
可以通过将这个值设为1来保证每次只有一个slave处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1
# 故障转移的超时时间 failover-timeout 可以用在以下这些方面:
# 1.同一个sentinel对同一个master两次failover之间的间隔时间。
# 2.当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
# 3.当想要取消一个正在进行的failover所需要的时间。
# 4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,
# 4. slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000
# SCRIPTS EXECUTION
# 配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
# 对于脚本的运行结果有以下规则:
# 若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
# 若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
# 如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
# 一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。
# 通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),
# 将会去调用这个脚本,这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。
# 调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentinel.conf配置文件中
# 配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。
# 通知脚本
# shell编程
# sentinel notification-script <master-name> <script-path>
sentinel notification-script mymaster /var/redis/notify.sh
# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。
# 参数 from-ip,from-port,to-ip,to-port 是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh # 一般都是由运维来配置!
10.Redis 缓存穿透和雪崩
缓存穿透(查不到)
概念
缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(商品秒杀!),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。
解决方案
1.布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力.
2.缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;
存在问题:
1、如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键。
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会有影响。
缓存击穿(量太大,缓存过期)
概述
这里需要注意和缓存穿透的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。
当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。
解决方案
1.设置热点数据永不过期(这样就不会访问数据库)
2.加互斥锁(setnx)
分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
缓存雪崩
概述
缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis 宕机!
例子
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。
解决方案
- redis高可用
这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群。(异地多活!) - 限流降级(在SpringCloud讲解过)
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。 - 数据预热
数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。