第17天-整合Redis缓存改造三级分类,并解决缓存击穿、穿透、雪崩、一致性问题

news2024/11/13 15:58:37

1.缓存



1.1.缓存使用

为了系统性能的提升,一般都会将部分数据放入缓存中,达到快速响应的目的。而数据库承担数据落盘工作。

哪些数据适合放入缓存?

  • 即时性、数据一致性要求不高的
  • 访问量大且更新频率不高的数据(读多,写少)

举例:电商类应用,商品分类,商品列表等适合缓存并加一个失效时间(根据数据更新频率来定),后台如果发布一个商品,买家需要5分钟才能看到新的商品,一般还是可以接受的。



1.2.Cache-Aside模式

边缘缓存模式(Cache-Aside Pattern),即按需将数据从数据存储加载到缓存中。此模式最大的作用就是提高性能减少不必要的查询。

  1. 先从缓存查询数据
  2. 如果没有命中缓存则从数据存储查询
  3. 将数据写入缓存

业务中最常用的缓存层设计模式,基本实现逻辑和相关概念如下:

在这里插入图片描述

专业术语:

  • 缓存命中:直接查询缓存且命中,返回数据;
  • 缓存加载:查询缓存未命中,从数据库中查询数据,获取数据后并加载到缓存;
  • 缓存失效:数据更新写到数据库,操作成功后,让缓存失效,查询时候再重新加载;
  • 缓存穿透:查询数据库不存在的对象,也就不存在缓存层的命中;
  • 缓存击穿:热点key在失效的瞬间,高并发查询这个key,击穿缓存,直接请求数据库;
  • 缓存雪崩:缓存Key大批量到过期时间,导致数据库压力过大;
  • 命中率:缓存设计的是否合理要看命中率,命中率高说明缓存有效抗住了大部分请求,命中率可以
  • 通过Redis监控信息计算,一般来说命中率在(70-80)%都算合理。

并发问题,执行读操作未命中缓存,然后查询数据库中取数据,数据已经查询到还没放入缓存,同时一个更新写操作让缓存失效,然后读操作再把查询到数据加载缓存,导致缓存的脏数据。

在遵守缓存使用原则下出现该情况概率非常低,可以通过复杂的Paxos协议保证一致性,一般情况是不考量该场景的处理,如果缓存管理过于复杂,会和缓存层核心理念相悖。

基本描述代码

@Service
public class KeyValueServiceImpl extends ServiceImpl<KeyValueMapper,KeyValueEntity> implements KeyValueService {
	@Resource
	private RedisService redisService;
	@Override
	public KeyValueEntity select(Integer id) {
		//查询缓存
		String redisKey = RedisKeyUtil.getObectKey(id) ;
		String value = redisService.get(redisKey) ;
		if (!StringUtils.isEmpty(value)){
			return JSON.parseObject(value, KeyValueEntity.class);
		}
		//查询库
		KeyValueEntity keyValueEntity = this.getById(id);
		if (keyValueEntity != null){
			//缓存写入
			redisService.set(redisKey, JSON.toJSONString(keyValueEntity));
		}
		//返回值
		return keyValueEntity ;
	}

	@Override
	public boolean update(KeyValueEntity keyValueEntity) {
		//更新数据
		boolean updateFlag = this.updateById(keyValueEntity);
		
		//清除缓存
		if (updateFlag){
			redisService.delete(RedisKeyUtil.getObectKey(keyValueEntity.getId()));
		}
		return updateFlag ;
	}
}


1.3.整合Redis作为缓存

gmall-product 模块中 引入依赖

<dependency>
	<groupId>org.springframework.boot</groupId>
	<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

配置redis

spring:
  redis:
    host: 192.168.139.10

进行压测时产生堆外内存溢出, OutOfDirectMemoryError

  • Spring Boot 2.0以后默认使用lettuce作为操作redis的客户端,它使用netty进行网络通信

  • lettuce的bug导致netty堆外内存溢出

    1、netty若没有指定堆外内存,默认使用-Xmx设置的值
    2、可以通过 -Dio.netty.maxDirectMemory 进行设置

解决方案

  • 不能使用 -Dio.netty.maxDirectMemory 只去调大堆外内存

    这样做只是延缓了出现 OutOfDirectMemoryError 的时间,系统长时间运行后,还是有可
    能出现!

  • 升级Lettuce客户端

  • 切换使用Jedis

    1、从starter中排除lettuce
    2、引入jedis依赖

    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-data-redis</artifactId>
        <!-- 排除 lettuce -->
        <exclusions>
            <exclusion>
                <groupId>io.lettuce</groupId>
                <artifactId>lettuce-core</artifactId>
            </exclusion>
        </exclusions>
    </dependency>
    <dependency>
        <groupId>redis.clients</groupId>
        <artifactId>jedis</artifactId>
    </dependency>

Spring 支持 Redis 客户端
  • Lettuce
  • Jedis

RedisAutoConfiguration

@Import({ LettuceConnectionConfiguration.class,
JedisConnectionConfiguration.class })
public class RedisAutoConfiguration {}


2.三级分类数据获取优化



2.1.加入缓存

CategoryServiceImpl

@Override
public Map<String, List<Catalog2VO ڔ getCatalogJson() {
	//优先从缓存中获取数据
	String catalogJson = redisTemplate.opsForValue().get("catalogJson");
	
	if (StringUtils.isEmpty(catalogJson)) {
		//缓存中没有,则从数据库查询
		Map<String, List<Catalog2VO ڔ catalogJsonFromDB = getCatalogJsonFromDB();
		return catalogJsonFromDB;
	}
	
	//将json转换为 Map对象
	Map<String, List<Catalog2VO>> stringListMap =
	JsonUtils.jsonToMapList(catalogJson, Catalog2VO.class);
	
	return stringListMap;
}


2.2.JMeter压测

  • 未加索引和代码逻辑未优化
    QPS:5/s

  • pms_category 表给 parent_cid 字段加索引
    QPS:25/s

  • 优化代码逻辑
    QPS:395/s

  • 加入Redis缓存
    QPS:2348/s



3.高并发下缓存失效问题



3.1.缓存穿透

key不存在

指查询一个一定不存在的数据,由于缓存没有命中,将去查询数据库,但是数据库也无此记录,我们没有将这次查询的null写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义

风险:利用不存在的数据进行攻击,数据库瞬时压力增大,最终导致崩溃

解决:

  • null结果缓存,并加入短暂过期时间
  • 布隆过滤器(Bloom Filter)


3.2.缓存雪崩

key大面积同时失效

缓存雪崩是指在我们设置缓存时,key采用了相同的过期时间,导致缓存在某一时刻同时无效,请求全部转发到DB,DB瞬时压力过重雪崩。

解决:原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。



3.3.缓存击穿

某一个热点key失效,被高频访问

对于一些设置了过期时间的key,如果这些key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。如果这个key在大量请求同时进来前正好失效,那么所有对这个key的数据查询都落到DB,我们称之为缓存击穿。

解决:加锁!大量并发只让一个去查,其它等待,查到以后释放锁,其它获取到锁,先查缓存,就会有数据,不用去DB。



4.分布式锁

本地锁: synchronized JUC(Lock) ,只能锁住当前进程,分布式场景下需要分布式锁。

在这里插入图片描述



4.1.Redis分布式锁


4.1.1.实现原理

官方文档:http://www.redis.cn/commands/set.html

在这里插入图片描述

4.1.2.问题解决方案

  • SET … NX 占好位,业务代码异常或者程序在页面过程中宕机,没有执行删除锁逻辑,这就造成了死锁!
    解决:设置锁的自动过期时间,即使没有删除,会自动删除
  • SET … NX 设置好,正要去设置过期时间,此时宕机,那就又会死锁!
    解决:设置过期时间和占位必须是原子的,Redis支持使用 SET ю EX 300 NX 命令
  • 删除锁直接删除?如果由于业务时间长,锁自己过期了,直接删除,有可能把别人正在持有的锁删除了。
    解决:加锁的时候,值指定为UUID,每个人匹配自己的锁才能删除。
  • 删锁时,如果正好判断是当前的值,正要删除锁的时候,锁已经过期,别人已经设置到新的值,那么我们删除的是别人的锁。
    解决:删除锁必须保证原子性,使用Redis+Lua脚本完成
if redis.call("get",KEYS[1]) == ARGV[1]
then
	//删除成功返回 1
	return redis.call("del",KEYS[1])
else
	//删除失败返回 0
	return 0
end
String script = "if redis.call(\"get\",KEYS[1]) ڑ ARGV[1]\n" +
				"then\n" +
				" return redis.call(\"del\",KEYS[1])\n" +
				"else\n" +
				" return 0\n" +
				"end";
redisTemplate.execute(
	new DefaultRedisScript<Integer>(script, Integer.class),
	Arrays.asList("lock"),uuid);

总结:

  • 加锁保证原子性
    SET key value NX EX max-lock-time

  • 删除保证原子性
    使用Lua脚本,而不是使用DEL命令

  • 自动续期
    没有提供



4.2.Redisson


4.2.1.介绍

https://github.com/redisson/redisson

Redisson底层的所有锁都保证了原子性,使用了Lua脚本来执行,还使用了看门狗机制进行自动续期


4.2.2.引入依赖

<dependency>
	<groupId>org.redisson</groupId>
	<artifactId>redisson</artifactId>
	<version>3.14.1</version>
</dependency>

https://github.com/redisson/redisson/tree/master/redisson-spring-boot-starter

<dependency>
	<groupId>org.redisson</groupId>
	<artifactId>redisson-spring-boot-starter</artifactId>
	<version>3.14.0</version>
</dependency>

4.2.3.可重入锁(Reentrant Lock)

@GetMapping("/testLock")
public String testLock(){
	RLock rLock = redisson.getLock("anyLock");
	//加锁,阻塞式等待,默认加锁都是30s时间
	//1. 看门狗机制:锁的自动续期,如果业务超长,运行期间自动给锁续上新的30s,不用担心业务时间长,锁自动过期被删掉
	//2. 加锁的业务只要运行完成,就不会给当前锁续期,即使不手动解锁,锁默认在30s以后自动删除
	rLock.lock();
	
	//10s自动解锁,自动解锁时间一定要大于业务的执行时间,没有看门狗机制
	rLock.lock(10, TimeUnit.SECONDS);
	//问题:rLock.lock(10, TimeUnit.SECONDS); 在锁时间到期以后,不会自动续期
	//1. 如果我们传递了锁的过期时间,就发送给redis执行脚本,进行占锁,默认时间就是我们指定的时间
	//2. 如果我们未指定锁的超时时间,就使用30 * 1000(LockWatchdogTimeout 看门狗的默认时间)
	//- 只要占锁成功,就会启动一个定时任务(重新给锁设置过期时间,新的过期时间就是看门狗的默认时间)
	//- 定时任务调度间隔,internalLockLeaseTime(看门狗时间) / 3,每隔10s都会自动再次续期为30s
	
	//最佳实战
	//1. rLock.lock(30, TimeUnit.SECONDS); 省掉了整个续期操作,手动解锁
	try{
		System.out.println("加锁成功,执行业务 ..."+Thread.currentThread().getId());
		Thread.sleep(30000);
	}catch(Exception e){
	
	}finally{
		System.out.println("释放锁 ..."+Thread.currentThread().getId());
		//解锁
		rLock.unlock();
	}
}

4.2.4.读写锁(Read Write Lock)

保证一定能读到最新数据

  • 写锁是一个排他锁(互斥锁、独享锁)
  • 读锁是一个共享锁
  • 写锁没释放,读就必须等待
  • Read + Read:相当于无锁,并发读只会在redis中记录好所有当前的读锁,他们都会同时加锁成功
  • Write + Read:等待写锁释放
  • Write + Write:阻塞方式
  • Read + Write:有读锁,写也需要等待
@GetMapping("/testWrite")
public String testWrite(){
	RReadWriteLock lock = redisson.getReadWriteLock("rw-lock");
	//修改数据加写锁
	RLock rLock = lock.writeLock();
	rLock.lock();
	String s = "";
	try {
		System.out.println("写锁加锁成功 ... "+Thread.currentThread().getId());
		s = UUID.randomUUID().toString();
		Thread.sleep(30000);
		redisTemplate.opsForValue().set("orderId", s)
	} catch (Exception e) {
		e.printStackTrace();
	} finally {
		rLock.unlock();
		System.out.println("写锁释放成功 ... "+Thread.currentThread().getId());
	}
	return s;
}

@GetMapping("/testRead")
public String testRead(){
	RReadWriteLock lock = redisson.getReadWriteLock("rw-lock");
	//读数据加读锁
	RLock rLock = lock.readLock();
	rLock.lock();
	String s = "";
	try {
		System.out.println("读锁加锁成功 ..."+Thread.currentThread().getId());
		s = redisTemplate.opsForValue().get("orderId");
	} catch (Exception e) {
		e.printStackTrace();
	} finally {
		rLock.unlock();
		System.out.println("读锁释放成功 ... "+Thread.currentThread().getId());
	}
	return s;
}

4.2.5.闭锁(CountDownLatch)

场景:学校放假,锁大门。必须要等到学校所有班级都走完了,才可以锁大门!

@GetMapping("/lockDoor")
public String lockDoor(){
	RCountDownLatch countDownLatch = redisson.getCountDownLatch("door");
	//设置学校有5个班级
	countDownLatch.trySetCount(5);
	//等待闭锁都完成
	countDownLatch.await();
	return "放假了 ... ";
}

@GetMapping("/go/{id}")
public String go(@PathVariable("id") Long id){
	RCountDownLatch countDownLatch = redisson.getCountDownLatch("door");
	//计数-1
	countDownLatch.countDown();
	return id + "班的人都走了 ... "
}

4.2.6.信号量(Semaphore)

场景:车库停车,占用车位和释放车位

@GetMapping("/park")
public String park(){
	RSemaphore semaphore = redisson.getSemaphore("park");
	//获取一个信号(占一个车位),阻塞式等待
	semaphore.acquire();
	return "ok";
}

@GetMapping("/go")
public String go(){
	RSemaphore semaphore = redisson.getSemaphore("park");
	//释放一个信号(释放一个车位)
	semaphore.release();
	return "ok";
}

分布式限流场景

//若获取不到信号量,则立即返回false,不阻塞等待
boolean b = semaphore.tryAcquire();
if(b) {
	//执行业务
} else {
	return "error ... ";
}

4.3.三级分类数据加锁解决缓存击穿

public Map<String, List<Catalog2VO>> getCatalogJsonFromDbWithLock() {
	RLock lock = redissonClient.getLock("catalogJsonLock");
	lock.lock();
	
	Map<String, List<Catalog2VO ڔ catalogJsonFromDb = null;
	try {
		catalogJsonFromDb = getCatalogJsonFromDb();
	} finally {
		lock.unlock();
	}
	
	return catalogJsonFromDb;
}


5.缓存数据一致性



5.1.双写模式

  • 写数据库
  • 更新缓存


5.2.失效模式(推荐)

  • 写数据库
  • 删除缓存

在高并发情况下就会有可能出现数据一致性问题!

在这里插入图片描述
解决方案:

  • 如果是用户纬度数据(订单数据、用户数据),这种并发几率非常小,不用考虑这个问题,缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。
  • 如果是菜单,商品介绍等基础数据,可以不用太考虑数据实时性问题,(若真要考虑实时性,可以去使用canal订阅binlog的方式)。
  • 缓存数据+过期时间也足够解决大部分业务对于缓存的要求。
  • 通过加锁保证并发读写,写写的时候按顺序排好队,读读无所谓,所以适合使用读写锁。(业务不关心脏数据,允许临时脏数据可忽略)。

总结:

  • 我们能放入缓存的数据本就不应该是实时性、一致性要求超高的。所以缓存数据的时候加上过期时间,保证每天拿到当前最新数据即可。
  • 我们不应该过度设计,增加系统的复杂性。
  • 遇到实时性、一致性要求高的数据,就应该查数据库,即使慢点。


6.简化缓存开发



6.1.Spring Cache简介

文档:
https://docs.spring.io/spring-framework/docs/current/reference/html/integration.html#cache

Spring从3.1开始定义了 org.springframework.cache.Cache
org.springframework.cache.CacheManager 接口来统一不同的缓存技术,并支持使用
JCache(JSR-107)注解简化开发;

Cache接口为缓存的组件规范定义。包含缓存的各种操作集合。Cache接口下 Spring 提供了各种xxxCache 的实现,如 RedisCacheEhCacheCacheConcurrentMapCache 等;

每次调用需要缓存功能的方法时,Spring会检查指定参数的目标方法是否已经被调用过,如果有就直接从缓存中获取方法调用后的结果,如果没有就调用方法并缓存结果后返回给用户,下次调用直接从缓存中获取。

使用Spring缓存抽象时我们需要关注以下两点:

  • 确定方法需要被缓存以及他们的缓存策略
  • 从缓存中读取之前缓存存储的数据


6.2.整合SpringCache简化缓存开发


6.2.1.引入依赖

<dependency>
	<groupId>org.springframework.boot</groupId>
	<artifactId>spring-boot-starter-cache</artifactId>
</dependency>
<dependency>
	<groupId>org.springframework.boot</groupId>
	<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

6.2.2.配置

自动配置了哪些?

  • CacheAutoConfiguration 会导入 RedisCacheConfiguration
  • 自动配置好缓存管理器 RedisCacheManager

配置使用redis作为缓存

spring:
	cache:
		type: redis

6.2.3.开启缓存功能

@EnableCaching

@EnableCaching
@SpringBootApplication
public class GmallProductApplication {}

6.2.4.Spring Cache 注解

  • @Cacheable : Triggers cache population. 触发将数据保存到缓存的操作
  • @CacheEvict : Triggers cache eviction. 触发将数据从缓存删除的操作(失效模式
  • @CachePut : Updates the cache without interfering with the method execution. 不影响方法执行更新缓存 (双写模式
  • @Caching : Regroups multiple cache operations to be applied on a
    method. 组合以上多个操作
  • @CacheConfig : Shares some common cache-related settings at
    class-level. 在类级别共享缓存的相同配置

6.2.5.最佳实践

每一个需要缓存的数据都指定缓存名字(缓存的分区,按照业务类型分)

@Cacheable({“category”}) 表示当前方法的结果需要缓存,如果缓存中有,方法不会调用。如果缓存中没有,会调用方法,最后将方法的结果放入缓存。

@Cacheable({"category"})
@Override
public List<CategoryEntity> getLevel1Categories() {
	List<CategoryEntity> entities = list(
		new QueryWrapper<CategoryEntity>().eq("parent_cid", 0));
	return entities;
}

默认行为:

  • 如果缓存中有数据,方法不会调用
  • key默认自动生成,值为 simpleKey
  • 缓存的value的值,默认使用jdk序列化机制,将序列化后的数据存到redis(不是json)
  • 默认TTL时间 -1

自定义:

  • 指定生成的缓存使用的key,key属性指定,接受一个SpEL,参考:https://docs.spring.io/spring-framework/docs/current/spring-framework-reference/integration.html#cache-spel-context
@Cacheable(value = {"category"}, key = "#root.methodName")
@Cacheable(value = {"category"}, key = "#root.method.name")
  • 指定缓存数据的TTL,在配置文件中定义 spring.cache.redis.time-to-live=3600000 (单位毫秒)
  • 将数据保存为json格式,为Spring容器中放入 RedisCacheConfiguration 实例
package com.atguigu.gmall.product.config;
import org.springframework.boot.autoconfigure.cache.CacheProperties;
import org.springframework.boot.context.properties.EnableConfigurationProperties;
import org.springframework.cache.annotation.EnableCaching;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.cache.RedisCacheConfiguration;
import org.springframework.data.redis.serializer.GenericJackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.RedisSerializationContext;
import org.springframework.data.redis.serializer.StringRedisSerializer;

/**
 * 缓存配置 {@link CacheConfig}
 * @author zhangwen
 * @email: 1466787185@qq.com
 */
@EnableConfigurationProperties(CacheProperties.class)
@EnableCaching
@Configuration
public class CacheConfig {

/**
 * Redis 缓存配置
 * @param cacheProperties
 * @return
 */
@Bean
public RedisCacheConfiguration redisCacheConfiguration(CacheProperties cacheProperties) {
	RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig();
	//设置key
	config = config.serializeKeysWith(
		RedisSerializationContext.SerializationPair.fromSerializer(
			new StringRedisSerializer()));
	//设置value值返回json
	config = config.serializeValuesWith(
		RedisSerializationContext.SerializationPair.fromSerializer(
			new GenericJackson2JsonRedisSerializer()));
	//将配置文件中的所有配置生效
	CacheProperties.Redis redisProperties = cacheProperties.getRedis();
	if (redisProperties.getTimeToLive() != null) {
		config = config.entryTtl(redisProperties.getTimeToLive());
	}
	if (redisProperties.getKeyPrefix() != null) {
		config = config.prefixCacheNameWith(redisProperties.getKeyPrefix());
	}
	if (!redisProperties.isCacheNullValues()) {
		config = config.disableCachingNullValues();
	}
	if (!redisProperties.isUseKeyPrefix()) {
		config = config.disableKeyPrefix();
	}
	
	return config;
	}
}

6.2.6.删除缓存

@CacheEvict

@CacheEvict(value = {"category"}, key = "'getLevel1Categories'")
public void updateCascade(CategoryEntity category) {}

6.2.7.批量删除缓存

同时进行多个缓存数据 @Caching

@Caching(evict = {
	@CacheEvict(value = {"category"}, key = "'getLevel1Categories'"),
	@CacheEvict(value = {"category"}, key = "'getCatalogJson'")
})
public void updateCascade(CategoryEntity category) {}

指定删除某个分区下的所有缓存数据 @CacheEvict

@CacheEvict(value = "category", allEntries = true)
public void updateCascade(CategoryEntity category) {}

6.2.8.Spring Cache不足

读模式:

  • 缓存穿透:查询一个null数据

    解决:缓存空数据, spring.cache.redis.cache-null-values=true

  • 缓存击穿:大量并发进来同时查询一个正好过期的数据

    解决:加锁,默认是没有加锁的, sync = true 加锁解决缓存击穿

	@Cacheable(value = {"category"}, key = "#root.method.name", sync = true)
  • 缓存雪崩:大量的key同时过期

    解决:加过期时间, spring.cache.redis.time-to-live=3600000

写模式:(缓存与数据库一致性)

  • 读写加锁(读多写少场景)
  • 引入Canal,感知到MySQL的更新,再将更新数据刷入缓存
  • 读多写多,直接去数据库查询就行

总结:

  • 常规数据(读多写少,即时性,一致性要求不高的数据),完全可以使用Spring Cache,写模式只要缓存的数据有过期时间就可以了
  • 特殊数据:特殊设计(分布式锁、Canal等)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/391462.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

布隆过滤器Bloom -> Redisson系列-3

接上文&#xff1a;RBucket对象桶 -&#xff1e; Redisson系列-1&#xff08;让redis操作更优雅&#xff09;_子书少卿的博客-CSDN博客 本质上布隆过滤器是一种数据结构&#xff0c;是一种比较巧妙的概率性数据结构&#xff0c;特点是可以高效的插入和查询&#xff0c;可…

浅谈一下虚拟机栈

虚拟机栈 概述 由于跨平台性的设计&#xff0c;Java的指令都是根据栈来设计的。不同平台CPU架构不同&#xff0c;所以不能设计为基于寄存器的。 优点是跨平台&#xff0c;指令集小&#xff0c;编译器容易实现&#xff0c;缺点是性能下降&#xff0c;实现同样的功能需要更多的…

SpringBoot学习笔记(二)配置文件

1、配置文件SpringBoot使用一个全局的配置文件&#xff0c;配置文件名是固定的&#xff1b;application.propertiesapplication.yml配置文件的作用&#xff1a;修改SpringBoot自动配置的默认值&#xff1b;SpringBoot在底层都给我们自动配置好&#xff1b;YAML&#xff1a;以数…

MySQL常用函数整理

MySQL常用函数整理sql函数分类一、流程控制1、判断值为null或空字符串2、IF函数3、IFNULL函数4、CASE函数(1) 相当于switch case的作用(2) 相当于if elseif的作用5、COALESCE函数二、字符串类&#xff08;GBT答案&#xff09;1、用于select、insert等子句中2、用于where子句中其…

来吧!接受Kotlin 协程--线程池的7个灵魂拷问

前言 之前有分析过协程里的线程池的原理&#xff1a;Kotlin 协程之线程池探索之旅(与Java线程池PK)&#xff0c;当时偏重于整体原理&#xff0c;对于细节之处并没有过多的着墨&#xff0c;后来在实际的使用过程中遇到了些问题&#xff0c;也引发了一些思考&#xff0c;故记录之…

从零开始学习c语言|21、动态内存管理

一、malloc函数 1、什么是malloc函数 malloc是memery(内存)和allocate(分配)的缩写&#xff0c;顾名思义&#xff0c;malloc函数为动态分配内存的意思 2、malloc函数语句 int *p(int *)malloc(sizeof(int))malloc函数的形参为申请的内存空间大小&#xff0c;上述申请了一个i…

“巨亏成名”的魔鬼交易员,你知道几个?

谁说在期货市场上只有赚大钱才能出名&#xff1f;殊不知还有这样一群特殊的交易员靠着巨额亏损而“一战成名”&#xff0c;亏得是老东家元气大伤&#xff0c;外号“魔鬼交易员”——“不亏不成魔”&#xff01;接下来火象就给大家盘点几位代表性魔鬼交易员&#xff0c;看看他们…

论文阅读 | 轻量级网络 MobileNets/Xception/ShuffleNet

前言&#xff1a;重温经典&#xff0c;整理了一些几年前做轻量级网络的论文&#xff0c;其中的深度可分离卷积和通道shuffle的思想至今也在沿用 &#xff08;这几天都没看论文然而实验还是没跑出来&#xff0c;不卷会议了&#xff0c;开始摆烂…&#xff09; 论文地址&#xff…

JavaScript Math 算数对象

文章目录JavaScript Math 算数对象Math 对象Math 对象属性Math 对象方法算数值算数方法JavaScript Math 算数对象 Math&#xff08;算数&#xff09;对象的作用是&#xff1a;执行常见的算数任务。 Math 对象 Math&#xff08;算数&#xff09;对象的作用是&#xff1a;执行普…

规划数据指标体系方法(上)——OSM 模型

之前我已经有写过文章讲了数据指标体系的搭建思路&#xff0c;但有同学还是不太清楚要从何入手&#xff0c;今天我就来跟大家讲一讲搭建数据指标体系之前第一步要先做的事情——规划数据指标体系。 规划数据指标体系&#xff0c;在业内有三种比较常见的方法&#xff0c;分别是&…

MySql索引失效的情况

文章目录1、对索引字段进行了运算或者使用了函数2、查询的数据类型与字段类型不一致3、违反了索引的最左匹配原则4、全表扫描更快5、where语句中索引列使用了负向查询&#xff0c;可能会导致索引失效6、索引字段可以为null&#xff0c;使用is null或is not null时&#xff0c;可…

2022年MathorCup数学建模C题自动泊车问题解题全过程文档加程序

2022年第十二届MathorCup高校数学建模 C题 自动泊车问题 原题再现 自动泊车是自动驾驶技术中落地最多的场景之一&#xff0c;自动泊车指在停车场内实现汽车的自动泊车入位过程&#xff0c;在停车空间有限的大城市&#xff0c;是一个比较实用的功能&#xff0c;减少了驾驶员将…

又一新闻,Meta研发了超越chatGPT的新平台LLAMA

一、Meta 全新大语言模型 LLaMA 正通过种子公开发放2 月 24 日&#xff0c;Meta 公司发布了新的大模型系列 —— LLaMA&#xff08;Large Language Model Meta AI&#xff09;。Meta 宣称&#xff0c;LLaMA 规模仅为竞争对手 ChatGPT 的“十分之一”&#xff0c;但性能却优于 O…

Win10安装MySQL5.7.22 解压缩版(手动配置)方法

1.下载地址&#xff1a;https://dev.mysql.com/downloads/mysql/5.7.html#downloads 直接点击下载项 下载后&#xff1a; 2.可以把解压的内容随便放到一个目录&#xff0c;我的是如下目录&#xff08;放到C盘的话&#xff0c;可能在修改ini文件时涉及权限问 题&#xff0c;之后…

第13章 二叉树模型及其扩展

这学期会时不时更新一下伊曼纽尔德曼&#xff08;Emanuel Derman&#xff09; 教授与迈克尔B.米勒&#xff08;Michael B. Miller&#xff09;的《The Volatility Smile》这本书&#xff0c;本意是协助导师课程需要&#xff0c;发在这里有意的朋友们可以学习一下&#xff0c;思…

lattice

Chinese NER Using Lattice LSTM 阅读笔记_Ono_online的博客-CSDN博客 【NER-1】-2018 ACL Lattice-LSTM_latticelstm代码_应有光的博客-CSDN博客 lattice model(结合上面两个博客来看) 18分钟彻底搞懂LSTM网络原理,NLP,深度学习,自然语言处理_哔哩哔哩_bilibili 如何从RNN起…

无代码时代洪流,高灵活,所见即所得

发布的《2022年中国低代码/零代码行业研究报告》表明&#xff0c;在最近的一项调查中&#xff0c;超过90&#xff05;的企业用户都希望能够使自己的产品开发更加灵活和有效&#xff0c;并且希望能够通过减少开发费用来优化其投入产出比。从众多研究机构的正面评价来看&#xff…

react-swipeable-views轮播图实现下方的切换点控制组件

本文是react通过react-swipeable-views创建公共轮播图组件的续文 上一文 我们创建了这样的一个轮播图组件 但我们已经看到的轮播图 下面都会有小点 展示当前所在的位置 但react-swipeable-views 并没有直接提供 我们需要自己去编写这个组件 我们在components下的 rotationCh…

如何用R语言在生物群落生态学中的数据统计分析?

R 语言作的开源、自由、免费等特点使其广泛应用于生物群落数据统计分析。生物群落数据多样而复杂&#xff0c;涉及众多统计分析方法。本课程以生物群落数据分析中的最常用的统计方法回归和混合效应模型、多元统计分析技术及结构方程等数量分析方法为主线&#xff0c;通过多个来…

文件变成chk如何恢复正常

许多人不知道chk文件是什么&#xff1f;其实它是用户在使用“磁盘碎片整理程序”整理硬盘后所产生的“丢失簇的恢复文件”&#xff0c;而在u盘、内存卡等移动设备读取数据过程中&#xff0c;由于断电或强制拔出也容易产生大量的chk文件。那么文件变成chk如何恢复正常呢&#xf…