【运维篇】三、SLF4J与Logback

news2024/9/29 15:24:16

文章目录

  • 0、Java的门面设计模式
  • 1、SLF4J
  • 2、作用
  • 3、调试
  • 4、SpringBoot采用SLF4J+Logback
  • 5、切换SpringBoot的日志框架
  • 6、logback的配置加载
  • 7、logback的配置组成
  • 8、logback之logger
  • 9、logback之appender
  • 10、logback之pattern
  • 11、appender的Filter
  • 12、logback.xml全解释
  • 13、logback常用配置备份

请添加图片描述

0、Java的门面设计模式

因为SLF4J就是门面设计模式的应用,因此先整理下这种设计模式。参考原文:https://blog.csdn.net/jason0539/article/details/22775311

部分截图:

在这里插入图片描述
在这里插入图片描述

核心就是外部(客户端)与一个子系统通信时,通过一个统一的外观对象进行,从而隐藏子系统的具体逻辑,使得子系统更易于使用。客户端不再需要了解子系统内部的实现,也不需要跟众多子系统内部的模块进行交互,只需要跟门面类交互就可以了。

在这里插入图片描述
门面对象有以下几个特点:

  • 知道所有子角色的功能和责任
  • 将客户端发来的请求委派到子系统中,没有实际业务逻辑
  • 不参与子系统内业务逻辑的实现

1、SLF4J

SLF4J,Simple Logging Facade For Java,即简单日志门面,是一套存取日志的标准接口

注意是接口,不是具体实现,就像JDBC一样只是统一的接口,想要使用就需要搭配其他具体的日志实现方案,如logback、log4j

在这里插入图片描述

slf4j-simple、logback都是slf4j的具体实现,log4j并不直接实现slf4j,但是有专门的一层桥接slf4j-log4j12来实现slf4j。关于这些具体实现框架的信息,贴个图:

在这里插入图片描述

2、作用

关于SLF4J的使用目的,看这个场景:

- 自己开发的系统中,日志框架使用logback实现
- 这个系统中使用了A.jar,A.jar中使用了log4j框架
- 这个系统也使用了B.jar,B.jar中使用了slf4j-simple

此时,我们就得维护多套日志框架,使用不便。就像这样:

// 使用log4j,需要log4j.jar
import org.apache.log4j.Logger;
Logger logger_log4j = Logger.getLogger(Test.class);
logger_log4j.info("Hello World!");

// 使用log4j2,需要log4j-api.jar、log4j-core.jar
import org.apache.logging.log4j.LogManager;
import org.apache.logging.log4j.Logger;
Logger logger_log4j2 = LogManager.getLogger(Test.class);
logger_log4j2.info("Hello World!");

// logback,需要logback-classic.jar、logback-core.jar
import ch.qos.logback.classic.Logger;
import ch.qos.logback.classic.LoggerContext;
Logger logger_logback = new LoggerContext().getLogger(Test.class);
logger_logback.info("Hello World!");

使用不同的日志框架,就要引入不同的jar包,使用不同的代码获取Logger。如果项目升级需要更换不同的框架,那么就需要修改所有的地方来获取新的Logger,这将会产生巨大的工作量。 因此,加入门面的设计模式,让调用端只关心如何调用,而不关心怎么实现打印日志,这个抽象层就是slf4j。slf4j只是一个日志标准,并不是日志系统的具体实现,它只负责:

  • 提供日志接口
  • 提供获取具体日志对象的方法

3、调试

先看下只有slf4j依赖的情况,创建个小模块,仅引入单元测试与slf4j的依赖,不引入任何日志的具体实现的依赖。

在这里插入图片描述

pom.xml内容:

在这里插入图片描述

在单元测试中打印行日志看下效果:

@Test
public void testSlf4j(){
	
	Logger logger = LoggerFactory.getLogger(Object.class);
	logger.info("log...");
}

运行单元测试:

在这里插入图片描述

在没有给slf4j提供具体的实现时,打印日志失败,大致意思是找不到绑定器和实现。接下来随便再引入一个日志实现框架的依赖:

<dependency>
	<groupId>ch.qos.logback</groupId>
	<artifactId>logback-classic<artifactId>
	<version>1.2.3<version>
</dependency>

再运行单元测试,日志打印成功:

在这里插入图片描述
再引入一个其他的日志实现:

<dependency>
	<groupId>org.slf4j</groupId>
	<artifactId>slf4j-simple<artifactId>
	<version>1.7.25<version>
</dependency>

再运行上面的UT,发现控制台显示有多个SLF4J绑定器,最终生效的是logback下的:

在这里插入图片描述

4、SpringBoot采用SLF4J+Logback

默认情况下,SpringBoot使用了 SLF4J+logback 的日志框架组合。查看SpringBoot起步依赖:

在这里插入图片描述

往下跟logging-starter:

<dependencies>
	
  <!--logback-->
  <dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-classic</artifactId>
    <version>1.2.3</version>
    <scope>compile<www.dongdongrji.cn /scope>
  </dependency>
  
  <!--log4j 向 slf4j 转换-->
  <dependency>
    <groupId>org.apache.logging.log4j</groupId>
    <artifactId>log4j-to-slf4j</artifactId>
    <version>2.11.1</version>
    <scope>compile</scope>
  </dependency>
  
  <!--Java 自带的日志框架转换为 slf4j-->
  <dependency>
    <groupId>org.slf4j</groupId>
    <artifactId>jul-to-slf4j</artifactId>
    <version>1.7.25</version>
    <scope>compile</scope>
  </dependency>
  
</dependencies>

Maven依赖图:

在这里插入图片描述

5、切换SpringBoot的日志框架

切换日志框架,即切换实现,就是排除默认的依赖,引入自己需要的框架的依赖。

logback切换为log4j2:

<dependencies>
	  <dependency>
		  <!‐‐starter‐web里面自动添加starter‐logging ,向下就是logback的依赖‐‐>
		  <groupId>org.springframework.boot</groupId>
		  <artifactId>spring‐boot‐starter‐web</artifactId>
		  <exclusions>
			  <!‐‐排除starter‐logging 也就是logback的依赖‐‐>
			  <exclusion>
				  <artifactId>spring‐boot‐starter‐logging</artifactId>
				  <groupId>org.springframework.boot</groupId>
			  </exclusion>
		  </exclusions>
	  </dependency>

	 <!‐‐Log4j2的场景启动器‐‐>
	  <dependency>
		  <groupId>org.springframework.boot</groupId>
		  <artifactId>spring‐boot‐starter‐log4j2</artifactId>
	  </dependency>
</dependencies>

再添加log4j2的配置文件log4j2-spring.xml即可。

logback切换为log4j:

要将logback的桥接器排除,添加log4j的桥接器:

<dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
            <exclusions>
                <exclusion>
                    <artifactId>logback-classic</artifactId>
                    <groupId>ch.qos.logback</groupId>
                </exclusion>
            </exclusions>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
        </dependency>

再添加log4j的配置文件。

关于桥接:

在这里插入图片描述

6、logback的配置加载

logback是log4j的作者写的另一日志框架,对之前的框架进行了完善和优化。关于logback的加载,当我们使用logback-classic.jar时,应用启动,那么logback会按照如下顺序进行扫描:

  • 在系统配置文件System Properties中寻找是否有logback.configurationFile对应的value
  • 在classpath下寻找是否有logback.groovy(即logback支持groovy与xml两种配置方式)
  • 在classpath下寻找是否有logback-test.xml
  • 在classpath下寻找是否有logback.xml

以上任何一项找到了,就不进行后续扫描,按照对应的配置进行logback的初始化,具体代码实现可见ch.qos.logback.classic.util.ContextInitializer类的findURLOfDefaultConfigurationFile方法。
在这里插入图片描述
在这里插入图片描述

当所有以上四项都找不到的情况下,logback会调用ch.qos.logback.classic.BasicConfigurator的configure方法,构造一个ConsoleAppender用于向控制台输出日志,默认日志输出格式为:

%d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n

在这里插入图片描述

7、logback的配置组成

整个配置拆为三大块:Appender、Logger、Pattern。先看下一个logback的 <configuration>的三个属性。

<configuration>的三个属性:

  • scan:当scan被设置为true时,当配置文件发生改变,将会被重新加载,默认为true
  • scanPeriod:检测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认为毫秒,当scan=true时这个值生效,默认时间间隔为1分钟
  • debug:当被设置为true时,将打印出logback内部日志信息,实时查看logback运行信息,默认为false

8、logback之logger

<logger>用来设置某一个包或者具体某一个类的日志打印级别(分组的那个味儿)、以及指定所用的<appender>

<logger>包含一个元素和三个属性:

  • <appender-ref>元素:0个或多个,用来说明这个logger分组下的日志往哪儿输出、怎么输出
  • name属性:name必填,name不是随便起的,它表示的是LoggerFactory.getLogger(XXX.class),XXX类的包路径,包路径越少越是父级,传入的xxx.class用哪个logger,就是看这个类属于哪个name包下
  • level:用来设置打印级别,可选,未设置时继承上级logger的级别,<root>也是<logger>元素,但是它是根logger,只有一个level属性,因为它的name就是ROOT
  • additivity:是否向上级logger传递打印信息,默认为true

写个UT来测试下效果:

public class Slf4jTest {

    @Test
    public void testSlf4j() {
        Logger logger = LoggerFactory.getLogger(Object.class);
        logger.trace("=====trace=====");
        logger.debug("=====debug=====");
        logger.info("=====info=====");
        logger.warn("=====warn=====");
        logger.error("=====error=====");
    }

}

类路径下写logback.xml:

<?xml version="1.0" encoding="UTF-8" ?>
<configuration scan="false" scanPeriod="60000" debug="false">
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <layout class="ch.qos.logback.classic.PatternLayout">
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
        </layout>
    </appender>

    <root level="info">
        <appender-ref ref="STDOUT" />
    </root>

</configuration>

以上这个配置,即root这个logger把日志级别大于info的信息交给STDOUT这个appender处理(STDOUT将信息打印到控制台),此时运行上面的UT:

在这里插入图片描述

再调整下上面的logback.xml,新加一个logger:

<logger name="java" additivity="false" />

此时运行UT,无输出结果:

在这里插入图片描述
结果分析:

  • 首先logger的name是java,我UT传入的class为java.lang.Object,属于这个logger
  • 其次,level没写,继承父级logger的level,即info
  • additivity=false,即不向父级logger<root>传递
  • 而它自己却又没有配置任何的appender-ref,所以无输出
  • additivity改为true,则传递到root这个根logger,用它的appender-ref,就能输出info及以上信息

再调整下上面的logback.xml,再新加一个logger:

<logger name="java" additivity="false" />
<!--新增-->
<logger name="java.lang" level="warn">
	<appender-ref ref="STDOUT" />
</logger>

运行UT:

在这里插入图片描述
结果分析:

  • 传入的Object.class属于java.lang这个logger
  • java.lang的logger配有appender,成功打印warn及以上
  • 没写additivity,默认为true,传递到父级name=java的logger
  • java这个logger无appender,也不向上传递,那不打印任何信息

最后,注意这种导致重复打印的不合理写法:

在这里插入图片描述

9、logback之appender

<appender>是负责写日志的组件。<appender>有两个必要属性name和class:

  • name指定<appender>的名称
  • class指定<appender>的全限定名

常用的appender有:

  • ConsoleAppender
  • FileAppender
  • RollingFileAppender
  • AsyncAppender

ConsoleAppender用来将日志输出到控制台:

<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
    <encoder>
        <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
    </encoder>
</appender>

FileAppender用于将日志写到文件中:

<appender name="FILE" class="ch.qos.logback.core.FileAppender">
    <file>D:/server.log</file>
    <append>true</append>
    <encoder>
        <pattern>%-4relative [%thread] %-5level %logger{35} - %msg%n</pattern>
    </encoder>
</appender>

其中:

  • file元素指定文件名,可以用相对路径,也可绝对路径
  • appender元素为true,及追加,不是清空文件(Linux的>和>>)

RollingFileAppender的作用是滚动记录文件,先将日志记录到指定文件,当符合某个条件(如达到每个文件的大小)时再将日志记录到其他文件:

<appender name="file_error" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${log.path}/data-svc-error.log</file>
        <!-- 循环政策:基于时间创建日志文件 -->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- 日志文件名格式 -->
            <fileNamePattern>${log.path}/data-svc-error.%d{yyyy-MM-dd}.log</fileNamePattern>
            <!-- 日志最大的历史 60天 -->
            <maxHistory>7</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>${log.pattern}</pattern>
        </encoder>
    </appender>

其中:

  • fileNamePattern指定日志文件格式
  • maxHistory设置滚动历史时长,保留近maxHistory天的日志文件,当然也有按文件大小切割的配置

AsyncAppender采用异步写日志的方式,减少性能损耗: 之前的appender,如RollingFileAppender,每写一次日志就发生一次磁盘IO

<!-- 异步输出 -->  
<appender name ="ASYNC" class= "ch.qos.logback.classic.AsyncAppender">  
    <!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->  
    <discardingThreshold>0</discardingThreshold>  
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->  
    <queueSize>256</queueSize>  
    <!-- 添加附加的appender,最多只能添加一个 -->  
    <appender-ref ref ="myRollingFileAppender"/>  
</appender>

异步写入实现原理:

  • 当我们配置了AsyncAppender,系统启动时会初始化一条名为"AsyncAppender-Worker-ASYNC"的线程

  • 当Logging Event进入AsyncAppender后,AsyncAppender会调用appender方法,appender方法中再将event填入Buffer(使用的Buffer为BlockingQueue,具体实现为ArrayBlockingQueye)

  • 不过填入之前,会先判断当前Buffer的容量以及丢弃日志特性是否开启,当消费能力不如生产能力时,AsyncAppender会将超出Buffer容量的Logging Event的级别进行丢弃,作为消费速度一旦跟不上生产速度导致Buffer溢出处理的一种方式。

  • 上面的线程的作用,就是从Buffer中取出Event,交给对应的appender进行后面的日志推送

  • 从上面的描述可以看出,AsyncAppender并不处理日志,只是将日志缓冲到一个BlockingQueue里面去,并在内部创建一个工作线程从队列头部获取日志,之后将获取的日志循环记录到附加的其他appender上去,从而达到不阻塞主线程的效果。

  • 因此AsyncAppender仅仅充当的是事件转发器,必须引用另外一个appender来做事。(如上面引用了定义的RollingAppender类型的appender)

基于这个原理,看这个appender的参数:

  • discardingThreshold:假如等于20则表示,表示当还剩20%容量时,将丢弃TRACE、DEBUG、INFO级别的Event,只保留WARN与ERROR级别的Event,为了保留所有的events,可以将这个值设置为0,默认值为queueSize/5
  • queueSize:即BlockingQueue的最大容量,默认为256
  • includeCallerData:表示是否提取调用者数据,这个值被设置为true的代价是相当昂贵的,为了提升性能,默认当event被加入BlockingQueue时,event关联的调用者数据不会被提取,只有线程名这些比较简单的数据
  • appender-ref:表示AsyncAppender使用哪个具体的<appender>进行日志输出

10、logback之pattern

<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <layout class="ch.qos.logback.classic.PatternLayout">
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
        </layout>
</appender>
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
        </encoder>
</appender>

encoder表示对参数进行格式化,上面第一种使用了<layout>定义<pattern>,第二种使用了<encoder>定义<pattern>,区别是:

  • <encoder>是0.9.19版本之后引进的,以前的版本使用<layout>,logback极力推荐的是使用<encoder>而不是<layout>
  • 最常用的FileAppender和它的子类的期望是使用<encoder>而不再使用<layout>

11、appender的Filter

<filter><appender>的一个子节点,表示在当前给到的日志级别下再进行一次过滤,最基本的Filter有:

  • ch.qos.logback.classic.filter.LevelFilter
  • ch.qos.logback.classic.filter.ThresholdFilter

LevelFilter这种过滤器:

<configuration scan="false" scanPeriod="60000" debug="false">

    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
        </encoder>
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <level>WARN</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
    </appender>

    <logger name="java" additivity="false" />
    <logger name="java.lang" level="DEBUG">
        <appender-ref ref="STDOUT" />
    </logger>

    <root level="INFO">
        <appender-ref ref="STDOUT" />
    </root>

</configuration>

以上即,过滤WARN级别的日志,匹配时接收这个记录,不匹配时拒绝这个记录,因此最后的输出只有WARN日志:

在这里插入图片描述
注意,有了过滤器之后,这里最终输出的信息,是logger和Filter交集的关系,不是logger配info就输出info及以上了。再看ThresholdFilter过滤器,Threshold即门槛:

<?xml version="1.0" encoding="UTF-8" ?>
<configuration scan="false" scanPeriod="60000" debug="false">

    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
        </encoder>
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>INFO</level>
        </filter>
    </appender>

    <logger name="java" additivity="false" />
    <logger name="java.lang" level="DEBUG">
        <appender-ref ref="STDOUT" />
    </logger>

    <root level="INFO">
        <appender-ref ref="STDOUT" />
    </root>

</configuration>

此时,门槛设置为INFO,则小于INFO级别的被过滤掉了,尽管logger中设置了DEBUG,最终输出的结果也没有DEBUG:

在这里插入图片描述

12、logback.xml全解释

logback.xml文件各项配置的含义备份:

<?xml version="1.0" encoding="UTF-8"?>
<!--
scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。
scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒当scan为true时,此属性生效。默认的时间间隔为1分钟。
debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。
-->
<configuration scan="false" scanPeriod="60 seconds" debug="false">
    <!-- 定义日志的根目录为项目的根目录,前面不要加"/",加了会默认会认为是根目录,提示 classnotfond -->
    <property name="LOG_HOME" value="app/log"/>
    <!-- 定义日志文件名称 -->
    <property name="appName" value="logbackBootText"/>

    <!-- ConsoleAppender 用于控制台输出 -->
    <appender name="stdout" class="ch.qos.logback.core.ConsoleAppender">
        <!--
        日志输出格式:
            %d表示日期时间,
            %thread表示线程名,
            %-5level:级别从左显示5个字符宽度
            %logger{50} 表示logger名字最长50个字符,否则按照句点分割。
            %msg:日志消息,
            %n是换行符
        -->
        <layout class="ch.qos.logback.classic.PatternLayout">
            <!--springProfile可以指定某段配置只在某个环境下生效-->
            <!--如果使用logback.xml作为日志配置文件,还要使用profile功能,会有以下错误no applicable action for [springProfile]-->
            <springProfile name="dev">
                <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} ----> [%thread] ---> %-5level %logger{50} - %msg%n</pattern>
            </springProfile>
            <springProfile name="!dev">
                <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} ==== [%thread] ==== %-5level %logger{50} - %msg%n</pattern>
            </springProfile>
        </layout>
    </appender>

    <!-- 滚动记录文件,先将日志记录到指定文件,当符合某个条件时,将日志记录到其他文件 -->
    <appender name="appLogAppender" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <!--定义日志输出的路径和名称-->
        <!-- 指定日志文件的名称 -->
        <!--这里的scheduler.manager.server.home 没有在上面的配置中设定,所以会使用java启动时配置的值-->
        <!--比如通过 java -Dscheduler.manager.server.home=/path/to XXXX 配置该属性-->
        <!--<file>${scheduler.manager.server.home}/${LOG_HOME}/${appName}.log</file>-->


        <!--当发生滚动时,决定 RollingFileAppender 的行为,涉及文件移动和重命名
            TimeBasedRollingPolicy: 最常用的滚动策略,它根据时间来制定滚动策略,既负责滚动也负责出发滚动。“%d”可以包含一个java.text.SimpleDateFormat指定的时间格式,-->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--滚动时产生的文件的存放位置及文件名称 %d{yyyy-MM-dd}:按天进行日志滚动
            %i:当文件大小超过maxFileSize时,按照i进行文件滚动-->
            <fileNamePattern>${LOG_HOME}/${appName}-%d{yyyy-MM-dd}-%i.log</fileNamePattern>

            <!--可选节点,控制保留的归档文件的最大数量,超出数量就删除旧文件。假设设置每天滚动,
        且maxHistory是365,则只保存最近365天的文件,删除之前的旧文件。注意,删除旧文件是,
        那些为了归档而创建的目录也会被删除。-->
            <MaxHistory>365</MaxHistory>
            <!-- 该属性在 1.1.6版本后 才开始支持,日志量最大20GB-->
            <totalSizeCap>20GB</totalSizeCap>

            <!--当日志文件超过maxFileSize指定的大小是,根据上面提到的%i进行日志文件滚动 注意此处配置 SizeBasedTriggeringPolicy 是无法实现按文件大小进行滚动的,必须配置 timeBasedFileNamingAndTriggeringPolicy-->
            <timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <maxFileSize>100MB</maxFileSize>
            </timeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <!-- 日志输出格式: -->
        <layout class="ch.qos.logback.classic.PatternLayout">
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [ %thread ] ->> [ %-5level ] [ %logger{50} : %line ] ->> %msg%n
            </pattern>
        </layout>
    </appender>

    <!-- 滚动记录文件,先将日志记录到指定文件,当符合某个条件时,将日志记录到其他文件 -->
    <appender name="appLogAppenderBoot" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">

            <fileNamePattern>${LOG_HOME}/boot-${appName}-%d{yyyy-MM-dd}-%i.log</fileNamePattern>

            <MaxHistory>365</MaxHistory>

            <timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <maxFileSize>100MB</maxFileSize>
            </timeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <layout class="ch.qos.logback.classic.PatternLayout">
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [ %thread ] -> [ %-5level ] [ %logger{50} : %line ] -> %msg%n</pattern>
        </layout>
    </appender>

    <!--root是默认的logger,root与logger是父子关系,没有特别定义则默认为root,任何一个类只会和一个logger对应,
    要么是定义的logger,要么是root,判断的关键在于找到这个logger,然后判断这个logger的appender和level。 -->
    <root level="DEBUG">
        <!--定义了三个appender,日志会通过往这这些appender里面写-->
        <appender-ref ref="stdout"/>
        <appender-ref ref="appLogAppender"/>
        <appender-ref ref="appLogAppenderBoot"/>
    </root>

    <!--logger主要用于存放日志对象,也可以定义日志类型、级别-->
    <!--name:表示匹配的logger类型前缀,也就是包的前半部分-->
    <!--level:要记录的日志级别,包括 TRACE < DEBUG < INFO < WARN < ERROR 越往后越精简-->
    <!--additivity:作用在于children-logger是否使用 rootLogger配置的appender进行输出,-->
    <!--false:表示只用当前logger的appender-ref,true:表示当前logger的appender-ref和rootLogger的appender-ref都有效-->
    <!--    Spring framework logger 记录 spring 的日志 -->
    <logger name="org.springframework.boot" level="debug" additivity="false">
        <appender-ref ref="appLogAppenderBoot"/>
    </logger>

    <!--通过 LoggerFactory.getLogger("mytest") 可以获取到这个logger-->
    <!--由于这个logger自动继承了root的appender,root中已经有stdout的appender了,自己这边又引入了stdout的appender-->
    <!--如果没有设置 additivity="false" ,就会导致一条日志在控制台输出两次的情况,原因是:没有写additivity会用 rootlogger 输出日志,而它下面有三个appender,单appLogAppenderBoot经过自定义,不会输出,stdout则会打印两遍-->
    <!--additivity表示要不要使用rootLogger配置的appender进行输出-->
    <logger name="com.tuniu" level="debug" additivity="false">
        <!--即输出到appLogAppender,又输出到stdout-->
        <appender-ref ref="appLogAppender"/>
        <appender-ref ref="stdout"/>
    </logger>


    <!--对于类路径以 com.tuniu 开头的Logger,输出级别设置为 warn,-->
    <!--这个logger没有指定appender,它会继承root节点中定义的那些appender-->
    <!--注意,如果名称相同,两个 logger 会有属性互补机制;而且以最后一个加载的属性为准,可以理解为 boot的 bootstrap.properties与 application.yml-->
    <!--
        <logger name="com.tuniu" level="warn"/>
        如果将上面的这段配置放开,就如同写了:
        <logger name="com.tuniu" level="warn" additivity="false">
            <appender-ref ref="appLogAppender"/>
        </logger>
    -->

    <!--由于设置了 additivity="false" ,所以输出时不会使用rootLogger的appender-->
    <!--但是这个logger本身又没有配置 appender,所以使用这个logger输出日志的话就不会输出到任何地方-->
<!--    <logger name="mytest2" level="info" additivity="false"/>-->

</configuration>

13、logback常用配置备份

贴个精简版的,目前工作中服务正在用的:

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true" scanPeriod="60 seconds" debug="false">
    <!-- 日志存放路径 -->
    <property name="log.path" value="/logs"/>
    <!-- 日志输出格式 -->
    <property name="log.pattern"
              value="%d{HH:mm:ss.SSS} [%thread] %-5level [%X{X-B3-TraceId:-},%X{X-B3-SpanId:-}] %logger{20} - [%method,%line] - %msg%n"/>

    <!-- 控制台输出 -->
    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>${log.pattern}</pattern>
        </encoder>
    </appender>

    <!-- 系统日志输出 -->
    <appender name="file_info" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${log.path}/data-service-ent-svc-info.log</file>
        <!-- 循环政策:基于时间创建日志文件 -->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- 日志文件名格式 -->
            <fileNamePattern>${log.path}/data-service-xxx-svc-info.%d{yyyy-MM-dd}.log</fileNamePattern>
            <!-- 日志最大的历史 60天 -->
            <maxHistory>7</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>${log.pattern}</pattern>
        </encoder>
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <!-- 过滤的级别 -->
            <level>INFO</level>
            <!-- 匹配时的操作:接收(记录) -->
            <onMatch>ACCEPT</onMatch>
            <!-- 不匹配时的操作:拒绝(不记录) -->
            <onMismatch>DENY</onMismatch>
        </filter>
    </appender>

    <appender name="file_error" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${log.path}/data-service-xxx-svc-error.log</file>
        <!-- 循环政策:基于时间创建日志文件 -->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- 日志文件名格式 -->
            <fileNamePattern>${log.path}/data-service-ent-svc-error.%d{yyyy-MM-dd}.log</fileNamePattern>
            <!-- 日志最大的历史 60天 -->
            <maxHistory>7</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>${log.pattern}</pattern>
        </encoder>
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <!-- 过滤的级别 -->
            <level>ERROR</level>
            <!-- 匹配时的操作:接收(记录) -->
            <onMatch>ACCEPT</onMatch>
            <!-- 不匹配时的操作:拒绝(不记录) -->
            <onMismatch>DENY</onMismatch>
        </filter>
    </appender>

    <!-- 系统模块日志级别控制  -->
    <logger name="com.plat" level="info"/>
    <!-- Spring日志级别控制  -->
    <logger name="org.springframework" level="warn"/>

    <root level="info">
        <appender-ref ref="console"/>
    </root>

    <!--系统操作日志-->
    <root level="info">
        <appender-ref ref="file_info"/>
        <appender-ref ref="file_error"/>
    </root>
</configuration>

上面日志存放路径是/logs,而deploy部署文件则是将这个路径持久化到hostpath中,以便后续排查问题:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: xxx-svc-deployment
  namespace: mynamespace
spec:
  selector:
    matchLabels:
      app: xxx-svc-deployment
  template:
    metadata:
      labels:
        app: xxx-svc-deployment
    spec:
      dnsPolicy: ClusterFirst
      containers:
        - name: xxx-svc-deployment
          image: repoistory.xxx-svc-deployment:release-2.0
          ports:
            - containerPort: 9527
          volumeMounts:
            - mountPath: /logs
              name: go-logs     # 持久化到宿主机的hostpath
      volumes:
        - name: go-logs
          hostPath:
            path: /data/logs



参考文章:

  • https://www.cnblogs.com/xrq730/p/8619156.html
  • https://www.cnblogs.com/xrq730/p/8628945.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1025618.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

带你读懂任正非先生的最新讲话——与ICPC代表讲话纪要(一)

2023年9月19日&#xff0c;在ICPC中国赛区北京总部的官网&#xff08;设立在北京大学&#xff09;上发布了一条新闻&#xff1a;《今天我们汇聚一堂&#xff0c;明天我们将奔向四面八方——任正非与ICPC基金会及教练和金牌获得者的学生的谈话纪要》。 2023年8月21日和8月26日&a…

Java笔记:Java虚拟机的指令

1. 字节码指令集 1.1 概述 Java虚拟机的指令由一个字节长度的、代表着某种特定操作含义的数字&#xff08;称为操作码&#xff0c;Opcode&#xff09; 以及跟随其后的零至多个代表此操作所需参数&#xff08;称为操作数&#xff0c;Operands&#xff09;而构成。 比如&#x…

对话ChatGPT:AIGC时代下,分布式存储的应用与前景

随着科技的飞速发展&#xff0c;我们正步入一个被称为AIGC时代的全新阶段&#xff0c;人工智能、物联网、大数据、云计算成为这个信息爆炸时代的主要特征。自2022年11月以来&#xff0c;ChatGPT的知名度迅速攀升&#xff0c;引发了全球科技爱好者的极大关注&#xff0c;其高超的…

【23种设计模式】装饰模式(九)

前言 装饰模式&#xff0c;英文名称&#xff1a;Decorator Pattern。我第一次看到这个名称想到的是另外一个词语“装修”&#xff0c;我就说说我对“装修”的理解吧&#xff0c;大家一定要看清楚&#xff0c;是“装修”,不是“装饰”。在房子装修的过程中&#xff0c;各种功能可…

Jenkins学习笔记3

gitgithubjenkins&#xff1a; 架构图&#xff1a; 说明&#xff1a;jenkins知道github有更新了&#xff0c;就pull进行构建build&#xff0c;编译、自动化测试。然后部署到应用服务器。 maven java的项目构建工具。 在开发者电脑上创建空密码密钥对。 [rootgit-developer ~…

系统架构设计师-数据库系统(3)

目录 一、数据控制 1、安全性 2、完整性 3、并发控制 4、故障恢复 二、数据库设计概述 1、数据库设计关注的问题 2、数据库性能优化 3、规范化与反规范化 一、数据控制 1、安全性 2、完整性 &#xff08;1&#xff09;实体完整性约束&#xff1a;规定基本关系的主属性不能取空…

论文写作格式经验

论文写作经验&#xff1a; 交叉引用 在公式后输入#&#xff08;1&#xff09;&#xff0c;回车选中&#xff08;1&#xff09;&#xff0c;选择插入->添加书签,自定义书签名交叉引用->引用类型&#xff1a;书签一个公式对应一个书签 这样就可以只显示公式编号了 word转p…

数据的力量,环保的未来!气象信息采集系统解决方案助您实现环境优化

小伙伴们,今天给大家讲一个真实的案例,看看如何用气象信息采集系统提高环保监测能力。 随着环境污染问题越来越严重,许多城市都开始建设空气质量监测站,对各类污染数据进行采集。但是传统的监测站设备复杂,采集范围有限,这就需要用到工业物联网的解决方案。 我们公司参与建设了…

R语言-关于颜色

目录 颜色 示例 R 颜色板 参考&#xff1a; 颜色 什么场景会用到颜色&#xff1f;比如在绘图过程中&#xff0c;为了让图更好看&#xff0c;有的时候&#xff0c;需要选择使用不同的颜色进行绘制或者填充。本文提供了R颜色的相关参数。 在R中&#xff0c;可以通过颜色下标…

面向面试知识-Redis

面向面试知识-Redis 什么是Redis 运行于内存的基于key-value的非关系型数据库。 一款开源的内存数据结构存储&#xff0c;用作数据库、缓存、消息代理等。&#xff08;可以基于Redis实现分布式锁、以及消息队列&#xff09; 发布订阅&#xff1f;&#xff1f; 对数据类型的操…

数据库数据恢复-SQL SERVER数据库文件损坏的故障表现数据恢复方案

SQL SERVER数据库故障类型&#xff1a; SQL SERVER数据库MDF&#xff08;NDF&#xff09;或LDF损坏。 SQL SERVER数据库故障原因&#xff1a; 1、数据库正在操作过程中&#xff0c;机器突然断电。 2、人为误操作。 SQL SERVER数据库MDF&#xff08;NDF&#xff09;或LDF损坏的…

Qt/C++音视频开发55-加密保存到文件并解密播放

一、前言 为了保证视频文件的安全性&#xff0c;有时候需要对保存的视频文件加密&#xff0c;然后播放的时候解密出来再播放&#xff0c;只有加密解密的秘钥一致时才能正常播放&#xff0c;用ffmpeg做视频文件的加密保存和解密播放比较简单&#xff0c;基于ffmpeg强大的字典参…

2023最全软件测试面试八股文(答案+文档+视频讲解)

Part1 1、你的测试职业发展是什么&#xff1f; 测试经验越多&#xff0c;测试能力越高。所以我的职业发展是需要时间积累的&#xff0c;一步步向着高级测试工程师奔去。而且我也有初步的职业规划&#xff0c;前3年积累测试经验&#xff0c;按如何做好测试工程师的要点去要求自…

【C语言】指针的进阶(三)—— 模拟实现qsort函数以及指针和数组的笔试题解析

目录 1、模拟实现qsort函数 1.1、qsort函数的回顾 1.2、模拟实现qsort函数 2、指针和数组笔试题解析 2.1、一维数组 2.2、字符数组 1、模拟实现qsort函数 1.1、qsort函数的回顾 要模拟实现qsort函数&#xff0c;就要了解清楚qsort函数的参数以及使用方式。 我们先回顾一…

PyTorch实战:实现Cifar10彩色图片分类

目录 前言 一、Cifar10数据集 class torch.utils.data.Dataset torch.utils.data.DataLoader 二、定义神经网络 普通神经网络: 定义损失函数和优化器 训练网络-Net CPU训练 模型准确率 ​编辑 GPU训练 训练网络-LeNet 模型准确率 点关注&#xff0c;防走丢&#x…

9月15日、9月18日上课内容 Zookeeper集群 + Kafka集群

Zookeeper 本章结构 Zookeeper 概述 Zookeeper 定义 *&#xff08;了解&#xff09; Zookeeper是一个开源的分布式的&#xff0c;为分布式框架提供协调服务的Apache项目。 Zookeeper 工作机制 *****&#xff08;非常重要&#xff0c;需要掌握&#xff09; Zookeeper从设计模式…

用低代码开发工具高效构建企业门户

企业信息门户EIP是指将各种应用系统、数据资源和互联网资源统一集中&#xff0c;根据每个用户使用特点和角色的不同&#xff0c;形成个性化的应用界面&#xff0c;并通过对事件和消息的处理、传输把用户有机地联系在一起。 企业随着业务的发展&#xff0c;运作的复杂度也在不断…

第三十二章 Objects

[toc] 第三十二章 Objects Objects 对象类简介 IRIS 通过以下对象类提供对象技术&#xff1a; %Library.RegisteredObject、 %Library.Persistent %Library.SerialObject。 下图展示了这些类之间的继承关系&#xff0c;以及它们的一些参数和方法。 %Library 包的类名称可以…

Vite + Vue3 使用cdn引入依赖 vite cdn vue3 cdn vite引入cdn

Vite Vue3 使用cdn引入依赖 vite cdn vue3 cdn vite引入cdn 1、安装插件2、在 vite.config.js 引用3、main.js4、打包测试 1、安装插件 npm install element-plus --save2、在 vite.config.js 引用 import { defineConfig } from vite import vue from vitejs/plugin-vue// …

用开源代码构建机器人需要考虑的问题

导读或许你正在考虑&#xff08;或正在进行&#xff09;将机器人使用开源软件推向市场。这个机器人是基于 linux 构建的。也许你正在使用机器人操作系统&#xff08;ROS&#xff09;或任务导向操作套件&#xff08;MOOS&#xff09;&#xff0c;或者是另外一个可以帮助你简化开…