分布式之日志系统平台ELK

news2025/2/28 3:25:59

ELK解决了什么问题

我们开发完成后发布到线上的项目出现问题时(中小型公司),我们可能需要获取服务器中的日志文件进行定位分析问题。但在规模较大或者更加复杂的分布式场景下就显得力不从心。因此急需通过集中化的日志管理,将所有服务器上的日志进行收集汇总。所以ELK应运而生,它通过一系列开源框架提供了一整套解决方案,将所有节点上的日志统一收集、存储、分析、可视化等。

  • 注意:ELK不仅仅适用于日志分析,它还可以支持其它任何数据分析(比如我们之前项目开发中通过ES实现了用户在不同周期内访问系统的活跃度)和收集的场景,日志分析和收集只是更具有代表性而并非唯一性

概念

ELK是Elasticsearch(存储、检索数据)、Logstash(收集、转换、筛选数据)、Kibana(可视化数据) 三大开源框架的首字母大写简称,目前通常也被称为Elastic Stack(在 ELK的基础上增加了 Beats)

单机版的日志系统架构

Elasticsearch(ES,Port:9200)

  • 开源分布式搜索引擎,提供搜集、分析、存储数据功能
  • ES是面向文档document存储,它可以存储整个对象或文档(document)。同时也可以对文档进行索引、搜索、排序、过滤。这种理解数据的方式与传统的关系型数据库完全不同,因此这也是ES能够执行复杂的全文搜索的原因之一,document可以类比为RDMS中的行
  • ES使用JSON作为文档序列化格式,统一将document数据转换为json格式进行存储,JSON已经成为NoSQL领域的标准格式
  • ES是基于Lucene实现的全文检索,底层是基于倒排的索引方法,用来存储在全文检索下某个单词在一个/组文档中的存储位置[倒排索引是ES具有高检索性能的本质原因]
  • ES-head插件(Port:9100)

    • 查看我们导入的数据是否正常生成索引
    • 数据删除操作

    • 数据浏览

  • Index: Index是文档的容器,在ES的早期版本中的index(类似于RDMS中的库)中还包含有type(类似于RDMS中的表)的概念。但在后续版本中,type被逐渐取消而index同时具有数据库和表的概念

  • 查询DSL: 使用JSON格式并基于RESTful API进行通信,提供了全文搜索、范围查询、布尔查询、聚合查询等不同的搜索需求

Logstash(Port:5044)

  • ELK的数据流引擎,从不同目标(文件/数据存储/MQ)收集的不同格式数据,经过滤后输出到ES
  • Filebeat是一个轻量级的日志收集处理工具(Agent),占用资源少,可在各服务器上搜集信息后传输给Logastash(官方推荐)
  • logback+rabbitmq整合日志模式下,我们在logstash.conf配置input从rabbitmq绑定的队列读取日志->filter解析和处理(可选)->output输出日志到目标ES

Kibana(Port:5601)

  • 分析和可视化数据:利用工具分析 es中的数据,编制图表仪表板,利用仪表、地图和其他可视化显示发现的内容
  • 搜索、观察和保护数据:向应用和网站添加搜索框,分析日志和指标,并发现安全漏洞
  • 管理、监控和保护 Elastic Stack:监控和管理 es集群、kibana等 elastic stack的运行状况,并控制用户访问特征和数据
  • 常用核心功能
    • Discover: 浏览ES索引中的数据,还可以添加筛选条件进而查看感兴趣的数据
Discover
    • Dev_Tool: 用ES支持的语法编写查询条件查询,也可用于测试代码中的查询条件
用于运维/开发查询
    • 管理:索引管理和索引模式
      •  索引管理:查看索引的运行状况、状态、主分片和副本分片等信息
      • 索引模式:用于匹配命名符合一定规律的单个或多个索引,便于在 discover界面查看和分析目标索引的数据
    • Monitoring: 查看ES集群版本、运行时间、节点状态情况和索引情况
实际项目开发中单节点部署的ES/Kibana信息
    • 可视化: 根据需求可创建条形图、饼图、云图(词云图)进行个性化定制

项目实战

在公司项目实际开发中我们基于logback -> rabbitmq -> elk 工作模式进行日志收集,实现了日志的集中管理。在此基础上通过ES搜索建立系统可视化看板来显示用户在不同周期内访问系统的活跃度

注意:logback是日志框架(log4j也是一种日志框架),而slf4j是日志门面接口

具体相关核心实现流程

  1. Maven导入Logback、ElasticSearch依赖
    <dependency>
    	<groupId>net.logstash.logback</groupId>
    	<artifactId>logstash-logback-encoder</artifactId>
    	<version>5.1</version>
    </dependency>
    <dependency>
    	<groupId>net.logstash.log4j</groupId>
    	<artifactId>jsonevent-layout</artifactId>
    	<version>1.7</version>
    </dependency>
    
    <dependency>
    	<groupId>org.elasticsearch</groupId>
    	<artifactId>elasticsearch</artifactId>
    	<version>6.3.1</version>
    </dependency>
    <dependency>
    	<groupId>org.elasticsearch.client</groupId>
    	<artifactId>transport</artifactId>
    	<version>6.3.1</version>
    </dependency>
    <dependency>
    	<groupId>org.elasticsearch.plugin</groupId>
    	<artifactId>transport-netty4-client</artifactId>
    	<version>6.3.1</version>
    </dependency>
  2. 定义logback-prod.xml配置文件
    # 首先需要在application.yml文件配置log日志相关属性配置
    logging:
      config: classpath:logback-prod.xml #配置logback文件,本地开发不需要配置
      file: logs/${logback.log.file} #存储日志的文件
    
    #我们logback采用Rabbitmq方式收集日志时消息服务配置信息
    logback:
      log:
        path: "./logs/"
        file: logback_amqp.log
      amqp:
        host: 10.225.225.225
        port: 5672
        username: admin
        password: admin
    <?xml version="1.0" encoding="UTF-8"?>
    <configuration  scan="true" scanPeriod="60 seconds" debug="false">
    	<include resource="org/springframework/boot/logging/logback/base.xml" />
    	<contextName>logback</contextName>
    	<!-- 日志输出路径: source对应的值取自application.yml文件-->
    	<springProperty scope="context"  name="log.path" source="logback.log.path" />
    	<springProperty scope="context"  name="log.file" source="logback.log.file" />
    	<springProperty scope="context" name="logback.amqp.host" source="logback.amqp.host"/>
    	<springProperty scope="context" name="logback.amqp.port" source="logback.amqp.port"/>
    	<springProperty scope="context" name="logback.amqp.username" source="logback.amqp.username"/>
    	<springProperty scope="context" name="logback.amqp.password" source="logback.amqp.password"/>
    	
    	<!-- 输出到logstash的appender-->
    	<appender name="stash-amqp" class="org.springframework.amqp.rabbit.logback.AmqpAppender"> 
    		<!--日志收集模式:logback -> rabbitmq -> elk 工作模式,因此我们需要使用net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder实现-->
    		<encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
    			<providers>
    		    	<pattern>
    		    		<!-- 其中"application": "application"中的值必须为小写,否则elk创建index报错(elk创建index基本规则为:字母必须都为小写) -->
    			 		<pattern>
    			        {
    						"time": "%date{ISO8601}", 
    						"thread": "%thread", 
    						"level": "%level", 
    						"class": "%logger{60}", 
    						"message": "%message", 
    						"application": "application" 
    					}
    			      	</pattern>
    		    	</pattern>
    		  	</providers>
    		</encoder>
    		<host>${logback.amqp.host}</host> 
    		<port>${logback.amqp.port}</port> 
    		<username>${logback.amqp.username}</username> 
    		<password>${logback.amqp.password}</password>
    		<declareExchange>true</declareExchange> 
    		<exchangeType>fanout</exchangeType> 
    		<exchangeName>ex_common_application_Log</exchangeName> <!-- 需在rabbitmq页面手动配置交换机与队列-->
    		<generateId>true</generateId> 
    		<charset>UTF-8</charset> 
    		<durable>true</durable> 
    		<deliveryMode>PERSISTENT</deliveryMode> 
    	</appender> 
    	<!--输出到控制台-->
    	<appender name="console" class="ch.qos.logback.core.ConsoleAppender">
    	    <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
    	    	<!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
    	        <pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{36} - %msg%n</pattern>
    	    </encoder>
        </appender>
        <!--输出到文件-->
        <!-- 按照每天生成日志文件 -->
        <appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender">
       		<file>${log.path}/${log.file}</file>
       		<rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
       			<!--日志文件输出的文件名,如果文件名为.zip结尾,则归档时支持自动压缩-->
       			<fileNamePattern>${log.path}/%d{yyyy/MM}/${log.file}.%i.zip</fileNamePattern>
       			<!--日志文件保留天数-->
       			<MaxHistory>30</MaxHistory>
       			<!-- 最多存储5GB日志 -->
       			<totalSizeCap>5GB</totalSizeCap>
       			<!-- 每个文件最大500MB -->
       			<maxFileSize>300MB</maxFileSize>
       		</rollingPolicy>
       		<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
       			<!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
       			<pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{36} - %msg%n</pattern>
       		</encoder>
       	</appender>
       	<!-- 总开关 -->
       	<!-- 日志输出级别 -->
        <root level="info">
            <!-- <appender-ref ref="console" /> -->
            <appender-ref ref="file" />
            <appender-ref ref="stash-amqp" />
        </root>
    </configuration>
  3. SpringBoot集成Elasticsearch
    # 所属应用的yml文件配置elasticsearch信息
    elasticsearch:
      protocol: http
      hostList: 10.225.225.225:9200 # elasticsearch集群-单节点
      connectTimeout: 5000
      socketTimeout: 5000
      connectionRequestTimeout: 5000
      maxConnectNum: 10
      maxConnectPerRoute: 10
      username:    # 帐号为空
      password:    # 密码为空

    Elasticsearch配置类

    package com.bierce;
    
    import java.io.IOException;
    import java.util.concurrent.TimeUnit;
    import org.apache.commons.lang3.StringUtils;
    import org.apache.http.HttpHost;
    import org.apache.http.auth.AuthScope;
    import org.apache.http.auth.UsernamePasswordCredentials;
    import org.apache.http.client.CredentialsProvider;
    import org.apache.http.client.config.RequestConfig.Builder;
    import org.apache.http.impl.client.BasicCredentialsProvider;
    import org.apache.http.impl.nio.client.HttpAsyncClientBuilder;
    import org.elasticsearch.client.RestClient;
    import org.elasticsearch.client.RestClientBuilder;
    import org.elasticsearch.client.RestClientBuilder.HttpClientConfigCallback;
    import org.elasticsearch.client.RestHighLevelClient;
    import org.elasticsearch.client.sniff.ElasticsearchHostsSniffer;
    import org.elasticsearch.client.sniff.HostsSniffer;
    import org.elasticsearch.client.sniff.SniffOnFailureListener;
    import org.elasticsearch.client.sniff.Sniffer;
    import org.springframework.beans.factory.annotation.Value;
    import org.springframework.context.annotation.Bean;
    import org.springframework.context.annotation.Configuration;
    
    /**
     * 
     * @ClassName: ElasticSearchConfiguration
     * @Description: ES配置类
     */
    @Configuration
    public class ElasticSearchConfiguration {
    
        @Value("${elasticsearch.protocol}") // 基于Http协议
        private String protocol;
        @Value("${elasticsearch.hostlist}") // 集群地址,如果有多个用“,”隔开
        private String hostList;
        @Value("${elasticsearch.connectTimeout}") // 连接超时时间
        private int connectTimeout;
        @Value("${elasticsearch.socketTimeout}") // Socket 连接超时时间
        private int socketTimeout;
        @Value("${elasticsearch.connectionRequestTimeout}") // 获取请求连接的超时时间
        private int connectionRequestTimeout;
        @Value("${elasticsearch.maxConnectNum}") // 最大连接数
        private int maxConnectNum;
        @Value("${elasticsearch.maxConnectPerRoute}") // 最大路由连接数
        private int maxConnectPerRoute;
        @Value("${elasticsearch.username:}")
        private String username;
         @Value("${elasticsearch.password:}")
        private String password;
        
    	// 配置restHighLevelClient,
    	// 当Spring容器关闭时,应该调用RestHighLevelClient类的close方法来执行清理工作
        @Bean(destroyMethod="close")
    	public RestHighLevelClient restHighLevelClient() { 
        	
        	String[] split = hostList.split(",");
    		HttpHost[] httphostArray = new HttpHost[split.length];
    		SniffOnFailureListener sniffOnFailureListener = new SniffOnFailureListener();
    		
    		//获取集群地址进行ip和端口后放入数组
    		for(int i=0; i<split.length; i++) {
    			String hostName = split[i];
    			httphostArray[i] = new HttpHost(hostName.split(":")[0], Integer.parseInt(hostName.split(":")[1]), protocol);
    		}
    		
    		// 构建连接对象
    		// 为RestClient 实例设置故障监听器
            RestClientBuilder builder = RestClient.builder(httphostArray).setFailureListener(sniffOnFailureListener);
    		// 异步连接延时配置
            builder.setRequestConfigCallback(new RestClientBuilder.RequestConfigCallback() {
            	@Override
    			public Builder customizeRequestConfig(Builder requestConfigBuilder) {
    				requestConfigBuilder.setConnectTimeout(connectTimeout);
    	        	requestConfigBuilder.setSocketTimeout(socketTimeout);
    	        	requestConfigBuilder.setConnectionRequestTimeout(connectionRequestTimeout);
    	        	return requestConfigBuilder;
    			}
            });
            // 连接认证
            CredentialsProvider credentialsProvider = new BasicCredentialsProvider();
            if( StringUtils.isNotBlank( username ) && StringUtils.isNotBlank(password )) {
            	credentialsProvider.setCredentials(AuthScope.ANY, new UsernamePasswordCredentials(username, password));
            }
            // 异步连接数配置
            builder.setHttpClientConfigCallback(new HttpClientConfigCallback() {
    			@Override
    			public HttpAsyncClientBuilder customizeHttpClient(HttpAsyncClientBuilder httpClientBuilder) {
    				httpClientBuilder.setMaxConnTotal(maxConnectNum);
    				httpClientBuilder.setMaxConnPerRoute(maxConnectPerRoute);
    				// 设置帐号密码
    				if(credentialsProvider != null 
    						&& StringUtils.isNotBlank( username ) && StringUtils.isNotBlank(password )) {
    					httpClientBuilder.setDefaultCredentialsProvider(credentialsProvider);
    				}
    				return httpClientBuilder;
    			}
            });
            
            
            RestHighLevelClient restHighLevelClient = new RestHighLevelClient(builder);
            RestClient restClient = restHighLevelClient.getLowLevelClient();
            
            HostsSniffer hostsSniffer = new ElasticsearchHostsSniffer(restClient,
                    ElasticsearchHostsSniffer.DEFAULT_SNIFF_REQUEST_TIMEOUT,
                    ElasticsearchHostsSniffer.Scheme.HTTP);
            try {
            	/* 故障后嗅探,不仅意味着每次故障后会更新节点,也会添加普通计划外的嗅探行为,
                 * 默认情况是故障之后1分钟后,假设节点将恢复正常,那么我们希望尽可能快的获知。
                 * 如上所述,周期可以通过 `setSniffAfterFailureDelayMillis` 
                 * 方法在创建 Sniffer 实例时进行自定义设置。需要注意的是,当没有启用故障监听时,
                 * 这最后一个配置参数不会生效 
                 */
                Sniffer sniffer = Sniffer.builder(restClient)
                		.setSniffAfterFailureDelayMillis(30000)
                		.setHostsSniffer(hostsSniffer)
                		.build();
                // 将嗅探器关联到嗅探故障监听器上
                sniffOnFailureListener.setSniffer(sniffer); 
    			sniffer.close();
    		} catch (IOException e) {
    			e.printStackTrace();
    		}
            return restHighLevelClient;
        } 
    }
    
  4. 通过ES提供的API搜索相关数据
    package com.bierce;
    
    /**
     * 
     * @ClassName: UserVisitInfo
     * @Description: 用戶访问系统相关信息类
     *
     */
    public class UserVisitInfo {
    	private String dayOfWeek; // 星期几
    	private Long docCount; //访问次数
    
    	public UserVisitInfo() {
    	}
    	public UserVisitInfo(String dayOfWeek, Long docCount) {
    		super();
    		this.dayOfWeek = dayOfWeek;
    		this.docCount = docCount;
    	}
    	public String getDayOfWeek() {
    		return dayOfWeek;
    	}
    	public void setDayOfWeek(String dayOfWeek) {
    		this.dayOfWeek = dayOfWeek;
    	}
    	public Long getDocCount() {
    		return docCount;
    	}
    	public void setDocCount(Long docCount) {
    		this.docCount = docCount;
    	}
    	@Override
    	public String toString() {
    		return "UserVisitInfo [dayOfWeek=" + dayOfWeek + ", docCount=" + docCount + "]";
    	}
    }
    package com.bierce;
    
    import java.util.ArrayList;
    import java.util.List;
    import com.bierce.UserVisitInfo;
    import org.elasticsearch.action.search.SearchResponse;
    import org.elasticsearch.client.RestHighLevelClient;
    import org.elasticsearch.index.query.QueryBuilder;
    import org.elasticsearch.index.query.QueryBuilders;
    import org.elasticsearch.script.Script;
    import org.elasticsearch.search.aggregations.AggregationBuilders;
    import org.elasticsearch.search.aggregations.Aggregations;
    import org.elasticsearch.search.aggregations.bucket.histogram.Histogram;
    import org.elasticsearch.search.aggregations.bucket.histogram.HistogramAggregationBuilder;
    import org.elasticsearch.search.aggregations.bucket.terms.TermsAggregationBuilder;
    import org.elasticsearch.search.builder.SearchSourceBuilder;
    import org.springframework.beans.factory.annotation.Autowired;
    import org.springframework.stereotype.Service;
    
    /**
     * 
     * @ClassName: VisitUserCountSearchTemplate
     * @Description: 获取用户不同周期内活跃度
     *
     */
    @Service
    public class VisitUserCountSearchTemplate {
    
    	private static final String INDEX_PREFIX = "user-visit-";
    	
    	@Autowired
    	private RestHighLevelClient restHighLevelClient;
    	
    	/**
    	 * 
    	 * @Title: getUserActivityInfo
    	 * @Description: 获取用户访问系统活跃度
    	 * @param startDate
    	 * @param endDate
    	 * @return
    	 */
    	public List<UserVisitInfo> getUserActivityInfo(String startDate, String endDate) {
    		
    		SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    		searchSourceBuilder.size(0);
    		searchSourceBuilder.query(QueryBuilders.matchAllQuery());
    		
    		// 设置聚合查询相关參數
    		String aggregationName = "timeslice";
    		String rangeField = "@timestamp";
    		String termField = "keyword";
    		Script script = new Script("doc['@timestamp'].value.dayOfWeek");
    		String[] igonredAppCode = {"AMQP", "Test"}; 
    		
    		QueryBuilder timeQueryBuilder = QueryBuilders.boolQuery().must(QueryBuilders.rangeQuery(rangeField).gte(startDate).lte(endDate))
    																.mustNot(QueryBuilders.termsQuery(termField, igonredAppCode))
    																.filter(QueryBuilders.existsQuery(termField));
    		
    		// 按照星期几搜索对应数据
    		HistogramAggregationBuilder dayOfWeekAggregationBuilder = AggregationBuilders.histogram(aggregationName).script(script).interval(1).extendedBounds(1, 7);
    		
    		searchSourceBuilder.query(timeQueryBuilder);
    		searchSourceBuilder.aggregation(dayOfWeekAggregationBuilder);		
    																					
    		SearchResponse searchResponse = ElasticsearchUtils.buildSearchSource(INDEX_PREFIX + "*", searchSourceBuilder, client);																		
    																					
    		List<UserVisitInfo> userActivityInfoList = new ArrayList<>();
    		Aggregations aggregations = searchResponse.getAggregations();
    		Histogram dayOfWeekHistogram = aggregations.get(aggregationName);
    		List<? extends Histogram.Bucket> buckets = dayOfWeekHistogram.getBuckets();
    		
    		for(Histogram.Bucket bucket: buckets) {
    			String dayOfWeek = bucket.getKeyAsString();
    			long docCount = bucket.getDocCount();
    			UserVisitInfo item = new UserVisitInfo(dayOfWeek, docCount);
    			userActivityInfoList.add(item);
    		}
    		
    		return userActivityInfoList;
    	}
    }
    
  5. 将数据返回给前台进行页面渲染,最终实现的效果
可按条件筛选显示用户在不同周期内访问系统的活跃度

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1841384.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Android Glide, first start based on loadThumbnail, Kotlin(二)

Android Glide, first start based on loadThumbnail, Kotlin&#xff08;二&#xff09; Android Glide, first start based on loadThumbnail, Kotlin&#xff08;一&#xff09;中有个小问题&#xff0c;通过loadThumbnail()采集到的缩略图真的就是整张图片的完整缩略图&…

NET Core C# 中的Action委托:语法、用法和示例_2024-06-19

Action委托是一个内置的泛型委托类型。此委托使您的程序更具可读性和效率&#xff0c;因为您无需定义自定义委托&#xff0c;如以下示例所示。 它在 System 命名空间下定义。它没有输出参数&#xff0c;输入参数最少为 1 个&#xff0c;最多为 16 个。 Action委托通常用于具有…

高压电阻器支持牙科 X 射线成像的准确性

为了捕获患者牙齿和颌骨的足够图像&#xff0c;牙医依靠锥形束计算机断层扫描 &#xff08;CBCT&#xff09; 系统的先进 3D 成像。CBCT系统的输出对于准确诊断口腔健康问题和随后的治疗计划至关重要。为了确保这些图像的可靠性&#xff0c;CBCT系统制造商利用了Exxelia Ohmcra…

【bug】配置SpringCloudAlibaba AI的maven依赖问题

问题描述 尝鲜alibaba的ai模块&#xff0c;maven依赖一直报找不到包&#xff0c;报错如下 Unresolved dependency: org.springframework.ai:spring-ai-core:jar:0.8.1原因分析&#xff1a; 由于是按照官方文档配置的&#xff0c;所以检查了很多遍maven配置&#xff0c;加上去…

给电脑bios主板设置密码

增强安全性&#xff1a;防止未经授权的人员更改 BIOS 中的重要设置&#xff0c;如启动顺序、硬件配置等。这有助于保护计算机系统的稳定性和数据的安全性。防止恶意篡改&#xff1a;阻止可能的攻击者或恶意软件通过修改 BIOS 设置来破坏系统或获取敏感信息。数据保护&#xff1…

阿里云 debian10.3 sudo apt-get updat 报错的解决方案

阿里云全新的debian10.3(buster)镜像&#xff0c;却无法正常执行 sudo apt-get update。主要报错信息如下&#xff1a; Err:6 http://mirrors.cloud.aliyuncs.com/debian buster-backports Release404 Not Found [IP: 100.100.2.148 80] Err:3 http://mirrors.cloud.aliyuncs…

【JavaEE 进阶(五)】SpringBoot日志

❣博主主页: 33的博客❣ ▶️文章专栏分类:JavaEE◀️ &#x1f69a;我的代码仓库: 33的代码仓库&#x1f69a; &#x1faf5;&#x1faf5;&#x1faf5;关注我带你了解更多进阶知识 目录 1.前言2.日志使用2.1打印日志2.2 门面模式(外观模式)2.3SLF4J框架2.4日志格式说明 3.Sl…

MySQL----配置主从复制

环境 master(CtenOS7)&#xff1a;192.168.200.131 ----ifconfig查看->ens33->inet slave(win10)&#xff1a;192.168.250.52 ----ipconfig查看->无线局域网适配器 WLAN:-> IPv4 地址 保证两个环境中MySQL版本一致 网络互通 win&#xff1a;ping 192.168.200.13…

NL2SQL进阶系列(1):DB-GPT-Hub、SQLcoder、Text2SQL开源应用实践详解

1. MindSQL(库) MindSQL 是一个 Python RAG&#xff08;检索增强生成&#xff09;库&#xff0c;旨在仅使用几行代码来简化用户与其数据库之间的交互。 MindSQL 与 PostgreSQL、MySQL、SQLite 等知名数据库无缝集成&#xff0c;还通过扩展核心类&#xff0c;将其功能扩展到 Sn…

【五子棋】C语言教程

Hi~&#xff01;这里是奋斗的小羊&#xff0c;很荣幸您能阅读我的文章&#xff0c;诚请评论指点&#xff0c;欢迎欢迎 ~~ &#x1f4a5;&#x1f4a5;个人主页&#xff1a;奋斗的小羊 &#x1f4a5;&#x1f4a5;所属专栏&#xff1a;C语言 &#x1f680;本系列文章为个人学习…

webhook-k8s API和apimachinery版本高于Client-go

1. 问题 使用go mod tidy 存在丢弃的版本 go: downloading github.com/josharian/intern v1.0.0 go: finding module for package k8s.io/api/flowcontrol/v1alpha1 go: simple-webhook/types importsk8s.io/client-go/rest tested byk8s.io/client-go/rest.test importsk8s.…

大数据-数据分析初步学习,待补充

参考视频&#xff1a;数据分析只需3小时从入门到进阶&#xff08;up亲身实践&#xff09;_哔哩哔哩_bilibili 数据指标&#xff1a; 对当前业务有参考价值的统计数据 分类&#xff1a;用户数据&#xff0c;业务数据&#xff0c;行为数据 用户数据 存量&#xff1a; DAU&#…

基于Vue3.0 Node.js 的 大文件切片上传、秒传、断点续传实现方案梳理

✨&#x1f4bb; 在处理大文件上传时&#xff0c;切片上传是提高效率与用户体验的关键技术之一。下面将详细介绍如何在前端利用Vue框架与Node.js后端配合&#xff0c;实现这一功能。 &#x1f446;&#x1f3fb;大体流程 &#x1f446;&#x1f3fb;一、文件切片上传 通过文件…

43、基于神经网络拟合函数的体脂估计(matlab)

1、神经网络拟合函数的原理及流程 神经网络拟合函数是一种基于人工神经元之间相互连接的模型&#xff0c;用来拟合复杂的非线性函数关系。其原理是通过多层次的神经元网络&#xff0c;每一层神经元通过激活函数将输入信号加权求和后输出&#xff0c;经过多次迭代优化权值&…

Java 集合框架详谈及代码分析(Iterable->Collection->List、Set->各接口实现类、Map->各接口实现类)

目录 Java 集合框架详谈及代码分析&#xff08;Iterable->Collection->List、Set->各接口实现类、Map->各接口实现类&#xff09;1、集合概述1-1&#xff1a;Java 集合概述1-2&#xff1a;List、Set、Map 三者的区别&#xff1f;1-3&#xff1a;集合框架底层数据结…

python电灯开关 青少年编程电子学会python编程等级考试三级真题解析2021年12月

python电灯开关 2021年12月 python编程等级考试级编程题 一、题目要求 1、编程实现 n个灯排成一排&#xff0c;开始时都是关着的。现进行如下操作: 所有电灯的按钮按动一次;所有编号为2的倍数的电灯按钮按动一次;所有编号为3的倍数的电灯的按钮按动一次: …所有编号为n-1的…

LeetCode 算法:删除链表的倒数第 N 个结点 c++

原题链接&#x1f517;&#xff1a;删除链表的倒数第 N 个结点 难度&#xff1a;中等⭐️⭐️ 题目 给你一个链表&#xff0c;删除链表的倒数第 n 个结点&#xff0c;并且返回链表的头结点。 示例 1&#xff1a; 输入&#xff1a;head [1,2,3,4,5], n 2 输出&#xff1a…

详细分析Element Plus的el-pagination基本知识(附Demo)

目录 前言1. 基本知识2. Demo3. 实战 前言 需求&#xff1a;从无到有做一个分页并且附带分页的导入导出增删改查等功能 前提一定是要先有分页&#xff0c;作为全栈玩家&#xff0c;先在前端部署一个分页的列表 相关后续的功能&#xff0c;是Java&#xff0c;推荐阅读&#x…

rockchip linux sdk指定编译配置文件

SDK&#xff1a;rk3568_linux4.19_V1.4.0 硬件平台&#xff1a;RK3566 一、指定板级配置文件 板级配置文件在<SDK>/device/rockchip/rk3566_rk3568目录下。 1、方法1 ./build.sh后⾯加上板级配置⽂件&#xff0c;例如&#xff1a; ./build.sh /device/rockchip/rk3…

STM32微控制器库指南:函数特性、应用范围与实践

在嵌入式系统的设计和开发中&#xff0c;STM32系列微控制器因其卓越的处理能力和多样的外设选项而广受推崇。STM32库函数作为开发流程中不可或缺的工具&#xff0c;扮演着至关重要的角色。本文将详细阐述STM32库函数的主要特性、应用场景及其在实际开发中的应用实例。 什么是ST…