文章目录
- 3. 用户行为日志
- 3.4 服务器和JDK准备
- 3.4.1 服务器准备
- 3.4.2 编写集群分发脚本xsync
- 3.4.3 SSH无密登录配置
- 3.4.4 JDK准备
- 3.4.5 环境变量配置说明
- 3.5 模拟数据
- 3.5.1 使用说明
- 3.5.1.1 将application.yml、gmall2020-mock-log-2021-10-10.jar、path.json、logback.xml上传到hadoop102的/opt/module/applog目录下
- 3.5.1.1.1 创建applog路径
- 3.5.1.1.2 上传文件到/opt/module/applog目录
- 3.5.1.2 配置文件
- 3.5.1.2.1 application.yml文件
- 3.5.1.2.2 path.json,该文件用来配置访问路径
- 3.5.1.2.3 logback配置文件
- 3.5.1.3 生成日志
- 3.5.1.3.1 进入到/opt/module/applog路径,执行以下命令
- 3.5.1.3.2 在/opt/module/applog/log目录下查看生成日志
- 3.5.1.4 分发数据
- 3.5.2 集群日志生成脚本
- 3.5.2.1 在/home/summer/bin目录下创建脚本lg.sh
- 3.5.2.2 在脚本中编写如下内容
- 3.5.2.3 修改脚本执行权限
- 3.5.2.4 将脚本分发一下
- 3.5.2.5 启动脚本
- 3.5.2.6 分别在hadoop102、hadoop103的/opt/module/applog/log目录上查看生成的数据
3. 用户行为日志
3.4 服务器和JDK准备
3.4.1 服务器准备
可以看我之前写的文章
VMware 安装
VMware 安装CentOS7配置环境、安装虚拟机、选择cd/dvd的方式安装系统、系统安装引导界面、需要定制化的内容、配置磁盘分区、修改主机名、网络配置、修改windows的主机映射文件
远程终端工具Xshell、Xftp传输工具、VMware 、CentOS7的下载、安装和使用教程(完整版) 我这篇文章用的是CentOS7,该项目使用的是CentOS7.5,所以大家使用镜像的时候调整为7.5即可
模板虚拟机环境准备、卸载虚拟机自带的JDK、安装epel-release、配置summer用户具有root权限,方便后期加sudo执行root权限的命令
克隆虚拟机、利用模板机hadoop100,克隆三台虚拟机:hadoop102 hadoop103 hadoop104、修改克隆机IP和主机名称、网络配置
我这个使用的内存应该是2G,大家将Hadoop102调整到6G,Hadoop103调整到4G,Hadoop104调整到4G
3.4.2 编写集群分发脚本xsync
本地运行模式(官方WordCount)、完全分布式运行模式(开发重点)、scp安全拷贝、rsync 远程同步工具、xsync集群分发脚本、同步环境变量配置(root所有着)
3.4.3 SSH无密登录配置
SSH无密登录配置、生成公钥和私钥、集群配置、集群部署规划、默认配置文件、核心配置文件、HDFS配置文件、YARN配置文件、MapReduce配置文件、在集群上分发配置好的
3.4.4 JDK准备
在hadoop102安装JDK、配置JDK环境变量、测试JDK是否安装成功
3.4.5 环境变量配置说明
Linux的环境变量可在多个文件中配置,如/etc/profile,/etc/profile.d/*.sh,~/.bashrc,~/.bash_profile等,下面说明上述几个文件之间的关系和区别。
bash的运行模式可分为login shell和non-login shell。
例如,我们通过终端,输入用户名、密码,登录系统之后,得到就是一个login shell。而当我们执行以下命令ssh hadoop103 command,在hadoop103执行command的就是一个non-login shell。
这两种shell的主要区别在于,它们启动时会加载不同的配置文件,login shell启动时会加载/etc/profile,~/.bash_profile,~/.bashrc。non-login shell启动时会加载~/.bashrc。
而在加载~/.bashrc(实际是~/.bashrc中加载的/etc/bashrc)或/etc/profile时,都会执行如下代码片段,
因此不管是login shell还是non-login shell,启动时都会加载/etc/profile.d/*.sh中的环境变量。
3.5 模拟数据
3.5.1 使用说明
3.5.1.1 将application.yml、gmall2020-mock-log-2021-10-10.jar、path.json、logback.xml上传到hadoop102的/opt/module/applog目录下
3.5.1.1.1 创建applog路径
3.5.1.1.2 上传文件到/opt/module/applog目录
gmall2020-mock-log-2021-10-10.jar
这个文件已运行就会生成用户行为数据
[summer@hadoop102 applog]$ java -jar gmall2020-mock-log-2021-10-10.jar
3.5.1.2 配置文件
3.5.1.2.1 application.yml文件
可以根据需求生成对应日期的用户行为日志。
# 外部配置打开
logging.config: "./logback.xml"
#业务日期 注意:并不是Linux系统生成日志的日期,而是生成数据中的时间
mock.date: "2020-06-14"
#模拟数据发送模式
mock.type: "log"
#mock.type: "http"
#mock.type: "kafka"
#http模式下,发送的地址
mock.url: "http://localhost:8090/applog"
mock:
kafka-server: "hdp1:9092,hdp2:9092,hdp3:9092"
kafka-topic: "ODS_BASE_LOG"
#启动次数
mock.startup.count: 200
#设备最大值
mock.max.mid: 1000000
#会员最大值
mock.max.uid: 1000
#商品最大值
mock.max.sku-id: 35
#页面平均访问时间
mock.page.during-time-ms: 20000
#错误概率 百分比
mock.error.rate: 3
#每条日志发送延迟 ms
mock.log.sleep: 20
#商品详情来源 用户查询,商品推广,智能推荐, 促销活动
mock.detail.source-type-rate: "40:25:15:20"
#领取购物券概率
mock.if_get_coupon_rate: 75
#购物券最大id
mock.max.coupon-id: 3
#搜索关键词
mock.search.keyword: "图书,小米,iphone11,电视,口红,ps5,苹果手机,小米盒子"
# 男女浏览商品比重(35sku)
mock.sku-weight.male: "10:10:10:10:10:10:10:5:5:5:5:5:10:10:10:10:12:12:12:12:12:5:5:5:5:3:3:3:3:3:3:3:3:10:10"
mock.sku-weight.female: "1:1:1:1:1:1:1:5:5:5:5:5:1:1:1:1:2:2:2:2:2:8:8:8:8:15:15:15:15:15:15:15:15:1:1"
这里滚动的方式是以文件的形式进行滚动的,而这个文件滚动的日期是和服务器的时间是相关的,而模拟的数据是2020年的数据,所以这里的日期会不匹配,在生产情况下是没有问题的,因为当天的数据当天就处理了,所以日期基本上是没有问题的。
修改如下内容
3.5.1.2.2 path.json,该文件用来配置访问路径
根据需求,可以灵活配置用户点击路径
[
{"path":["home","good_list","good_detail","cart","trade","payment"],"rate":20 },
{"path":["home","search","good_list","good_detail","login","good_detail","cart","trade","payment"],"rate":30 },
{"path":["home","search","good_list","good_detail","login","register","good_detail","cart","trade","payment"],"rate":20 },
{"path":["home","mine","orders_unpaid","trade","payment"],"rate":10 },
{"path":["home","mine","orders_unpaid","good_detail","good_spec","comment","trade","payment"],"rate":5 },
{"path":["home","mine","orders_unpaid","good_detail","good_spec","comment","home"],"rate":5 },
{"path":["home","good_detail"],"rate":20 },
{"path":["home" ],"rate":10 }
]
3.5.1.2.3 logback配置文件
可配置日志生成路径,修改内容如下
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<property name="LOG_HOME" value="/opt/module/applog/log" />
<appender name="console" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>%msg%n</pattern>
</encoder>
</appender>
<appender name="rollingFile" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_HOME}/app.%d{yyyy-MM-dd}.log</fileNamePattern>
</rollingPolicy>
<encoder>
<pattern>%msg%n</pattern>
</encoder>
</appender>
<!-- 将某一个包下日志单独打印日志 -->
<logger name="com.atguigu.gmall2020.mock.log.util.LogUtil"
level="INFO" additivity="false">
<appender-ref ref="rollingFile" />
<appender-ref ref="console" />
</logger>
<root level="error" >
<appender-ref ref="console" />
<!-- <appender-ref ref="async-rollingFile" /> -->
</root>
</configuration>
3.5.1.3 生成日志
3.5.1.3.1 进入到/opt/module/applog路径,执行以下命令
[summer@hadoop102 applog]$ java -jar gmall2020-mock-log-2021-10-10.jar
3.5.1.3.2 在/opt/module/applog/log目录下查看生成日志
[summer@hadoop102 log]$ ll
3.5.1.4 分发数据
将Hadoop102上的/opt/module/applog目录分发到103
[summer@hadoop102 module]$ xsync applog/
将104上的删掉applog文件
3.5.2 集群日志生成脚本
在hadoop102的/home/summer目录下创建bin目录,这样脚本可以在服务器的任何目录执行。
3.5.2.1 在/home/summer/bin目录下创建脚本lg.sh
[summer@hadoop103 bin]$ vim lg.sh
3.5.2.2 在脚本中编写如下内容
#!/bin/bash
for i in hadoop102 hadoop103; do
echo "========== $i =========="
ssh $i "cd /opt/module/applog/; java -jar gmall2020-mock-log-2021-10-10.jar >/dev/null 2>&1 &"
done
注:
①/opt/module/applog/为jar包及配置文件所在路径
②/dev/null代表Linux的空设备文件,所有往这个文件里面写入的内容都会丢失,俗称“黑洞”。
标准输入0:从键盘获得输入 /proc/self/fd/0
标准输出1:输出到屏幕(即控制台) /proc/self/fd/1
错误输出2:输出到屏幕(即控制台) /proc/self/fd/2
3.5.2.3 修改脚本执行权限
[summer@hadoop103 bin]$ chmod 777 lg.sh
3.5.2.4 将脚本分发一下
[summer@hadoop103 bin]$ xsync lg.sh
3.5.2.5 启动脚本
[summer@hadoop102 module]$ lg.sh