模拟日志数据

news2024/9/28 0:03:36

模拟日志数据。。

日志模拟器主要模拟站点的用户信息和用户行为日志数据 使用shell调用java类实现数据的生产 !  

所需文件如下:

datagen.jar

genlog.sh

注意: 存储数据的文件夹要预先创建好

Bash
mkdir -p /tmp/doit/user_data
mkdir -p /tmp/doit/log_data

将用来模拟生成数据的jar包和脚本下载后上传到Linux到指定位置,我当前是放到了/tmp/doit目录下,也可以放到任意目录下

执行sh脚本文件 ,内部调用datagen.jar中的java类生成特定格式的数据!  

注意修改脚本中的JAVA_HOME路径

Shell
#!/bin/bash
# $1 生成数据的种类:user | log
# 如果生成user
# $2 如果生成user,则是user数据的用户量
# $3 如果生成user,则是user数据的输出路径(到文件名)
# ===================================================
# 如果生成log
# $2, 在线人数
# $3,  要生成的日期
# $4,  1:流式生成  0:批量生成
# $5,  user数据的路径
# $6,  日志数据的输出路径(到目录)
# $7,  是否日志模式(每行flush)
# =====================================================
# 注意脚本中的java环境变量  修改成自己对应的位置
export JAVA_HOME=/opt/apps/jdk1.8.0_191/
if [ $1 = user ];then
echo "generating user data ..."
$JAVA_HOME/bin/java -cp datagen.jar cn.doitedu.datagen.beans.GenUsers $2 $3  &
fi
# 生成日志数据
if [ $1 = log ];then
echo "generating log data ..."
$JAVA_HOME/bin/java -jar datagen.jar ${2} ${3}  ${4} ${5} ${6} ${7}  &
fi

首先准备虚拟机环境 , 必须有java开发环境 ! 将所需的脚本文件和Jar包上传到指定的虚拟机中!

1.1 模拟用户数据

生成用户数据

Shell
# 初始化用户数据(10000000代表公司的用户总量级别)
sh genlog.sh user 100000 /tmp/doit/user_data/user.json

执行脚本时,要指定脚本绝对路径或相对路径

扩展:

  • 用户数据信息是存储在MySQL这样的关系型数据库中 ,
  • 可以修改日志生成脚本,在生成用户的时候 将数据存储到MySQL中
  • 也可以将数据导入到MySQL中

1.2 模拟日志数据

为公司生成1000W用户 , 日志可以滚动生成也可以批量生成

  • 0 批量生成
  • 1 流式生成

Bash
# 流式生成日志(200000代表当天在活跃用户总量)
# sh genlog.sh log 20000 2022-03-10_08:30:00 1 /tmp/doit/user_data/user.json  /tmp/doit/log_data 1
# 批量生成日志
sh genlog.sh log 20000 2022-07-09_11:11:11 0 /tmp/doit/user_data/user.json  /tmp/doit/log_data 0   

user数据

JSON
{
  "account":"uqifgm", 账号信息
  "appId":"cn.doitedu.yinew",  appid的id
  "appVersion":"2.6",  app版本
  "carrier":"中国电信", 网络运营商
  "deviceId":"mtuh-5076", 设备ID
  "deviceType":"iphone8", 设备类型
  "ip":"11.20.101.60", ip地址
  "latitude":24.423377357669455,  纬度
  "longitude":110.3516456329476, 经度
  "netType":"4G", 网络类型  5G  3G  4G  wifi
  "osName":"ios", 设备操作系统
  "osVersion":"9.0",设备操作系统版本
  "platForm":"apple",  品牌
  "releaseChannel":"apple-store",     软件下载渠道
  "resolution":"1366*768",  分辨率
  "testGuid":70,  唯一标识  uid
  "timeStamp":0 时间戳
}

用户行为数据结构

JSON
{
  "account":"udedtx", 账号信息
  "appId":"cn.doitedu.yinew",   appID
  "appVersion":"2.1",   app版本
  "carrier":"中国联通",  网路运营商
  "deviceId":"nldo-3377", 设备ID
  "deviceType":"iphone9",  设备类型
  "eventId":"e_jf_2",  事件名 id addCar pageView  shareItem  Adshow  submitOrder
  "ip":"11.21.100.60",  ip地址
  "latitude":39.67027988823277,  纬度
  "longitude":115.30205505724112,  经度
  "netType":"4G",  网络类型
  "osName":"ios",  系统名
  "osVersion":"8.0",  系统版本
  "platForm":"apple",  品牌
  "properties":{"ad_id":"v4","p18":"v4","pageId":"page001"},用来描述事件的数据 , 比如Adshow   Adshow
  "releaseChannel":"apple-store",  下载渠道
  "resolution":"1280*768",   分辨率
  "sessionId":"LTLTNUOJBQ",  会话id
  "testGuid":15,  用户的唯一标识uid
  "timeStamp":1657955995935  产生数据的时间 , 事件发生的时间
}

session 理解(会话)

session会话: 在JavaEE中用来记录用户一次访问(产生的数据)信息

利用sessionID会话  统计用户的访问次数 , 访问时长 关键维度

 

接下来我们对数据接入层进行开发:

 

2 flume快速入门

2.1 简介

2.1.1 什么是flume

flume是由cloudera软件公司产出的可分布式日志收集系统,后与2009年被捐赠了apache软件基金会,为hadoop相关组件之一。尤其近几年随着flume的不断被完善以及升级版本的逐一推出,特别是flume-ng; 同时flume内部的各种组件不断丰富,用户在开发的过程中使用的便利性得到很大的改善,现已成为apache top项目之一.  补充:cloudera公司的主打产品是CDH(hadoop的一个企业级商业发行版)

可以从各种各样的数据源(服务器)上采集数据传输(汇聚)到大数据生态的各种存储系统中(Hdfs、hbase、hive、kafka);  开箱即用!(安装部署、修改配置文件)

 

2.1.2 flume的特性

Flume是一个分布式可靠 高可用的海量日志采集、汇聚和传输的系统。 Flume可以采集文件,socket数据包(网络端口)、文件夹、kafka、mysql数据库等各种形式源数据,又可以将采集到的数据(下沉sink)输出到HDFS、hbase、hive、kafka等众多外部存储系统中 一般的采集、传输需求,通过对flume的简单配置即可实现;不用开发一行代码! Flume针对特殊场景也具备良好的自定义扩展能力,因此,flume可以适用于大部分的日常数据采集场景  。

 

2.2 agent基本认识

 Flume中最核心的角色是agent,flume采集系统就是由一个个agent连接起来所形成的一个或简单或复杂的数据传输通道。 对于每一个Agent来说 ,它就是一个独立的守护进程(JVM) ,它负责从数据源接收数据,并发往下一个目的地,如下图所示:

每一个agent相当于一条数据(被封装成Event对象)传递员,内部有3个核心组件:

 

  • Source:数据源组件,用于跟数据源对接,以获取数据;它有各种各样的内置实现;
  • Sink:下沉组件,用于往下一级agent传递数据或者向最终存储系统传递数据
  • Channel:传输通道组件(缓冲区),用于协调和解耦source & sink

Agent的3个组件的设计思想,主要考虑的是:

    source和sink之间解耦合,以及异步操作; (channel可以让source组件和sink组件解耦合,并对数据源产生数据的速度波动起到削峰填谷的作用)

 

通过agent的级联,可以组建出复杂的数据传输网络

  • 单个agent采集数据

 

  • 多级agent之间串联

 

2.3 agent内部组件详解

2.4 agent内部组件架构图

 

2.4.1 Event

数据agent内部数据流转的封装形式;

Source组件在获取到原始数据后,需要封装成Event放入channel;  Sink组件从channel中取出Event后,需要根据目标存储的需求,转成其他形式的数据输出。

 Event封装对象主要有两部分组成: Headers和  Body header是一个集合  Map[String,String],用于携带一些KV形式的元数据(标志、描述等) body: 就是一个字节数组byte[];装载具体的数据内容  

Shell
Event: {  
headers:HashMap<String,String>  ==> {host=doitedu01,timestamp=17623745832457} 元数据
body:byte[] ==> 61 20 61 20 61 61 61 20 61 20 0D    字节数据
}  

2.4.2 interceptor拦截器

拦截器,就是为用户提供添加数据处理逻辑的可能性

拦截器工作在source组件之后,source产生的event会被传入拦截器根据需要进行拦截处理 而且,拦截器可以组成拦截器链! 拦截器在flume中有一些内置的功能比较常用的拦截器 用户也可以根据自己的数据处理需求,自己开发自定义拦截器! 这也是flume的一个可以用来自定义扩展的接口!

2.4.3 channel selector

一个source可以对接多个channel,则event在这n个channel之间传递的策略,由配置的channel selector决定;  

channel selector有2中实现: replicating(复制),multiplexing(多路复用)

 

2.4.4 sink processor

如果sink和channel是一对一关系,则不需要专门的sink processor;

 如果一个channel配置多个sink,则可以将这多个sink配置成一个sink group(sink组);

event在一个组中的多个sink间如何传递,则由所配置的sink processor来决定;

 sink processor有2种: load balance (round robing)和 fail over

2.5 Transaction:事务机制 (数据传递语义)

数据传递的三个语义:

  •  At least once  至少处理一次
  •  At most once  最多处理一次
  • Exactly once    精准处理一次

Flume并没有实现Exactly once!

Flume使用两个独立的事务:

  •  put操作:source读取数据源并写入event到channel
  •  take操作:sink从channel中获取event并写出到目标存储

事务的实现程度,取决于运行时所选择的具体的组件实现类;

再好的组件的组合,也只实现到了at least once!(不会丢失数据,但可能产生重复传输)

事务实现的核心点,是记录状态(比如source,记录自己完成的数据的偏移量)

 

比如spooling directory source 为文件的每一个event batch创建一个事务,来记录状态,一旦事务中所有的事件全部传递到channel且提交成功,那么soucrce就将event batch标记为完成。

同理,事务以类似的方式处理从channel到sink的传递过程,如果因为某种原因使得事件无法记录,那么事务将会回滚,且所有的事件都会保持到channel中,等待重新传递。  

事务机制涉及到如下重要参数:

  • a1.sources.s1.batchSize =100
  • a1.sinks.k1.batchSize = 200  
  • a1.channels.c1.transactionCapacity = 300 (应该大于source或者sink的batchSize)

 < transactionCapacity 是说,channel中保存的事务的个数>

跟channel的数据缓存空间容量区别开来: a1.channels.c1.capacity = 10000

 

那么事务是如何保证数据的端到端完整性的呢?看下面有两个agent的情况:

 

数据流程:

  • source 1产生Event,通过“put”、“commit”操作将Event放到Channel 1中
  • sink 1通过“take”操作从Channel 1中取出Event,并把它发送到Source 2中
  • source 2通过“put”、“commit”操作将Event放到Channel 2中
  • source 2向sink 1发送成功信号,sink 1“commit”步骤2中的“take”操作(其实就是删除Channel 1中的Event)

说明:在任何时刻,Event至少在一个Channel中是完整有效的

事务原理基本流程

事务能保证数据在采集的过程中  在agent内部和agent之间不会丢失数据

但是如果事务提交汇报失败 , 成功处理的事务会被再次提交 出现数据重复问题

处理的数据语义是 : 至少处理一次!    重复的数据 后续的可以通过去重

2.6 安装部署

2.6.1 参数设置

Flume的安装非常简单,只需要解压即可,当然,前提是已有hadoop环境

1、上传安装包到数据源所在节点上 然后解压  tar -zxvf apache-flume-1.8.0-bin.tar.gz

配置环境变量  

修改参数  vi flume-env.sh

Shell
export JAVA_HOME=/opt/apps/jdk1.8.0_191/
# Give Flume more memory and pre-allocate, enable remote monitoring via JMX
export JAVA_OPTS="-Xms1000m -Xmx2000m -Dcom.sun.management.jmxremote"

2、根据数据采集的需求配置采集方案(用什么类型的source,channel,sink),描述在配置文件中(文件名可任意自定义)

3、指定采集方案配置文件,在相应的节点上启动flume agent

4 创建日志采集配置文件目录

Plain Text
[root@doitedu01 flume-1.9.0]# mkdir  props
[root@doitedu01 flume-1.9.0]# ll
total 168
drwxr-xr-x.  2 dolphinscheduler dolphinscheduler    62 Jul 16 17:22 bin
-rw-rw-r--.  1 dolphinscheduler dolphinscheduler 85602 Nov 29  2018 CHANGELOG
drwxr-xr-x.  2 dolphinscheduler dolphinscheduler   118 Jul 16 17:26 conf
-rw-r--r--.  1 dolphinscheduler dolphinscheduler  5681 Nov 16  2017 DEVNOTES
-rw-r--r--.  1 dolphinscheduler dolphinscheduler  2873 Nov 16  2017 doap_Flume.rdf
drwxrwxr-x. 12 dolphinscheduler dolphinscheduler  4096 Dec 18  2018 docs
drwxr-xr-x.  2 root             root              8192 Jul 16 17:22 lib
-rw-rw-r--.  1 dolphinscheduler dolphinscheduler 43405 Dec 10  2018 LICENSE
-rw-r--r--.  1 dolphinscheduler dolphinscheduler   249 Nov 29  2018 NOTICE
-- flume工作时通过加载配置文件进行采集数据的 , 以后的采集数的方案配置在当前props目录下
drwxr-xr-x.  2 root             root                 6 Jul 16 17:28 props
-rw-r--r--.  1 dolphinscheduler dolphinscheduler  2483 Nov 16  2017 README.md
-rw-rw-r--.  1 dolphinscheduler dolphinscheduler  1958 Dec 10  2018 RELEASE-NOTES
drwxr-xr-x.  2 root             root                68 Jul 16 17:22 tools

以后要是想采集数据 只需要配置一个日志采集的配置文件即可  local_file_2_hdfs.conf

 local_file_2_hdfs.conf: source channel  sink

bin/flume-ng   agent    -f  local_file_2_hdfs.conf  自动的加载配置文件  采集数据

2.6.2 启动

指定配置目录

bin/flume-ng  help  查看flume支持的指令参数

Shell
commands:
  help                      显示本帮助信息
  agent                     启动一个agent进程  采集方案
  avro-client               启动一个用于测试avro source的客户端(能够发送avro序列化流)
  version                   显示当前flume的版本信息

global options:   全局通用选项
  --conf,-c <conf>          指定flume的系统配置文件所在目录
  --classpath,-C <cp>        添加额外的jar路径
  --dryrun,-d               不去真实启动flume agent,而是打印当前命令
  --plugins-path <dirs>       指定插件(jar)所在路径

  -Dproperty=value          传入java环境参数
  -Xproperty=value          传入所需的JVM配置参数
agent options:
  --name,-n <name>          agent的别名(在用户采集方案配置文件中)
  --conf-file,-f <file>          指定用户采集方案配置文件的路径
  --zkConnString,-z <str>      指定zookeeper的连接地址
  --zkBasePath,-p <path>      指定用户配置文件所在的zookeeper path,比如:/flume/config
  --no-reload-conf            关闭配置文件动态加载
  --help,-h                   display help text

avro-client options:
  --rpcProps,-P <file>   RPC client properties file with server connection params
  --host,-H <host>     avro序列化数据所要发往的目标主机(avro source所在机器)
  --port,-p <port>      avro序列化数据所要发往的目标主机的端口号
  --dirname <dir>      需要被序列化发走的数据所在目录(提前准备好测试数据放在一个文件中)
  --filename,-F <file>   需要被序列化发走的数据所在文件(default: std input)
  --headerFile,-R <file>  存储header key-value的文件
  --help,-h             帮助信息

Either --rpcProps or both --host and --port must be specified.
Note that if <conf> directory is specified, then it is always included first
in the classpath.

开启内置
HTTP监控功能
-Dflume.monitoring.type=http -Dflume.monitoring.port=34545  
监控数据发往ganglia进行展现
-Dflume.monitoring.type=ganglia -Dflume.monitoring.port=34890

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/737853.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【安全】Xsslabs(1~13)基于白盒测试浅析

目录 环境 关卡 level 1 level 2 level 3 level 4 level 5 level 6 level 7 level 8 扩展 level 9 level 10 level 11 level 12 level 13 总结 环境 PHP&#xff1a;php7.3.4nts 中间件&#xff1a;Nginx1.15.11 工具&#xff1a;Hackbar 关卡 level …

超长上下文处理:基于Transformer上下文处理常见方法梳理

原文链接&#xff1a;芝士AI吃鱼 目前已经采用多种方法来增加Transformer的上下文长度&#xff0c;主要侧重于缓解注意力计算的二次复杂度。 例如&#xff0c;Transformer-XL通过缓存先前的上下文&#xff0c;并允许随着层数的增加线性扩展上下文。Longformer采用了一种注意力…

【GLBCXX_3.4.21 not found】问题解决

问题描述 rootlocalhost:/home# rar -h rar&#xff1a;/lib64/libstdc.so.6 ,version "GLBCXX_3.4.21" not found 问题排查过程 下载相应的GCC源码&#xff0c;找到适合自己版本&#xff0c;这里选择是的是7.3.0 gcc源码下载地址&#xff1a;http://ftp.gnu.org/g…

fastadmin数据内容admin_id权限

/*** 是否开启数据限制* 支持auth/personal* 表示按权限判断/仅限个人* 默认为禁用,若启用请务必保证表中存在admin_id字段*/protected $dataLimit true;/*** 数据限制字段*/protected $dataLimitField admin_id;

第一次上传GitHub代码------教程、记录和踩雷

刚录用的一篇论文&#xff0c;编辑要求上传GitHub repo。 对于上传代码&#xff0c;本人是一无所知&#xff0c;写这篇博客记录一下 一. 创建代码仓库 点击右上角&#xff0c;选择New repository&#xff0c;来创建仓库&#xff1a; 根据提示&#xff0c;填写仓库的名称、描述…

TCP 协议(二)连接与断开

TCP 连接概述 TCP 协议是一种面向连接的、可靠的数据传输协议&#xff0c;同时 TCP 连接是全双工的&#xff0c;即连接的两端可以互传数据。在深入了解 TCP 连接之前&#xff0c;我们先来弄清楚整个 TCP 连接的过程&#xff0c;之后在深入整个数据报文结构来认识 TCP。 TCP连…

全网最全,adb常用命令大全(详细)全覆盖,看这篇就够了..

目录&#xff1a;导读 前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结&#xff08;尾部小惊喜&#xff09; 前言 adb 模拟按键输入…

python subprocess执行外部命令常用方法

subprocess模块是Python标准库中的一个模块&#xff0c;用于创建和控制子进程。它提供了一种在Python程序中调用其他外部命令、执行系统命令和与系统进程进行交互的方法。常用的有两种方法&#xff1a;subprocess.run()&#xff0c;subprocess.Popen() 1. subprocess.run()方法…

回顾类与对象:掌握String探索其模拟实现的沉浸式体验

目录 一.STL简介二.string的模拟实现1.成员变量与(拷贝)构造、析构函数2.运算符重载[ ]3.添加数据与扩容4.赋值运算符重载及其他重载5.其他函数 一.STL简介 标准模板库 STL是C标准库的重要组成部分&#xff0c;stl分为六大组件&#xff1a;算法、容器、迭代器、空间适配器、仿…

NLP实战7:seq2seq翻译实战-Pytorch复现

&#x1f368; 本文为[&#x1f517;365天深度学习训练营]内部限免文章&#xff08;版权归 *K同学啊* 所有&#xff09; &#x1f356; 作者&#xff1a;[K同学啊] &#x1f4cc; 本周任务&#xff1a; ●请根据N5、N6周内容&#xff0c;为解码器添加上注意力机制 一、前期准备…

常用分类损失CE Loss、Focal Loss及GHMC Loss理解与总结

一、CE Loss 定义 交叉熵损失&#xff08;Cross-Entropy Loss&#xff0c;CE Loss&#xff09;能够衡量同一个随机变量中的两个不同概率分布的差异程度&#xff0c;当两个概率分布越接近时&#xff0c;交叉熵损失越小&#xff0c;表示模型预测结果越准确。 公式 二分类 二…

【QT】QT搭建OpenCV环境

QT/OpenCV 01、开始之前02、QT03、CMake04、OpenCV05、配置06、测试 01、开始之前 本文版本&#xff1a; 1、QT&#xff1a;Based on Qt 5.12.2 (MSVC 2017, 32 bit)&#xff0c;编译方式是MinGW 2、CMake&#xff1a;cmake-3.27.0-rc4-windows-x86_64.msi 3、OpenCV&#xff1…

2023年值得入手的开放式耳机推荐,蓝牙耳机的选购指南分享推荐

身为一个音乐爱好者&#xff0c;出于对音质和佩戴舒适的追求&#xff0c;也有入手了很多品类的耳机&#xff0c;其中不乏有有线耳机、无线蓝牙耳机&#xff0c;两种不同的音频传输方式大类&#xff0c;其各自所拥有的特性也是不同的。而居于后者的无线蓝牙耳机&#xff0c;在现…

【Java基础教程】(八)面向对象篇 · 第二讲:Java 数组全面解析——动态与静态初始化、二维数组、方法参数传递、排序与转置、对象数组、操作API~

Java基础教程之面向对象 第二讲 本节学习目标1️⃣ 概念1.1 动态初始化1.2 静态初始化 2️⃣ 二维数组3️⃣ 数组与方法参数的传递4️⃣ 数组排序5️⃣ 数组转置6️⃣ 对象数组7️⃣ 数组操作API7.1 数组复制7.2 数组排序 &#x1f33e; 总结 本节学习目标 掌握数组的动态及静…

水库监测中仪器安装及监测结果的要求有哪些

水库监测点位布设需要根据水库运行情况和安全监测的需求来进行&#xff0c;一般分为基础监测点位和重要部位监测点位&#xff0c;基础监测点位主要包括上游水位、上游库水位变幅、库岸稳定以及上下游坝坡稳定等。重要部位监测点位主要包括坝轴线、溢洪道进口和泄水洞出口等部位…

前端报错:“Uncaught SyntaxError: missing ) after argument list“只是参数列表后面缺少 “)”?

报错"Uncaught SyntaxError: missing ) after argument list"&#xff0c;字面翻译过来的意思&#xff1a;语法错误: 参数列表后面缺少 )。 一直以为是少了 一个小括号找了好久 发现并不是 据提示是参数列表的问题&#xff0c;找到文件中存在参数列表的地方。如下图…

如何利用MyBatis完成web项目的环境搭建(导入核心依赖包、日志、编译环境,配置文件以及Druid连接池)

目录 项目环境搭建 servlet实例 核心依赖 导入日志 编译环境 mapper注册 resouces中 dao中 MyBatis配置文件 实例效果 导入配置文件 Druid连接池 Druid连接池是什么&#xff1f; 如何配置Druid连接池&#xff1f; 实体类 实例效果 项目环境搭建 1.在pom.xml中…

STM32 Proteus UCOSII系统锅炉报警系统设计压力温度水位-0059

STM32 Proteus UCOSII系统锅炉报警系统设计压力温度水位-0059 Proteus仿真小实验&#xff1a; STM32 Proteus UCOSII系统锅炉报警系统设计压力温度水位-0059 功能&#xff1a; 硬件组成&#xff1a;51单片机 8位数码管MAX7219数码管驱动模块多个按键LED灯蜂鸣器 1.准确测量…

IronOCR for .NET 2023.7.0 Crack

IronOCR for .NET 关于 读取 .NET 应用程序中图像和 Pdf 文本的高级 OCR &#xff08;光学字符识别&#xff09; 库。 IronOCR for .NET enables software engineers to read text content from images & PDFs in .NET applications and Web sites. Read text and barcod…

HarmonyOS/OpenHarmony应用开发-程序包安装、卸载、更新流程

一、应用程序包安装和卸载流程 1.开发者 开发者可以通过调试命令进行应用的安装和卸载&#xff0c;可参考多HAP的调试流程。 图1 应用程序包安装和卸载流程&#xff08;开发者&#xff09; 2.终端设备用户 开发者将应用上架应用市场后&#xff0c;终端设备用户可以在终端设…