Kafka介绍、安装以及操作

news2024/11/17 21:45:52

Kafka消息中间件

1.Kafka介绍

1.1 What is Kafka?

  • 官网: https://kafka.apache.org/
  • 超过 80% 的财富 100 强公司信任并使用 Kafka ;
  • Apache Kafka 是一个开源分布式事件流平台,被数千家公司用于高性能数据管道、流分析、数据集成和关键任务应用程序;

1.2 谁在使用Kafka?

在这里插入图片描述

1.3 Kafka的起源

  • kafka 最初由 LinkedIn (领英:全球最大的面向职场人士的社交网站)设计开发的,是为了解决 LinkedIn 的数据管道问题,用于 LinkedIn 网站的活动流数据和运营数据处理工具;

    • 活动流数据:页面访问量、被查看页面内容方面的信息以及搜索情况等内容;

    • 运营数据:服务器的性能数据( CPU 、 IO 使用率、请求时间、服务日志等数据 ) ;

  • 刚开始 LinkedIn 采用的是 ActiveMQ 来进行数据交换,大约在 2010 年前后,那时的ActiveMQ 还远远无法满足 LinkedIn 对数据交换传输的要求,经常由于各种缺陷而导致消息阻塞或者服务无法正常访问,为了解决这个问题, LinkedIn 决定研发自己的消息传递系统,当时 LinkedIn 的首席架构师 jay kreps 便开始组织团队进行消息传递系统的研发;

1.4 Kafka名字的由来

  • 由于 Kafka 的架构师 jay kreps 非常喜欢 franz kafka ( 弗兰茨 · 卡夫卡 ) (是奥匈帝国一位使用德语的小说家和短篇犹太人故事家,被评论家们认为是 20 世纪作家中最具影响力的一位) , 并且觉得 Kafka 这个名字很酷,因此把这一款消息传递系统取名为 Kafka ;
  • 大师门取名字也是根据自己的喜好来取名,在我们看来有可能感觉很随意!

1.5 Kafka的发展历史

2010 年底, Kafka 在 Github 上开源,初始版本为 0.7.0 ;
2011 年 7 月,因为备受关注,被纳入 Apache 孵化器项目;
2012 年 10 月, Kafka 从 Apache 孵化器项目毕业,成为 Apache 顶级项目;
2014 年, jay kreps 离开 LinkedIn ,成立 confluent 公司,此后 LinkedIn 和 confluent成为 kafka 的核心代码贡献组织,致力于 Kafka 的版本迭代升级和推广应用;

1.6 Kafka版本迭代

Kafka 前期项目版本似乎有点凌乱, Kafka 在 1.x 之前的版本,是采用 4 位版本号;
比如: 0.8.2.2 、 0.9.0.1 、 0.10.0.0… 等等;
在 1.x 之后, kafka 采用 Major.Minor.Patch 三位版本号;
Major 表示大版本,通常是一些重大改变,因此彼此之间功能可能会不兼容;
Minor 表示小版本,通常是一些新功能的增加;
Patch 表示修订版,主要为修复一些重点 Bug 而发布的版本 ;
比如: Kafka 2.1.3 ,大版本就是 2 ,小版本是 1 , Patch 版本为 3 ,是为修复 Bug 发布的第 3 个版本;
Kafka 总共发布了 8 个大版本,分别是 0.7.x 、 0.8.x 、 0.9.x 、 0.10.x 、 0.11.x 、 1.x 、 2.x 及 3.x版本,截止目前,最新版本是 Kafka 3.7.0 ,也是最新稳定版本;

2.Kafka安装

2.1 Kafka运行环境前置要求

Kafka 是由 Scala 语言编写而成, Scala 运行在 Java 虚拟机上,并兼容现有的 Java 程序,因此部署 Kakfa 的时候,需要先安装 JDK 环境;
Kafka 源码 : https://github.com/apache/kafka
Scala 官网: https://www.scala-lang.org/
本地环境必须安装了 Java 8+ ;( Java8 、 Java11 、 Java17 、 Java21 都可以);
JDK 长期支持版: https://www.oracle.com/java/technologies/java-se-support-roadmap.html

2.2 Kafka运行环境jdk安装

  1. 下载 JDK : https://www.oracle.com/java/technologies/downloads/#java17
    在这里插入图片描述

  2. 解压缩: tar -zxvf jdk-17_linux-x64_bin.tar.gz -C /usr/local

    切换到/usr/local目录下

    在这里插入图片描述

  3. 配置 JDK 环境变量:

    1. vim /etc/profile

      export JAVA_HOME=/usr/local/jdk-17.0.10
      export PATH=$JAVA_HOME/bin:$PATH
      export CLASSPATH=.:$JAVA_HOME/lib/
      
    2. 使用source命令对修改的配置进行生效

      source /etc/profile
      
    3. 查看java版本

      在这里插入图片描述

2.3 Kafka的下载和安装

  • 获取Kafka

    • 下载最新版本的 Kafka : https://kafka.apache.org/downloads

    在这里插入图片描述

  • 安装Kafka

    • tar -xzf kafka_2.13-3.7.0.tgz -C /usr/local/
    • cd /usr/local/kafka_2.13-3.7.0
  • 启动运行Kafka

    • 启动 Kafka 环境
      注意:本地环境必须安装了 Java 8+ ;
      Apache Kafka 可以使用 ZooKeeper 或 KRaft 启动;但只能使用其中一种方式,不能同时使用;
      KRaft : Apache Kafka 的内置共识机制,用于取代 Apache ZooKeeper ;
    • Kafka 启动使用 Zookeeper &表示后台运行
      1 、启动 zookeeper : ./zookeeper-server-start.sh …/config/zookeeper.properties &
      2 、启动 kafka : ./kafka-server-start.sh …/config/server.properties &
      3 、关闭 Kafka : ./kafka-server-stop.sh …/config/server.properties
      4 、关闭 zookeeper: ./zookeeper-server-stop.sh …/config/zookeeper.properties

2.4 Zookeeper的下载和安装

2.4.1 获取zookeeper

下载最新版本的 Zookeeper : https://zookeeper.apache.org/
在这里插入图片描述

安装 Zookeeper

将下载的zookeeper传输到linux中

在这里插入图片描述

将zookeeper解压到/usr/local目录下

tar -xzf apache-zookeeper-3.9.2-bin.tar.gz -C /usr/local/

cd apache-zookeeper-3.9.2-bin

2.4.2 Zookeeper的配置和启动
  • 配置Zookeeper 到conf目录中复制配置文件

    • cp zoo_sample.cfg zoo.cfg
    • zoo.cfg 不需要修改,直接使用即可
  • 启动Zookeeper

    • 启动:zkServer.sh start

      在这里插入图片描述

      发现zookeeper启动会占用3个端口

      在这里插入图片描述

    • 关闭:zkServer.sh stop

    • zookeeper启动默认会占用8080端口,修改配置文件,添加如下配置

      cd conf

      vim zoof.cfg

      admin.serverPort=9089

      重启zookeeper

      在这里插入图片描述

2.4.3 使用独立的zookeeper启动Kafka
  1. 启动zookeeper

    • zkServer.sh start
  2. 启动Kafka

    • ./kafka-server-start.sh …/config/server.properties &

      在这里插入图片描述

2.4 使用KRaft启动运行Kafka

2.4.1 Kafka启动使用KRaft
  • 生成Cluster UUID(集群UUID): ./kafka-storage.sh random-uuid

    在这里插入图片描述

    ​ 每次返回的uuid不一样

    在这里插入图片描述

  • 格式化日志目录: ./kafka-storage.sh format -t sYhr2IwpRGisfAtnHTaSrg -c …/config/kraft/server.properties(-t 后面是uuid)

  • 启动Kafka(先将kafka和zookeeper服务停止):./kafka-server-start.sh …/config/kraft/server.properties &

  • 关闭Kafka:./kafka-server-stop.sh …/config/kraft/server.properties

2.5 使用docker启动运行Kafka

2.5.1 docker安装

安装前查看系统是否已经安装了 Docker :
yum list installed | grep docker
卸载 Docker(-y参数 自动确认的意思 remove后面是已安装列表中的名字) :
yum remove docker.x86_64 -y
yum remove docker-client.x86_64 -y
yum remove docker-common.x86_64 -y
安装 Docker :
yum install docker -y
注:这种方式安装的 Docker 版本比较旧;(查看版本: docker -v )

在这里插入图片描述

安装最新版的 Docker(须先删除老版docker) :
1 、 yum install yum-utils -y
2 、 yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
3 、 yum install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin -y
查看是否安装成功:
查看 docker 版本: docker --version ( docker version , docker -v )

在这里插入图片描述

2.5.2 docker启动

​ 启动: systemctl start docker 或者 service docker start
​ 停止: systemctl stop docker 或者 service docker stop
​ 重启: systemctl restart docker 或者 service docker restart
​ 检查 Docker 进程的运行状态: systemctl status docker 或者 service docker status
​ 查看 docker 进程: ps -ef | grep docker
​ 查看 docker 系统信息: docker info
​ 查看所有的帮助信息: docker --help
​ 查看某个 commond 命令的帮助信息: docker commond --help

使用 Docker 镜像启动
1 、拉取 Kafka 镜像: docker pull apache/kafka:3.7.0
2 、启动 Kafka 容器(须先把虚拟机的Kafka停止): docker run -p 9092:9092 apache/kafka:3.7.0
查看已安装的镜像: docker images
删除镜像: docker rmi apache/kafka:3.7.0

3.Kafka操作

3.1 创建主题Topic

3.1.1 使用Kafka之前,第一件事情是必须创建一个主题(topic)
  • 主题(Topic)类似于文件系统中的文件夹;

  • 主题(Topic)用于存储事件(Events)

    • 事件(Events)
    • 也称为记录或消息,比如支付交易、手机地理位置更新、运输订单、物联网设备或医疗设备的传感器测量数据等等都是事件( Events );
    • 事件( Events )被组织和存储在主题( Topic )中
    • 简单来说,主题( Topic )类似于文件系统中的文件夹,事件( Events )是该文件夹中的文件;
  • 创建主题使用:kafka-topics.sh脚本;

    • 不带任何参数回告知该脚本如何使用:./kafka-topics.sh

    • 创建主题:./kafka-topics.sh --create --topic hello --bootstrap-server localhost:9092

      在这里插入图片描述

    • 列出所有的主题:./kafka-topics.sh --list --bootstrap-server localhost:9092

      在这里插入图片描述

    • 删除主题:./kafka-topics.sh --delete --topic hello --bootstrap-server localhost:9092

    • 显示主题详细信息:./kafka-topics.sh --describe --topic hello --bootstrap-server localhost:9092

      在这里插入图片描述

    • 修改主题信息:./kafka-topics.sh --alter --topic hello --partitions 3 --bootstrap-server localhost:9092

      在这里插入图片描述

3.2 在主题(Topic)中写入一些事件(Events)

  • Kafka客户端通过网络与Kafka Brokers进行通信,可以写(或读)主题Topic中的事件Events;

    在这里插入图片描述

  • Kafka brokers一旦受到事件Event,

  • 就会将事件 Event 以持久和容错的方式存储起来,可以永久地
    存储;

  • 通过 kafka-console-producer.sh 脚本工具写入事件 Events ;

    • 不带任何参数会告知该脚本如何使用: ./kafka-console-producer.sh
    • ./kafka-console-producer.sh --topic hello --bootstrap-server localhost:9092
    • 每一次换行是一个事件 Event ;
    • 使用 Ctrl+C 退出,停止发送事件 Event 到主题 Topic ;

    在这里插入图片描述

3.3 从主题(Topic)中读取事件(Events)

在这里插入图片描述

  • 使用 kafka-console-consumer.sh 消费者客户端读取之前写入的事件 Event :
    • 不带任何参数会告知该脚本如何使用: ./kafka-console-consumer.sh
    • ./kafka-console-consumer.sh --topic hello --from-beginning --bootstrap-server localhost:9092
    • –from-beginning 表示从 kafka 最早的消息开始消费 不加表示读取最新消息
    • 使用 Ctrl+C 停止消费者客户端;
  • 事件 Events 是持久存储在 Kafka 中的,所以它们可以被任意多次读取;

在这里插入图片描述

3.4 外部环境连接Kafka

  1. 启动 Kafka 容器: docker run -p 9092:9092 apache/kafka:3.7.0 &
  2. 安装外部连接工具;
  3. 外部连接工具连接 Kafka ;

在这里插入图片描述

3.4.1 外部环境无法连接Kafka
3.4.1.1 复制docker中kafka的配置文件到linux中
  • 文件输入:提供一个本地 kafka 属性配置文件,替换 docker 容器中的默认配置文件;
  • cd /usr/local
  • mkdir docker
  • docker ps
  • docker run -p 9092:9092 apache/kafka:3.7.0
  • docker exec -it 容器 id /bin/bash
  • 把 docker 容器中的文件复制到 linux 中:
    • docker cp 容器id:/etc/kafka/docker/server.properties /user/local/docker

在这里插入图片描述

3.4.1.2 修改linux的配置文件和文件映射
  • 配置文件: server.properties
  • listeners=PLAINTEXT://0.0.0.0:9092,CONTROLLER://0.0.0.0:9093
  • advertised.listeners=PLAINTEXT://虚拟机ip:9092
    • advertise 的含义表示宣称的、公布的, Kafka 服务对外开放的 IP 和端口 ;
  • 文件映射: docker run --volume /usr/local/kafka_2.13-3.7.0/docker:/mnt/shared/config -p 9092:9092 apache/kafka:3.7.0
3.4.1.3 测试连接

创建topic

./kafka-topics.sh --create --topic hello --bootstrap-server localhost:9092

idea使用kafka插件进行连接

在这里插入图片描述

3.5 Kafka图形界面连接工具

  • Kafka 图形界面连接工具:
    • Offset Explorer ( 以前叫 Kafka Tool) ,官网: https://www.kafkatool.com/
    • CMAK (以前叫 Kafka Manager ) 官网: https://github.com/yahoo/CMAK
    • EFAK (以前叫 kafka-eagle ) 官网: https://www.kafka-eagle.org/
3.5.1 CMAK(以前叫 Kafka Manager )
  • 一个 web 后台管理系统,可以管理 kafka ;

  • 项目地址: https://github.com/yahoo/CMAK

  • 注意该管控台运行需要 JDK11 版本的支持;

  • 下载: https://github.com/yahoo/CMAK/releases

  • 下载下来是一个 zip 压缩包,直接 unzip 解压:

  • unzip cmak-3.0.0.6.zip

  • 解压后即完成了安装;

  • 基于 zookeeper 方式启动 kafka 才可以使用该 web 管理后台,否则不行;

    • 1 、 CMAK 配置:
      • 修改 conf 目录下的 application.conf 配置文件:
      • kafka-manager.zkhosts=“192.168.11.128:2181”
      • cmak.zkhosts=“192.168.11.128:2181”
    • 2 、 CMAK 启动:
      • 切换到 bin 目录下执行:
      • ./cmak -Dconfig.file=…/conf/application.conf -java-home /usr/local/jdk-11.0.22
      • 其中 -Dconfig.file 是指定配置文件, -java-home 是指定 jdk11 所在位置,如果机器上已经是 jdk11 ,则不需要指定;
    • 3 、 CMAK 访问:
      • 启动之后 CMAK 默认端口为 9000 ,访问: http://192.168.11.128:9000/
3.5.2 EFAK (以前叫 kafka-eagle )
  • EFAK 一款优秀的开源免费的 Kafka 集群监控工具;(国人开发并开源)
    • 官网: https://www.kafka-eagle.org/
    • Github : https://github.com/smartloli/EFAK
  • EFAK 下载与安装:
    • 下载: https://github.com/smartloli/kafka-eagle-bin/archive/v3.0.1.tar.gz
    • 安装,需要解压两次:
      1. tar -zxvf kafka-eagle-bin-3.0.1.tar.gz
      2. cd kafka-eagle-bin-3.0.1
      3. tar -zxvf efak-web-3.0.1-bin.tar.gz
      4. cd efak-web-3.0.1

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1637472.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

CentOS7安装MySQL8.3(最新版)踩坑教程

安装环境说明 项值系统版本CentOS7 (具体是7.9,其他7系列版本均可)位数X86_64,64位操作系统MySQL版本mysql-8.3.0-1.el7.x86_64.rpm-bundle.tar 实际操作 官网下载安装包 具体操作不记录,相关教程很多。 mkdir /o…

Mysql-黑马

Mysql-黑马 编写规范:## 一级1. 二级三级 1.Mysql概述 数据库概念mysql数据仓库 cmd启动和停止 net start mysql180 net stop mysql180备注:其中的mysql180是服务名 客户端连接 远程连接数据仓库 -h 主机号 -P端口号 mysql [-h 127.0.0.1] [-P 33…

YOLOv5改进之bifpn

目录 一、原理 二、代码 三、在YOLOv5中的应用 一、原理 论文链接:

Android4.4真机移植过程笔记(二)

5、盘符挂载 先定义overlay机制路径,后面storage_list.xml要用到: 在路径: rk3188_android4.4.1/device/rockchip/OK1000/overlay/frameworks/base/core/res/res/xml/定义好,注意名字要和emmc的代码片段(往下面看&am…

大数据信用花了,一般多久能正常?

在当今数字化时代,大数据技术被广泛应用于各个领域,包括金融、电商、社交等。然而,随着大数据技术的普及,个人信用问题也日益凸显,其中“大数据信用花”现象尤为引人关注。那么,大数据信用花究竟是什么?一…

(四)小程序学习笔记——自定义组件

1、组件注册——usingComponents (1)全局注册:在app.json文件中配置 usingComponents进行注册,注册后可以在任意页面使用。 (2)局部注册,在页面的json文件中配置suingComponents进行注册&#…

2023 广东省大学生程序设计竞赛(部分题解)

目录 A - Programming Contest B - Base Station Construction C - Trading D - New Houses E - New but Nostalgic Problem I - Path Planning K - Peg Solitaire A - Programming Contest 签到题:直接模拟 直接按照题目意思模拟即可,为了好去…

labview强制转换的一个坑

32位整形强制转换成枚举的结果如何? 你以为的结果是 实际上的结果是 仔细看,枚举的数据类型是U16,"1"的数据类型是U32,所以转换产生了不可预期的结果。所以使用强制转换时一定要保证两个数据类型一致,否则…

04 - 步骤 JSON input

简介 Kettle 的 JSON Input 步骤是用于从 JSON 格式的数据源中读取数据的步骤。它允许用户指定 JSON 格式的输入数据,然后将其转换成 Kettle 中的行流数据,以供后续的数据处理、转换和加载操作使用。 使用 场景 1、拖拽到面板 2、指定JSON input 为 K…

正点原子[第二期]Linux之ARM(MX6U)裸机篇学习笔记-9.1-LED灯(模仿STM32驱动开发实验)

前言: 本文是根据哔哩哔哩网站上“正点原子[第二期]Linux之ARM(MX6U)裸机篇”视频的学习笔记,在这里会记录下正点原子 I.MX6ULL 开发板的配套视频教程所作的实验和学习笔记内容。本文大量引用了正点原子教学视频和链接中的内容。…

阿里云开源大模型开发环境搭建

ModelScope是阿里云通义千问开源的大模型开发者社区,本文主要描述AI大模型开发环境的搭建。 如上所示,安装ModelScope大模型基础库开发框架的命令行参数,使用清华大学提供的镜像地址 如上所示,在JetBrains PyCharm的项目工程终端控…

【IDEA】IDEA自带Maven/JDK,不需要下载

IDEA是由Java编写的,为了保证其运行,内部是自带JDK的。IDEA 2021 及 之后的版本是自带Maven的: 视频连接: https://www.bilibili.com/video/BV1Cs4y1b7JC?p4&spm_id_frompageDriver&vd_source5534adbd427e3b01c725714cd…

3-4STM32C8T6按键控制LED开与关

实物接线如下: 为了代码的简洁性,这里需要对LED与KEY进行封装如下: #include "stm32f10x.h" // Device headervoid LED_Init(void) {RCC_APB2PeriphClockCmd(RCC_APB2Periph_GPIOA, ENABLE);GPIO_InitTypeDef GP…

粤嵌gec6818开发板-播放视频、音频文件(管道文件控制)

前段时间做了一个项目,用到了linux环境下gec6818开发板播放视频、音频文件,在这里给大家分享一下。 这里使用的方法是利用mplayer播放器进行播放,首先先给开发板装上mplayer播放器,这里就不详细说明了。 我用的是管道文件来控制视…

如何解决DA14531编译工程出现大量报错的问题

在编译DA14531某个工程时,在这台电脑可以编译,另外一台电脑就编译不过,出现很多错误问题。那要怎样处理呢? 建议安装新MDK版本 可能是MDK版本问题,在不同的电脑安装不同的MDK版本,用新的版本可以编译通过&…

ZABAPGIT问题,导入github上的程序包时报 DBSQL_DUPLICATE_KEY_ERROR

跟踪程序发现在94050行 INSERT seocompotx FROM TABLE it_descriptions 报的错 刚开始,不想着改动他,把seocompotx 表的数据做下指定清楚,但是5次清楚后,果断注释掉 改成 MODIFY seocompotx FROM TABLE it_descriptions。 在用…

Winfrom —— 计算阶乘

首先搭建一个界面 创建listBox输入框进行输入内容 界面图如下 计算按钮的事件 private void button1_Click(object sender, EventArgs e) {if (textBox1.Text.Length 0){textBox1.Text "";}else{int n 1;int sum 1;n Convert.ToInt32(textBox1.Text);for (; n…

成像测井基础-1

一、成像测井系统简介 成像测井是一种能探测地层的某个特性(如岩石成分、孔隙度、渗透率)在以井轴为垂直坐标(z)、以井径为径向坐标、以方位角为方向坐标(θ)的柱状坐标系(r,θ,z )中分布的测井方法,且可以按井壁的展开平面或沿某个方位的剖面进行图像显…

Hi3519AV100 处理器⾼速全局快⻔相机

⾼速全局快⻔相机采⽤ 1英⼨全局快⻔ Sensor,⽀持 H.264/H.265 编码,8 百万 分辨率模式下最⾼帧率可达 50 帧/秒,1080P 模式下最⾼帧率可达 120 帧/秒。主控采⽤ Hi3519AV100 处理器,集成 2 Tops AI 算⼒ NPU ,⽀持⼤…

必应广告投放怎么做?怎么开户推广?

今天搜索引擎广告依旧是企业提升品牌知名度、吸引潜在客户的关键渠道之一,必应Bing,作为全球第二大搜索引擎,不仅拥有庞大的用户基础,更以其精准的定向能力和高效的转化效率,成为众多企业拓展市场的优选平台。 一、必…