Kafka 安装部署-单节点

news2024/11/15 15:59:56

       Kafka强依赖ZK,如果想要使用Kafka,就必须安装ZK,Kafka中的消费偏置信息、kafka集群、topic信息会被存储在ZK中。有人可能会说我在使用Kafka的时候就没有安装ZK,那是因为Kafka内置了一个ZK,一般我们不使用它。

部署说明

本文使用kafka单节点安装及配置,并使用kafka自带的zookeeper。一般kafka需要起三个kafka构成集群,可以连单独的zookeeper,本文不涉及。

kafka下载

根据需要下载对应版本的安装包,下载地址:
https://archive.apache.org/dist/kafka/
上传安装包并解压重命名(路径自定义):
如:上传到 /opt 路径下
解压和重命名:

cd opt
tar -zxvf kafka_2.12-2.5.0.tgz
mv kafka_2.12-2.5.0 kafka

修改zookeeper配置

vim kafka/config/zookeeper.properties
dataDir=/opt/kafka
# the port at which the clients will connect
clientPort=2181
# disable the per-ip limit on the number of connections since this is a non-production config
maxClientCnxns=100
# Disable the adminserver by default to avoid port conflicts.
# Set the port to something non-conflicting if choosing to enable this
admin.enableServer=false
# admin.serverPort=8080

修改kafka配置

vim kafka/config/server.properties
broker.id=0
listeners=PLAINTEXT://192.168.1.1:9092
advertised.listeners=PLAINTEXT://192.168.1.1:9092
log.dirs=/opt/kafka/kafka-logs
zookeeper.connect=192.168.1.1:2181
# 本机ip
host.name=192.168.1.1

 启动zookeeper

./zookeeper-server-start.sh ../config/zookeeper.properties &

 启动kafka

./kafka-server-start.sh ../config/server.properties &

第二种

Kafka 单节点部署

下载安装
下载Zookeeper并解压到指定目录

ZooKeeper官网:http://zookeeper.apache.org/

[root@spark1 soft]# tar -zxvf zookeeper-3.4.5.tar.gz -C /application/

配置ZK

配置zoo.cfg

拷贝zoo_sample.cfg文件重命名为zoo.cfg,然后修改dataDir属性

[root@spark1 soft]# cd /application/zookeeper-3.4.5/conf/
[root@spark1 conf]# cat zoo.cfg
....
# 数据的存放目录
dataDir=/application/zookeeper-3.4.5/data
 
# 端口,默认就是2181
clientPort=2181
....
[root@spark1 conf]# 

配置环境变量

[root@spark1 ~]# cat /etc/profile
......
#ZooKeeper环境变量
export ZOOKEEPER_HOME=/application/zookeeper-3.4.5
export PATH=$PATH:$ZOOKEEPER_HOME/bin
......

Zookeeper 启动停止命令

$ zkServer.sh start
$ zkServer.sh stop

Kafka 单节点单Broker部署及使用

部署架构

安装Kafka

Apache Kafka

tar -zxvf kafka_2.10-0.10.2.1.tgz -C /application/
 
#然后分别在各机器上创建软连
cd /application/
ln -s kafka_2.10-0.10.2.1 kafka

说明:

    1)版本最好注意下;在Java调用kafka的时候可能有问题就是版本造成的;

配置Kafka

配置server.properties

进入kafka的config目录下,有一个server.properties,添加如下配置

# broker的全局唯一编号,不能重复
broker.id=0
#这个最好配置,否则Java调用报错
advertised.listeners=PLAINTEXT://192.168.2.1:9092
# 日志目录
log.dirs=/application/kafka/logs/kafka-logs
# 配置zookeeper的连接(如果不是本机,需要该为ip或主机名)
zookeeper.connect=localhost:2181

启动Kafka

启动Zookeeper

zkServer.sh start

启动Kafka

[root@spark1 application]# /application/kafka/bin/kafka-server-start.sh  /application/kafka/config/server.properties

后台启动

nohup /application/kafka/bin/kafka-server-start.sh  /application/kafka/config/server.properties &  

创建topic

[root@spark1 ~]# /application/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
Created topic "test".
[root@spark1 ~]# 

说明: 
    1)--zookeeper:指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样 
    2)--replication-factor:指定副本数量 
    3)--partitions:指定分区数量 
    4)--topic:主题名称

查看所有的topic信息

[root@spark1 ~]# /application/kafka/bin/kafka-topics.sh --list --zookeeper localhost:2181
TestTopic
WordCount
test
[root@spark1 ~]# 

启动生产者

[root@spark1 ~]# /application/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

启动消费者

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

0.90版本之后启动消费者的方法:

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic productscanlog --from-beginning

测试

产者生产数据

[root@spark1 ~]# /application/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
aa
bb
hello world
hello kafka  

消费者消费数据

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
aa
bb
hello world
hello kafka

说明:

    1)--from-beginning参数如果有表示从最开始消费数据,旧的和新的数据都会被消费,而没有该参数表示只会消费新产生的数据;

第三种

1.下载

从官网下载kafka,由于测试需要,我下载的是kafka_2.11-0.9.0.0.tgz

2.上传解压

将安装包上传到/opt/software目录,并解压

tar -zxf kafka_2.11-0.9.0.0.tgz -C /opt/module/

3.修改配置文件

创建logs目录

[root@hadoop01 module]# cd kafka_2.11-0.9.0.0/
[root@hadoop01 kafka_2.11-0.9.0.1]# ll
total 28
drwxr-xr-x 3 root root  4096 Feb 12  2016 bin
drwxr-xr-x 2 root root  4096 Feb 12  2016 config
drwxr-xr-x 2 root root  4096 May  8 09:39 libs
-rw-r--r-- 1 root root 11358 Feb 12  2016 LICENSE
-rw-r--r-- 1 root root   162 Feb 12  2016 NOTICE
drwxr-xr-x 2 root root    46 Feb 12  2016 site-docs
[root@hadoop01 kafka_2.11-0.9.0.1]# mkdir logs

修改server.properties配置文件

[root@hadoop01 kafka_2.11-0.9.0.1]# cd config/
You have new mail in /var/spool/mail/root
[root@hadoop01 config]# vim server.properties 

配置以下内容

#broker的全局唯一编号,不能重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径    
log.dirs=/opt/module/kafka_2.11-0.9.0.0/logs
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=hadoop01:2181

4.配置环境变量

[root@hadoop01]# sudo vim /etc/profile

#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka_2.11-0.9.0.0
export PATH=$PATH:$KAFKA_HOME/bin

[root@hadoop01]# source /etc/profile

5.修改zookeeper配置

[root@hadoop01 config]# vim zookeeper.properties

dataDir=/opt/module/kafka_2.11-0.9.0.0/zookeeper
# the port at which the clients will connect
clientPort=2181
# disable the per-ip limit on the number of connections since this is a non-production config
#maxClientCnxns=0
tickTime=2000
initLimit=10
syncLimit=5
server.1=hadoop01:2888:3888

在zookeeper的数据目录添加myid文件,写入服务broker.id属性值,如这里的目录是/opt/module/kafka_2.11-0.9.0.1/zookeeper

[root@hadoop01 kafka_2.11-0.9.0.0]# cd /opt/module/kafka_2.11-0.9.0.1/zookeeper
[root@hadoop01 zookeeper]# 
[root@hadoop01 zookeeper]# touch myid
[root@hadoop01 zookeeper]# echo 1 > myid
[root@hadoop01 zookeeper]# cat myid 
1

6.启动kafka

启动kafka之前要先启动zookeeper,这里使用的是kafka自带的zk

[root@hadoop01 ~]# cd /opt/module/kafka_2.11-0.9.0.0/
[root@hadoop01 kafka_2.11-0.9.0.0]# ls
bin  config  libs  LICENSE  logs  NOTICE  site-docs  zookeeper
[root@hadoop01 kafka_2.11-0.9.0.0]# 
[root@hadoop01 kafka_2.11-0.9.0.0]# bin/zookeeper-server-start.sh ./config/zookeeper.properties >./logs/zk.log &
[root@hadoop01 kafka_2.11-0.9.0.0]# jps
2326 Jps
[root@hadoop01 kafka_2.11-0.9.0.0]# bin/zookeeper-server-start.sh ./config/zookeeper.properties >./logs/zk.log &
[1] 2341
[root@hadoop01 kafka_2.11-0.9.0.0]# jps
2341 QuorumPeerMain
2367 Jps
[root@hadoop01 kafka_2.11-0.9.0.0]# 

启动kafka

[root@hadoop01 tools]# cd /opt/module/kafka_2.11-0.9.0.0/
[root@hadoop01 kafka_2.11-0.9.0.0]# bin/kafka-server-start.sh -daemon config/server.properties
[root@hadoop01 kafka_2.11-0.9.0.0]# 
[root@hadoop01 kafka_2.11-0.9.0.0]# jps
33593 QuorumPeerMain
33707 Kafka
33739 Jps
[root@hadoop01 kafka_2.11-0.9.0.1]#

停止kafka

[root@hadoop01 kafka_2.11-0.9.0.1]# bin/kafka-server-stop.sh stop

7.测试

创建topic

[root@hadoop01 kafka_2.11-0.9.0.0]# bin/kafka-topics.sh --create --zookeeper hadoop01:2181 --replication-factor 1 --partitions 1 --topic kafka_streaming_topic

参数说明:
–zookeeper:指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样
–replication-factor:指定副本数量
–partitions:指定分区数量
–topic:主题名称

查看kafka中所有topic信息

[root@hadoop01 kafka_2.11-0.9.0.0]# bin/kafka-topics.sh --list --zookeeper hadoop01:2181

创建生产者

bin/kafka-console-producer.sh --broker-list hadoop01:9092 --topic kafka_streaming_topic

创建消费者

bin/kafka-console-consumer.sh --zookeeper hadoop01:2181 --topic kafka_streaming_topic --from-beginning

参数说明:
–from-beginning 从头开始消费
–bootstrap-server 指的是目标集群kafka的服务器地址,新版本之后(新版本指的是kafka 0.8.0之后的版本)开始使用 --bootstrap-server代替 --zookeeper

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/459075.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Yuzuki Lizard 全志V851S开发板 –移植 QT5.12.9教程

本文转载自:https://forums.100ask.net/t/topic/3027 移植 QT5 教程 (此教程基于docker版V851S开发环境) docker pull registry.cn-hangzhou.aliyuncs.com/gloomyghost/yuzukilizard 编译依赖 apt-get install repo git gcc-arm-linux-gn…

用户订阅付费如何拆解分析?看这篇就够了

会员制的订阅付费在影音娱乐行业中已相当普及,近几年,不少游戏厂商也开始尝试订阅收费模式。在分析具体的用户订阅偏好以及订阅付费模式带来的增长效果时,我们常常会有这些疑问: 如何从用户的整体付费行为中具体拆解订阅付费事件…

Numpy从入门到精通——数组变形|合并数组

这个专栏名为《Numpy从入门到精通》,顾名思义,是记录自己学习numpy的学习过程,也方便自己之后复盘!为深度学习的进一步学习奠定基础!希望能给大家带来帮助,爱睡觉的咋祝您生活愉快! 这一篇介绍《…

SLAM论文速递:SLAM—— 流融合:基于光流的动态稠密RGB-D SLAM—4.25(2)

论文信息 题目: FlowFusion:Dynamic Dense RGB-D SLAM Based on Optical Flow 流融合:基于光流的动态稠密RGB-D SLAM论文地址: https://arxiv.org/pdf/2003.05102.pdf发表期刊: 2020 IEEE International Conference on Robotics and Automa…

【Spring Cloud】Spring Cloud 是什么?

文章目录 前言一、子项目二、常用组件三、把 Spring Cloud 官方、Netflix、Alibaba 三者整理成如下表格: 前言 Spring 以 Bean(对象) 为中心,提供 IOC、AOP 等功能。Spring Boot 以 Application(应用) 为中…

Python小姿势 - Python操作Excel表格数据

Python操作Excel表格数据 在日常工作中,我们经常会遇到一些需要对表格数据进行处理的情况,比如:数据清洗、数据分析、数据可视化等。对于这些任务,我们可以使用Python来进行操作。 在Python中操作Excel表格数据,我们可…

electron+vue3全家桶+vite项目搭建【13】封装加载进度显示,新建窗口 演示主进程与渲染进程通信

文章目录 引入实现效果演示:1.封装新建窗口工具2.测试新建窗口3.封装进度条加载4.测试进度条加载 引入 这里我们通过封装electron的工具类来演示electron中的主进程和渲染进程利用ipc进行通信 demo项目地址 electron官方文档ipc通信 实现效果演示: …

通过注册表设置远程桌面的配置

***************************修改远程终端端口号*************************** [HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Terminal Server\Wds\rdpwd\Tds\tcp] "PortNumber"dword:00000d3d [HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Terminal Ser…

代码优雅之道——如何干掉过多的if else

1、前言 注意标题是过多的,所以三四个就没必要干掉了。实际开发中我们经常遇到判断条件很多的情况,比如下图有20多种情况,不用想肯定是要优化代码的,需要思考的是如何去优化? 网上很多说用switch case啊,首…

算法刷题|198.打家劫舍、213.打家劫舍Ⅱ、337.打家劫舍Ⅲ

打家劫舍 题目:你是一个专业的小偷,计划偷窃沿街的房屋。每间房内都藏有一定的现金,影响你偷窃的唯一制约因素就是相邻的房屋装有相互连通的防盗系统,如果两间相邻的房屋在同一晚上被小偷闯入,系统会自动报警。 给定…

【社区图书馆】Fundamentals Of Computer Graphics——The beginning of computer graphics

目录 English 中文 English "Fundamentals Of Computer Graphics" is a classic textbook on computer graphics, also known as the "Tiger Book". It is considered one of the best introductory texts in the field of computer graphics. The book …

1分钟搭建自己的GPT网站

如果觉得官方免费的gpt(3.5)体验比较差,总是断开,或者不会fanqiang,那你可以自己搭建一个。但前提是你得有gpt apikey。年初注册的还有18美金的额度,4.1号后注册的就没有额度了。不过也可以自己充值。 有了…

【Redis】Redis事务

介绍 可以一次执行多个命令,本质是一组命令的集合。一个事务中的所有命令都会序列化, 按顺序地串行化执行而不会被其他命令插入一个队列中,一次性、顺序性、排他性的执行一系列命令没有隔离级别的概念,没有脏读、不可重复读等。 …

思维导图从入门到大神

思维导图怎么做?思维导图是一种发散性思维的图。在我们生活的方方面面都有运用。无论是工作、学习、还是生活,我们都可以用到它。那思维导图是怎么绘制的呢?其实非常简单,只要这简单的几步 1、首先在绘制思维导图前,我…

veImageX 演进之路:iOS 高性能图片加载 SDK

动手点关注 干货不迷路 1. SDK简介 图片在业务应用场景是一个常见的元素,veImageX(简称ImageX)为业务提供了灵活、高效的一站式图片处理解决方案,包括了服务端 SDK、上传 SDK 和客户端图片加载 SDK。本文就来介绍下 iOS 客户端图…

力扣 1493(删掉一个元素以后全为 1 的最长子数组)Java

目录 题目 约束 用例 解题思路 各位看官先看执行结果 这道题呢,采用的滑动窗口思想。 题目 给你一个二进制数组 nums ,你需要从中删掉一个元素。 请你在删掉元素的结果数组中,返回最长的且只包含 1 的非空子数组的长度。 如果不存在…

15天学习MySQL计划-索引(进阶篇)第七天

索引 1.索引概述 1.介绍 索引(index)是帮助MySQL高效获取数据的数据结构(有序)。在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数…

HTTP1.1(十二)Cookie的格式与约束

一 Cookie的格式与约束 ① Cookies是什么 1) cookie是我们在前端编程中经常使用的概念2) 使用cookie利用浏览器帮助我们保存客户的相关状态信息,保存用户已经做了什么事情3) 重点和难点[1]、cookie的工作原理[2]、cookie的限制是什么[3]、session又是怎样与cookie关联起来 …

【Android Framework (七) 】- ActivityManagerService(AMS)

文章目录 知识回顾启动第一个流程initZygote的流程system_serverServiceManagerBinderLauncher的启动 前言源码分析1.AMS的启动. ActivityManagerService.java2.setSystemProcess3.应用进程的初始化4.Activity的启动流程 拓展知识1.介绍一下Activity的启动流程。2.ActivityMana…

Handbook of MusicPsychology 音乐心理学手册 ( 多纳德·霍杰斯 Donald.A.Hodges) 笔记

由两个以上的音组成的结合音,除了该声波的波形,人耳会另外脑补出不存在的波形 频率相距较远的一些音与频率相距较近的一些音,前者累加的响度比后者要大 除了泛音部分,音的起声部分也是音色辨别的关键 音高、响度、音色、时值&a…