Elastic Agent 对 Kafka 的新输出:数据收集和流式传输的无限可能性

news2025/1/30 20:59:04

作者:来 Elastic Valerio Arvizzigno, Geetha Anne 及 Jeremy Hogan

介绍 Elastic Agent 的新功能:原生输出到 Kafka。借助这一最新功能,Elastic® 用户现在可以轻松地将数据路由到 Kafka 集群,从而实现数据流和处理中无与伦比的可扩展性和灵活性。在本文中,我们将深入探讨这种强大集成的优势和用例。

Elasticsearch 和 Kafka:更好的结合用例

在物联网 (IoT)、自动化工厂和汽车或制造业等行业复杂的 IT 架构不断发展的格局中,精确和实时数据至关重要。想象一下高科技汽车工厂的生产线,成千上万的传感器不断监测机器的性能,从机械臂的精确扭矩到关键发动机部件的温度。想想每天有多少分布式设备围绕着我们,需要远程管理、监控和保护,以确保最佳用户体验,同时为企业收集有价值的数据。在这种动态环境中,对高效数据采集、实时处理和强大的数据存储与分析的需求不仅仅是一种偏好,更是绝对必要。

正是在这里,凭借强大的数据流功能,Kafka 成为关键技术,将物联网和分布式系统世界与市场上领先的洞察引擎 Elasticsearch® 无缝连接,从而实现快速决策、预测性维护和增强的运营洞察。

在本文中,我们将探讨 Confluent Kafka 和 Elasticsearch 如何协同使用,通过新的 Elastic Agent 集成提供无与伦比的洞察、弹性和效率。

Elastic Agent 的 Kafka 输出解锁了新可能性

Kafka 通常是高效管理大规模数据场景的首选,许多 Elastic 用户已经在其环境中采用 Kafka,用于 Beats 和 Elasticsearch 集群之间的多种用例。长期以来,Beats 一直集成了原生的 Kafka 输出功能,许多客户对此非常满意。而如今,同样的功能也在 Elastic Agent 中得以实现。Elastic Agent 是我们统一的解决方案,用于监控每个托管主机上的指标、收集日志并应对网络威胁。那么,这一 Elastic Agent 新功能为何如此重要?又有哪些理由让你今天就开始使用它?

Elastic Agent 比 Beats 有几个优势:

  1. 更易于部署和管理:Elastic Agent 是一个单一代理,可下载、配置和管理收集和解析数据所需的任何底层策略或组件。这样就无需部署多个 Beats 并为主机上运行的每个 Beat 管理单独的配置文件。
  2. 配置更简单:你无需为每个 Beat 定义和管理单独的配置文件,只需定义一个代理策略(agent policy)来指定要使用的集成设置,然后 Elastic Agent 会生成底层工具所需的配置。
  3. 集中管理:Elastic Agent 可以从 Kibana® 中名为 Fleet 的中心位置进行管理。在 Fleet 中,你可以查看正在运行的 Elastic Agent 的状态,更新代理策略并将其推送到你的主机,甚至触发二进制升级。不再需要 SSH 到你的主机或软件管理工具。
  4. 端点保护:Elastic Agent 使你能够保护你的端点免受安全威胁。这使客户能够使用他们正在收集的数据上的新安全用例来扩展他们的 Elastic 价值,而无需额外的工具或精力。

有了这些优势和功能,管理和保护你的分布式系统从未如此简单!要为 Fleet 管理的代理注册新的 Kafka 输出,你只需执行以下操作:

  • 在 Kibana UI 中打开 Fleet 的 “Settings” 选项卡。
  • 在 “Output” 部分,Add output
  • 为新输出命名并选择 Kafka 作为输出 Type
  • 填写你的场景所需的所有相关 Kafka 集群字段,例如 Kafka 代理的 hostnameauthentication 详细信息或 SSL 配置。
  • Save and apply settings

你将能够设置分区规则和要发送数据的主题,该主题/topic 是静态定义的。

Kafka 输出将在代理策略创建阶段可用,其中可以为集成和代理监控流设置它,并自动应用于你决定将它们附加到的代理。

你可以在我们的官方文档中探索所有详细信息和选项,也可以通过分步配置指南进行指导。

配置 Elastic Agent 到 Kafka 的新输出

借助此新发布的集成,现有使用 Beats 的 Kafka 用户将能够将其工作负载切换到 Elastic Agent,并从上述所有增强的可观察性和安全性场景中受益。此外,当前的 Elastic Agent 用户将不再有障碍来评估和采用 Kafka 作为其 Elastic 端到端数据流合作伙伴。

架构概述

在上面的整体架构图中,Elastic Agent、Confluent Kafka 和 Elastic Cloud 被显示为数据旅程的主要组件。

Elastic Agent 将通过其原生集成从大量主机和系统收集日志和指标,并与 Confluent Cloud 连接器一起处理来自多个数据源的事件和事务数据,从而产生无限的可能性,以在单一窗格中收集、整合和丰富你的企业数据。

然后,Kafka 将接收这些不同的数据流并对其进行处理并将其分发给相关消费者。对于需要强大转换的高级场景(例如,本机 IP 地理定位、从非结构化数据中获取结构化数据、PII 屏蔽),Logstash® 可以插入 Kafka 和 Elasticsearch 之间,这要归功于其专用的输入和输出插件。对于从 Kafka 到 Elasticsearch 的直接无缝流式传输,最好的选择是利用 Elasticsearch Sink Connector,只需通过 Confluent UI 单击几下即可进行配置。

一旦数据进入 Elastic,数据就会开始发光,借助 Elasticsearch 和 Kibana 的搜索、分析和可视化功能,展现其价值。我们将在以下部分中更详细地介绍这一点。

Confluent Kafka 对 Elastic 工作负载的好处

Confluent 的 Kafka 与 Elasticsearch 集成以处理 Elastic 工作负载时具有多种优势,尤其是在需要实时或近实时处理和分析大量数据的场景中。将 Ka​​fka 与 Elasticsearch 结合使用以处理 Elastic 工作负载的一些主要优势包括:

1. 完全托管服务

Confluent Cloud 是一种完全托管服务,这意味着 Confluent 负责底层基础设施,包括硬件配置、软件维护和集群扩展。这减轻了你团队的运营开销,让你可以专注于构建应用程序和处理数据。

2. 实时数据提取

Kafka 擅长实时收集和提取数据,是将数据流式传输到 Elasticsearch 的理想选择。Confluent 连接器旨在简化从 Kafka 到 Elasticsearch 和从 Elasticsearch 到 Kafka 的流式传输数据的过程,从而更轻松地为各种用例(包括日志和事件数据分析)构建实时数据管道。Confluent Elastic connectors 包括:

  • Confluent Elasticsearch Sink 连接器:此连接器用于将数据从 Kafka 主题发送到 Elasticsearch 进行索引和搜索。它允许你指定从哪些 Kafka 主题使用数据以及将数据写入哪些 Elasticsearch 索引。连接器支持多种数据格式,包括 JSON、Avro 等。
  • Confluent HTTP Sink 连接器:此连接器从 Kafka 主题使用记录并将其转换为字符串或 JSON,然后将其发送到配置的 API URL(在本例中为 Elastic API 端点)。这在需要完全可自定义的 API 调用的场景中非常有用。
  • Confluent Elasticsearch 源连接器:此连接器用于从 Elasticsearch 中提取数据并将其流式传输到 Kafka 主题。它允许你创建主题并将 Elasticsearch 索引映射到 Kafka 主题以进行数据同步。

3. 数据聚合和转换

Kafka 可以充当数据的缓冲区,允许你在将数据索引到 Elasticsearch 之前执行数据聚合和转换。Confluent 开发了 KSQL 和相关数据存储 (ksqlDB),它们是类似 SQL 的查询工具,用于将流数据直接处理到 Kafka 中。这简化了实时数据处理,使用户能够轻松创建应用程序,并为准备要在 Kibana 中搜索和可视化的数据提供帮助。

4. 可扩展性

Kafka 具有高度可扩展性,可以处理高数据吞吐量。它允许你水平和垂直扩展以适应不断增长的数据工作负载。这确保你的 Elastic 工作负载能够跟上不断增长的数据量和处理需求,而 Kafka 是其抵御意外峰值和摄入压力的盾牌。Confluent Cloud 允许你随着数据和工作负载需求的增长无缝扩展 Kafka 集群。你可以轻松调整集群大小、存储和吞吐量以适应数据量和处理需求的变化。

5. 数据源和消费者解耦

Kafka 充当数据源和 Elasticsearch 之间的中介。这种解耦允许你添加或删除数据生产者和消费者,而不会影响整个系统的稳定性。它还可以确保当 Elasticsearch 或连接网络发生故障时数据不会丢失。

6. 优化 Elasticsearch 索引

通过使用 Confluent 的 Kafka 作为中介,你可以优化 Elasticsearch 中的索引过程。数据可以在发送到 Elasticsearch 之前进行批处理和压缩,从而减少 Elasticsearch 集群上的负载。

7. 统一数据集成

Kafka 可以很好地与各种数据源和接收器集成。它可以从各种系统中提取数据,从而更容易将数据集中到 Elasticsearch 中进行全面分析。Elastic Agent 与 Kafka 集成相结合,为你提供了收集和移动数据的无限可能性。

8. 与 Logstash 合作

Kafka 插件允许 Logstash 使用来自 Apache Kafka 主题的数据作为输入,或将数据发送到 Kafka 主题作为输出。这些插件是更广泛的 Logstash 生态系统的一部分,被广泛用于在各种工作流程中将 Logstash 与 Kafka 集成。

  • Kafka 输入插件:Kafka 输入插件允许 Logstash 使用来自一个或多个 Kafka 主题的消息并在 Logstash 中处理它们。你可以配置 Kafka 输入插件以订阅特定主题、使用消息,然后应用各种 Logstash 过滤器来根据需要转换和丰富数据。
  • Kafka 输出插件:Kafka 输出插件允许 Logstash 将处理后的数据发送到 Kafka 主题。在 Logstash 中处理和丰富数据后,你可以使用此插件将数据发布到特定的 Kafka 主题,使其可供其他应用程序或系统的下游处理。

使用 Elastic Cloud 搜索洞察并检测异常

一旦数据进入 Elastic,就会产生无限可能来从中创造价值。例如,通过 Elasticsearch,预测分析的应用可实现预测性维护。通过利用传感器数据(包括气压、油压、温度、电压、速度、声音、频率以及颜色或照明变化等参数),Elasticsearch 有助于及早发现潜在的设备故障。这种实时数据分析与 Elasticsearch 强大的搜索和查询功能相结合,不仅可以作为预警系统,还可以为数据驱动的决策提供宝贵的洞察。最终结果是降低成本并制定更有效的维护策略,从而实现卓越运营。

此外,Elasticsearch 还使生产管理人员能够根据实时数据和自适应阈值制定个性化的维护计划,从而增强生产管理能力。这种动态方法取代了僵化的维护周期,在僵化的维护周期中,无论组件是否容易发生故障,都会进行更换。 Elasticsearch 的搜索和可视化功能(尤其是在利用 Kibana 功能时)提供了数据趋势和异常值的全面视图,从而有助于制定更有意义且更具成本效益的策略。同样的原则也适用于更高的抽象层,例如本地和云 IT 架构和应用程序,在这些架构和应用程序中,弹性和业务连续性是日益重要的主题,并且通常对制造流程至关重要。

尽管如此,实时分析来自大量传感器、设备和服务的数据并将其与历史事件进行比较的挑战对于人类操作员来说是一项艰巨的任务。这正是 Elasticsearch 的异常检测功能与其机器学习功能相结合发挥作用的地方。借助 Elastic,你可以有效地查明偏差或关联来自多个来源的数据以生成全面的健康评分。这种宝贵的功能使企业能够通过数据驱动的机制领先于潜在问题并主动响应。

除了增强预测性维护和质量控制外,Elasticsearch 在确保分布式架构和主机的安全性方面也发挥着至关重要的作用。 Elastic SIEM 和端点保护解决方案可全面监控、预防、检测和响应安全事件和威胁,确保业务连续性和合规性。

使用 Elasticsearch 和 Kafka,可以从制造厂或 IT 架构内的各种系统(从运行旧软件的传统系统到尖端技术)收集数据并将其转化为业务洞察,这是一个无缝流程。此外,在成本优化和工具整合的时代,没有比这更好的地方可以在单一管理平台中实现所有搜索、可观察性和安全性目标。

探索更多并试用!

了解 BMW 等客户如何利用 Elastic 构建弹性多渠道客户体验,并借助 Confluent Cloud 整合跨多个系统和应用程序的生产和销售数据流。

查看我们的 7 分钟教程或博客文章,详细了解如何通过 Elasticsearch Sink Connector 将 Confluent Cloud 与 Elastic 集成。 是否还想利用 Elastic 来监控 Kafka 集群本身? 通过这篇文章和我们的 Kafka 可观察性集成文档了解更多信息。

将数据从 Confluent Cloud 索引到 Elastic Cloud

亲自尝试一下! 开始使用和探索我们功能的最简单方法之一是使用你自己的免费 Elastic Cloud 试用版和 Confluent Cloud 试用环境,或者通过你最喜欢的云提供商的市场进行订阅。

原文:Elastic Agent’s new output to Kafka: Endless possibilities for data collection and streaming | Elastic Blog

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2286596.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Elasticsearch 性能测试工具 Loadgen 之 002——命令行及参数详解

上一讲,我们讲解了 Loadgen 的极简部署方式、配置文件、快速使用从 0 到 1 方式。 本讲,我们主要解读一下 Loadgen 的丰富的命令行及参数含义。 有同学可能会说,上面不是介绍很清楚了吗?但,咱们还是有必要详细中文解读…

书生大模型实战营3

文章目录 L0——入门岛git基础Git 是什么?Git 中的一些基本概念工作区、暂存区和 Git 仓库区文件状态分支主要功能 Git 平台介绍GitHubGitLabGitee Git 下载配置验证下载 Git配置 Git验证 Git配置 Git常用操作Git简易入门四部曲Git其他指令 闯关任务任务1: 破冰活动…

【玩转全栈】----靓号管理系统实现

先赞后看,养成习惯。。。 目录 数据库设置 基本功能 路由器 靓号显示 靓号添加 靓号编辑 视图函数 额外功能 搜索功能 分页 一般逻辑 动态页码 上下页 首尾页 数据库设置 新建一个数据库(或者就用之前部门、用户管理的也行),用Dja…

【Attention】KV Cache

1 什么是KV Cache? 定义:KV Cache 即 Key-Value Cache,是用于加速 Transformer 模型推理长序列过程的一种技术。 核心原理:在 Transformer 的自注意力机制中,将历史输入 token 中的 Key 和 Value 缓存下来&#xff0c…

【Proteus仿真】【51单片机】多功能计算器系统设计

目录 一、主要功能 二、使用步骤 三、硬件资源 四、软件设计 五、实验现象 联系作者 一、主要功能 1、LCD1602液晶显示 2、矩阵按键​ 3、加减乘除,开方运算 4、带符号运算 5、最大 999*999 二、使用步骤 基于51单片机多功能计算器 包含:程序&…

【教学类-89-01】20250127新年篇01—— 蛇年红包(WORD模版)

祈愿在2025蛇年里, 伟大的祖国风调雨顺、国泰民安、每个人齐心协力,共同经历这百年未有之大变局时代(国际政治、AI技术……) 祝福亲友同事孩子们平安健康(安全、安全、安全)、巳巳如意! 背景需…

leetcode——二叉树的最大深度(java)

给定一个二叉树 root ,返回其最大深度。 二叉树的 最大深度 是指从根节点到最远叶子节点的最长路径上的节点数。 示例 1: 输入:root [3,9,20,null,null,15,7] 输出:3 示例 2: 输入:root [1,null,2] 输…

Java创建项目准备工作

新建项目 新建空项目 每一个空项目创建好后都要检查jdk版本 检查SDK和语言级别——Apply——OK 检查当前项目的Maven路径,如果已经配置好全局,就是正确路径不用管 修改项目字符集编码,将所有编码都调整为UTF-8 创建Spingboot工程 创建Spring…

汽车免拆诊断案例 | 2007 款日产天籁车起步加速时偶尔抖动

故障现象  一辆2007款日产天籁车,搭载VQ23发动机(气缸编号如图1所示,点火顺序为1-2-3-4-5-6),累计行驶里程约为21万km。车主反映,该车起步加速时偶尔抖动,且行驶中加速无力。 图1 VQ23发动机…

【JavaEE】_MVC架构与三层架构

目录 1. MVC架构 2. 三层架构 3. MVC架构与三层架构的对比 3.1 MVC与三层架构的对比 3.2 MVC与三层架构的共性 1. MVC架构 在前文已介绍关于SpringMAC的设计模式,详见下文: 【JavaEE】_Spring Web MVC简介-CSDN博客文章浏览阅读967次,点…

单片机基础模块学习——PCF8591芯片

一、A/D、D/A模块 A——Analog 模拟信号:连续变化的信号(很多传感器原始输出的信号都为此类信号)D——Digital 数字信号:只有高电平和低电平两种变化(单片机芯片、微控制芯片所能处理的都是数字信号) 下面是模拟信号和连续信号的区别 为什么需要进行模拟信号和数字信号之…

Vue5---

目录 一、学习目标 1.自定义指令 2.插槽 3.综合案例:商品列表 4.路由入门 二、自定义指令 1.指令介绍 2.自定义指令 3.自定义指令的语法 三、自定义指令-指令的值 1.需求 2.语法 3.代码示例 五、插槽-默认插槽 1.作用 2.需求 4.使用插槽的基本语法…

分享| RL-GPT 框架通过慢agent和快agent结合提高AI解决复杂任务的能力-Arxiv

结论 “RL-GPT: Integrating Reinforcement Learning and Code-as-policy” RL-GPT 框架为解决大语言模型在复杂任务处理中的难题提供了创新有效的途径, 旨在将强化学习(RL)和代码即策略相结合, 以解决大语言模型&#xff08…

Prompt提示词完整案例:让chatGPT成为“书单推荐”的高手

大家好,我是老六哥,我正在共享使用AI提高工作效率的技巧。欢迎关注我,共同提高使用AI的技能,让AI成功你的个人助理。 许多人可能会跟老六哥一样,有过这样的体验:当我们遇到一个能力出众或对事物有独到见解的…

【开源免费】基于SpringBoot+Vue.JS在线考试学习交流网页平台(JAVA毕业设计)

本文项目编号 T 158 ,文末自助获取源码 \color{red}{T158,文末自助获取源码} T158,文末自助获取源码 目录 一、系统介绍二、数据库设计三、配套教程3.1 启动教程3.2 讲解视频3.3 二次开发教程 四、功能截图五、文案资料5.1 选题背景5.2 国内…

如何解压rar格式文件?8种方法(Win/Mac/手机/网页端)

RAR 文件是一种常见的压缩文件格式,由尤金・罗谢尔(Eugene Roshal)开发,因其扩展名 “rar” 而得名。它通过特定算法将一个或多个文件、文件夹进行压缩,大幅减小存储空间,方便数据传输与备份。然而&#xf…

Kafka 副本机制(包含AR、ISR、OSR、HW 和 LEO 介绍)

文章目录 Kafka 副本机制(包含AR、ISR、OSR、HW 和 LEO 介绍)1. 副本的基本概念2. 副本同步和一致性2.1 AR(Assigned Replicas)2.2 ISR(In-Sync Replicas)2.3 OSR(Out-of-Sync Replicas&#xf…

网关登录校验

网关登录校验 单体架构时我们只需要完成一次用户登录、身份校验,就可以在所有业务中获取到用户信息。而微服务拆分后,每个微服务都独立部署,不再共享数据。也就意味着每个微服务都需要做登录校验,这显然不可取。 鉴权思路分析 …

【C语言】在Windows上为可执行文件.exe添加自定义图标

本文详细介绍了在 Windows 环境下,如何为使用 GCC 编译器编译的 C程序 添加自定义图标,从而生成带有图标的 .exe 可执行文件。通过本文的指导,读者可以了解到所需的条件以及具体的操作步骤,使生成的程序更具专业性和个性化。 目录 1. 准备条件2. 具体步骤步骤 1: 准备资源文…

计算机毕业设计Python+知识图谱大模型AI医疗问答系统 健康膳食推荐系统 食谱推荐系统 医疗大数据 机器学习 深度学习 人工智能 爬虫 大数据毕业设计

温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 作者简介:Java领…