0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

替代ELK:ClickHouse+Kafka+FlieBeat才是最绝的

电子工程师 来源: 芋道源码 作者: 芋道源码 2022-10-09 17:41 次阅读

来源:juejin.cn/post/7120880190003085320

背景

Elasticsearch 与 ClickHouse

成本分析

环境部署

总结

背景

saas业务业务未来需要业务管理、业务管理等业务能力。

为了平台系统能力、我们需要完善数据集来帮助运营分析活动效果、提升运营能力。

如果在实际过程中直接部署系统,对于用户来说,将是一个巨大的数据比较能力的服务器。我们在开发中使用折中方案完善数据分析。

Elasticsearch 与 ClickHouse

ClickHouse是一款系统列式对数据库管理的测试,我们使用ClickHouse进行了以下优势:

①ClickHouse 输入商品

单服务器记录写入量在 50MB 到 50MB/秒,记录写入超过 60w 个数,是 ES 的 5 倍以上。

在 ES 中比较常见的写 Rejected 导致数据丢失、写入延迟等问题,在 ClickHouse 中不容易发生。

②查询速度快

网页缓存中的快速数据,在页面缓存中的快速查询单 2-30GB/查询速度;没有在的情况下,查询查询结果的查询速度和数据查询速度比 ES ClickHouse 5-30倍以上。

③点击费用比ES费用多少

Click House 的 ES 高,同样数据占用的计算机空间比 ES 的 1/0 使用 1/03 次,可以节省空间的同时,也能有效地减少碳 IO,这也是 Click 查询效率更高的原因之一。

be5e8cce-3568-11ed-ba43-dac502259ad0.png

点击使用House的内存资源,可以比用CPU的资源。

be7beddc-3568-11ed-ba43-dac502259ad0.png

成本分析

备注:在没有任何折扣的情况下,基于阿里云分析。

be8f6d62-3568-11ed-ba43-dac502259ad0.png

环境部署

动物园管理员聚集部署

bec276bc-3568-11ed-ba43-dac502259ad0.png

yuminstalljava-1.8.0-openjdk-devel.x86_64
/etc/profile配置环境变量
更新系统时间
yuminstallntpdate
ntpdateasia.pool.ntp.org

mkdirzookeeper
mkdir./zookeeper/data
mkdir./zookeeper/logs

wget--no-check-certificatehttps://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.7.1/apache-zookeeper-3.7.1-bin.tar.gz
tar-zvxfapache-zookeeper-3.7.1-bin.tar.gz-C/usr/zookeeper

exportZOOKEEPER_HOME=/usr/zookeeper/apache-zookeeper-3.7.1-bin
exportPATH=$ZOOKEEPER_HOME/bin:$PATH

进入ZooKeeper配置目录
cd$ZOOKEEPER_HOME/conf

新建配置文件
vizoo.cfg

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/zookeeper/data
dataLogDir=/usr/zookeeper/logs
clientPort=2181
server.1=zk1:2888:3888
server.2=zk2:2888:3888
server.3=zk3:2888:3888

在每台服务器上执行,给zookeeper创建myid
echo"1">/usr/zookeeper/data/myid
echo"2">/usr/zookeeper/data/myid
echo"3">/usr/zookeeper/data/myid

进入ZooKeeperbin目录
cd$ZOOKEEPER_HOME/bin
shzkServer.shstart

卡夫卡基地部署

mkdir-p/usr/kafka
chmod777-R/usr/kafka
wget--no-check-certificatehttps://mirrors.tuna.tsinghua.edu.cn/apache/kafka/3.2.0/kafka_2.12-3.2.0.tgz
tar-zvxfkafka_2.12-3.2.0.tgz-C/usr/kafka


不同的brokerId设置不一样,比如1,2,3
broker.id=1
listeners=PLAINTEXT://ip:9092
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dir=/usr/kafka/logs
num.partitions=5
num.recovery.threads.per.data.dir=3
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=3
transaction.state.log.min.isr=3
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=zk1:2181,zk2:2181,zk3:2181
zookeeper.connection.timeout.ms=30000
group.initial.rebalance.delay.ms=0

后台常驻进程启动kafka
nohup/usr/kafka/kafka_2.12-3.2.0/bin/kafka-server-start.sh/usr/kafka/kafka_2.12-3.2.0/config/server.properties>/usr/kafka/logs/kafka.log>&1&

/usr/kafka/kafka_2.12-3.2.0/bin/kafka-server-stop.sh

$KAFKA_HOME/bin/kafka-topics.sh--list--bootstrap-serverip:9092

$KAFKA_HOME/bin/kafka-console-consumer.sh--bootstrap-serverip:9092--topictest--from-beginning

$KAFKA_HOME/bin/kafka-topics.sh--create--bootstrap-serverip:9092--replication-factor2--partitions3--topicxxx_data

FileBeat 部署

sudorpm--importhttps://packages.elastic.co/GPG-KEY-elasticsearch

Createafilewitha.repoextension(forexample,elastic.repo)inyour/etc/yum.repos.d/directoryandaddthefollowinglines:
在/etc/yum.repos.d/目录下创建elastic.repo

[elastic-8.x]
name=Elasticrepositoryfor8.xpackages
baseurl=https://artifacts.elastic.co/packages/8.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md

yuminstallfilebeat
systemctlenablefilebeat
chkconfig--addfilebeat

FileBeat配置文件说明,坑点1(需设置keys_under_root: true)。如果不设置kafka的消息字段如下:

bf018dac-3568-11ed-ba43-dac502259ad0.png

文件目录:/etc/filebeat/filebeat.yml

filebeat.inputs:
-type:log
enabled:true
paths:
-/root/logs/xxx/inner/*.log
json:
如果不设置该索性,所有的数据都存储在message里面,这样设置以后数据会平铺。
keys_under_root:true
output.kafka:
hosts:["kafka1:9092","kafka2:9092","kafka3:9092"]
topic:'xxx_data_clickhouse'
partition.round_robin:
reachable_only:false
required_acks:1
compression:gzip
processors:
剔除filebeat无效的字段数据
-drop_fields:
fields:["input","agent","ecs","log","metadata","timestamp"]
ignore_missing:false

nohup./filebeat-e-c/etc/filebeat/filebeat.yml>/user/filebeat/filebeat.log&
输出到filebeat.log文件中,方便排查

clickhouse 部署

bf2568a8-3568-11ed-ba43-dac502259ad0.png

检查当前CPU是否支持SSE4.2,如果不支持,需要通过源代码编译构建
grep-qsse4_2/proc/cpuinfo&&echo"SSE4.2supported"||echo"SSE4.2notsupported"
返回"SSE4.2supported"表示支持,返回"SSE4.2notsupported"表示不支持

创建数据保存目录,将它创建到大容量磁盘挂载的路径
mkdir-p/data/clickhouse
修改/etc/hosts文件,添加clickhouse节点
举例:
10.190.85.92bigdata-clickhouse-01
10.190.85.93bigdata-clickhouse-02

服务器性能参数设置:
cpu频率调节,将CPU频率固定工作在其支持的最高运行频率上,而不动态调节,性能最好
echo'performance'|tee/sys/devices/system/cpu/cpu*/cpufreq/scaling_governor

内存调节,不要禁用overcommit
echo0|tee/proc/sys/vm/overcommit_memory

始终禁用透明大页(transparent huge pages)。它会干扰内存分配器,从而导致显着的性能下降
echo'never'|tee/sys/kernel/mm/transparent_hugepage/enabled

首先,需要添加官方存储库:
yuminstallyum-utils
rpm--import
yum-config-manager--add-repo

查看clickhouse可安装的版本:
yumlist|grepclickhouse
运行安装命令:
yum-yinstallclickhouse-serverclickhouse-client

修改/etc/clickhouse-server/config.xml配置文件,修改日志级别为information,默认是trace
information
执行日志所在目录:

正常日志
/var/log/clickhouse-server/clickhouse-server.log
异常错误日志
/var/log/clickhouse-server/clickhouse-server.err.log

查看安装的clickhouse版本:
clickhouse-server--version
clickhouse-client--password

sudoclickhousestop
sudoclickhousetart
sudoclickhousestart
bf4ae7d6-3568-11ed-ba43-dac502259ad0.png

clickhouse 部署过程中遇到的一些问题如下:

①点击house创建kafka引擎表:

CREATETABLEdefault.kafka_clickhouse_inner_logONCLUSTERclickhouse_cluster(
log_uuidString,
date_partitionUInt32,
event_nameString,
activity_nameString,
activity_typeString,
activity_idUInt16
)ENGINE=KafkaSETTINGS
kafka_broker_list='kafka1:9092,kafka2:9092,kafka3:9092',
kafka_topic_list='data_clickhouse',
kafka_group_name='clickhouse_xxx',
kafka_format='JSONEachRow',
kafka_row_delimiter='
',
kafka_num_consumers=1;

1:clikhouse 客户端问题无法查询 kafka 引擎

不允许直接选择。要启用使用设置 stream_like_engine_allow_direct_select.(QUERY_NOT_ALLOWED)(版本 22.5.2.53(官方构建))

bfa1f3dc-3568-11ed-ba43-dac502259ad0.png

解决方案:

需要在clickhouseclient创建加上--stream_like_engine_allow_direct_select1

clickhouse-client--stream_like_engine_allow_direct_select1--passwordxxxxx
c02e495e-3568-11ed-ba43-dac502259ad0.png

②点击房屋创建本地节点表

2:无法开启本地表宏

代码:62。DB::Exception:[10.74.244.57:9000] 上出现错误:代码:62.DB::Exception:在处理“/clickhouse/tables/default/”中的替换时,配置中没有宏“碎片” bi_inner_log_local/{shard}' at '50' 或宏在这里不受支持。(SYNTAX_ERROR)(版本 22.5.2.53(官方版本))。(SYNTAX_ERROR) (版本 22.5.2.53 (正式版))

创建本地表(使用复制去重表引擎)
createtabledefault.bi_inner_log_localONCLUSTERclickhouse_cluster(
log_uuidString,
date_partitionUInt32,
event_nameString,
activity_nameString,
credits_bringInt16,
activity_typeString,
activity_idUInt16
)ENGINE=ReplicatedReplacingMergeTree('/clickhouse/tables/default/bi_inner_log_local/{shard}','{replica}')
PARTITIONBYdate_partition
ORDERBY(event_name,date_partition,log_uuid)
SETTINGSindex_granularity=8192;

解决方案:在不同的clickhouse节点上配置不同的分片,每个节点的分片名称不能一致。


01
example01-01-1

c0dbc840-3568-11ed-ba43-dac502259ad0.pngc126c296-3568-11ed-ba43-dac502259ad0.png

3:clickhouse中节点数据已经存在

代码:253。DB::Exception:出现错误:代码:253。DB::Exception:副本/clickhouse/tables/default/bi_inner_log_local/01/replicas/example01-01-1 已存在。(REPLICA_IS_ALREADY_EXIST)(版本 22.5.2.53(官方版本))。(REPLICA_IS_ALREADY_EXIST)(版本 22.5.2.53(官方构建))

解决方案:进入zookeeper客户端删除相关节点,然后再重新创建ReplicatedReplaceingMergeTree表。这样可以保障每一个clickhouse节点去消费kafka分区的数据。

③点击房屋创建聚会表

日志(根据日志_uuid 分发给数据,相同的日志_uuid 会发送到同一时间的数据分片上重发):

CREATETABLEdefault.bi_inner_log_allONCLUSTERclickhouse_clusterASdefault.bi_inner_log_local
ENGINE=Distributed(clickhouse_cluster,default,bi_inner_log_local,xxHash32(log_uuid));

4:自动查询表无法查询

代码:516。DB::Exception:从 10.74.244.57:9000 接收。DB::Exception:默认值:身份验证失败:密码不正确或没有该名称的用户。(AUTHENTICATION_FAILED) (版本 22.5.2.53 (正式版))

解决方案:

 

 

 
 
true

ip1
9000
default
xxxx



true

ip2
9000
default
xxxx




④点击房屋创建物化视图

创建物化物,把查看 Kafka 消费表消费的同步 ClickHouse 表格数据表。

CREATEMATERIALIZEDVIEWdefault.view_bi_inner_logONCLUSTERclickhouse_clusterTOdefault.bi_inner_log_allAS
SELECT
log_uuid,
date_partition,
event_name,
activity_name,
credits_bring,
activity_type,
activity_id
FROMdefault.kafka_clickhouse_inner_log;

小结:不负有心人,解决完以上所有的问题。数据流转通了!这里所有组件都是功夫文档比较新的版本,所以过程中问题的解决基本都是官方或操作手册一步一步的解决。

c15ffa02-3568-11ed-ba43-dac502259ad0.png

总结一句话:问题遇到去解决或--帮助去解决,慢慢的你的官方升华。

总结

整个部署的过程中有一个坑,特别是filebeat yml的参数设置和clickhouse的配置说明。

很久没有更新了,经常看到博客35岁以后办的问题。说实话我自己也不会好以后怎么办,核心还是持续的&输出。不断的博客制造了自己的护城河,不管是技术专家、业务专家、架构、管理等。

个人建议如果能经常写代码就奋战一线,管理彻底与公司绑定。

如果所在行业的公司还是已经选择了整体的商业影响力,个人觉得可以奋战在一线,未来的工作。考量更多的影响力、感觉、技术架构。现在的我 35,从容的面对一天。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • SaaS
    +关注

    关注

    1

    文章

    350

    浏览量

    36530
  • 数据库
    +关注

    关注

    7

    文章

    3591

    浏览量

    63369
  • kafka
    +关注

    关注

    0

    文章

    48

    浏览量

    5158

原文标题:替代ELK:ClickHouse+Kafka+FlieBeat才是最绝的

文章出处:【微信号:芋道源码,微信公众号:芋道源码】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Redis流与Kafka相比如何?

    我们先来看看Kafka的基本架构。基本的数据结构是主题。它是一个按时间排序的记录序列,只需追加。使用这种数据结构的好处在Jay Kreps的经典博文The Log中得到了很好的描述。
    的头像 发表于 02-21 16:09 171次阅读
    Redis流与<b class='flag-5'>Kafka</b>相比如何?

    kafka基本原理详解

    今天浩道跟大家分享一篇关于kafka相关原理的硬核干货,可以说即使你没有接触过kafka,也可以秒懂,一起看看!
    的头像 发表于 01-03 09:57 379次阅读
    <b class='flag-5'>kafka</b>基本原理详解

    kafka支持哪些消息交付语义?

    在读完kafka官方文档,kafka设计里的消息交付语义一章后,给我的第一印象是内容很抽象,于是草拟和总结了给个副标题,并把相关内容进行了归类;有些生涩的句子,尽量用大白话和举例进行说明,并加入了总结。
    的头像 发表于 12-22 11:27 226次阅读
    <b class='flag-5'>kafka</b>支持哪些消息交付语义?

    如何保证kafka消息不丢失

    如果在简历上写了使用过kafka消息中间件,面试官大概80%的概率会问你:"如何保证kafka消息不丢失?"反正我是屡试不爽。
    的头像 发表于 12-19 09:52 293次阅读
    如何保证<b class='flag-5'>kafka</b>消息不丢失

    golang中使用kafka的综合指南

    kafka是一个比较流行的分布式、可拓展、高性能、可靠的流处理平台。在处理kafka的数据时,这里有确保处理效率和可靠性的多种最佳实践。本文将介绍这几种实践方式,并通过sarama实现他们。
    的头像 发表于 11-30 11:18 314次阅读

    ClickHouse 联合创始人、前 Google 副总裁 Yury 到访杭州玖章算术公司,双方建立生态合作

    10 月 31 日,ClickHouse 联合创始人 Yury 到访未来科技城,与玖章算术创始人叶正盛和国际总经理 Ni Demai 展开沟通与推进合作。ClickHouse 是深受开发者青睐的实时
    的头像 发表于 11-17 11:23 480次阅读
    <b class='flag-5'>ClickHouse</b> 联合创始人、前 Google 副总裁 Yury 到访杭州玖章算术公司,双方建立生态合作

    如何将Kafka使用到我们的后端设计中

    本文介绍了以下内容: 1.什么是Kafka? 2.为什么我们需要使用Kafka这样的消息系统及使用它的好处 3.如何将Kafka使用到我们的后端设计中。 译自timber.io
    的头像 发表于 10-30 14:30 255次阅读
    如何将<b class='flag-5'>Kafka</b>使用到我们的后端设计中

    kafka相关命令详解

    kafka常用命令详解
    的头像 发表于 10-20 11:34 353次阅读

    Kafka架构技术:Kafka的架构和客户端API设计

    Kafka 给自己的定位是事件流平台(event stream platform)。因此在消息队列中经常使用的 "消息"一词,在 Kafka 中被称为 "事件"。
    的头像 发表于 10-10 15:41 278次阅读
    <b class='flag-5'>Kafka</b>架构技术:<b class='flag-5'>Kafka</b>的架构和客户端API设计

    Spring Kafka的各种用法

    最近业务上用到了Spring Kafka,所以系统性的探索了下Spring Kafka的各种用法,发现了很多实用的特性,下面介绍下Spring Kafka的消息重试机制。 0. 前言 原生
    的头像 发表于 09-25 17:04 393次阅读

    监控Kafka集群的常用的方法和工具介绍

    JMX监控:Kafka提供了JMX(Java Management Extensions)接口,可以通过JMX来监控和管理Kafka集群。您可以使用JConsole、Java Mission
    发表于 08-30 10:05 947次阅读
    监控<b class='flag-5'>Kafka</b>集群的常用的方法和工具介绍

    物通博联5G-kafka工业网关实现kafka协议对接到云平台

    Kafka协议是一种基于TCP层的网络协议,用于在分布式消息传递系统Apache Kafka中发送和接收消息。Kafka协议定义了客户端和服务器之间的通信方式和数据格式,允许客户端发送消息到K
    的头像 发表于 07-11 10:44 301次阅读

    Kafka 的简介

      1 kafka简介 2 为什么要用消息系统 3 kafka基础知识 4 kafka集群架构 5 总结   1 kafka简介 其主要设计目标如下: 以时间复杂度为O(1)的方式提供
    的头像 发表于 07-03 11:10 344次阅读
    <b class='flag-5'>Kafka</b> 的简介

    如何使用原生ClickHouse函数和表引擎在两个数据库之间迁移数据

       引言 这篇文章还是关于 ClickHouse 提供 Postgres 集成系列文章的一部分。在上一篇文章中,我们探讨了 Postgres 函数和表引擎,并以分析工作负载为例,演示了如何将事务
    的头像 发表于 05-26 11:38 449次阅读
    如何使用原生<b class='flag-5'>ClickHouse</b>函数和表引擎在两个数据库之间迁移数据

    想要kafka好用你就得知道这些工具

    工欲善其事,必先利其器。本文主要分享一下消息中间件kafka安装部署的过程,以及我平时在工作中针对kafka用的一些客户端工具和监控工具。
    的头像 发表于 05-22 16:33 1025次阅读
    想要<b class='flag-5'>kafka</b>好用你就得知道这些工具