问题
使用canal-adapter全量同步(参考Canal Adapter1.1.5版本API操作服务,手动同步数据(4))的时候
- 小批量数据可以正常运行(几千条)
- 只要数据量一大(上万条),就会内存、CPU双线爆炸,ES自动被docker关闭。
数据量大的时候系统负荷如下所示(用宝塔监控)
docker stats
监控如下所示,很快其他容器全都变成--
,完全无法提供服务
解决方案
参考Docker部署ES(增加内存限制启动)
最关键的一句话:启动的时候按照如下参数启动。必须得先设置single-node
单节点模式,然后设置ES_JAVA_OPTS="-Xms64m -Xmx512m"
才会成功。
docker run -d --name limit_es -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx512m" elasticsearch:7.6.2
ES_JAVA_OPTS
的意思是设置ES中Java虚拟机环境的上下限
discovery.type=single-node
是单节点模式的意思。和集群有关的配置可以参考ElasticSearch 设置-配置(一)发现和集群形成设置
-
discovery.seed_hosts:提供集群中符合主节点条件的节点列表。也可以是以逗号分隔的单个字符串。每个节点都是host:port或者host格式。host是由DNS解析出来的任意主机名称。IPV6必须用方括号括起来。如果一个主机名通过DNS解析出来多个地址,ElasticSearch会使用所有被解析出来的地址。
-
discovery.seed_providers:指定种子主机提供程序的类型来获取用于启动发现进程的种子节点的地址。默认情况下,它是基于设置的种子主机提供程序,它从 discovery.seed_hosts 设置中获取种子节点地址。此设置以前称为 discovery.zen.hosts_provider。
-
discovery.type:指定 Elasticsearch 是否应形成多节点集群。默认情况下,Elasticsearch 在形成集群时会发现其他节点,并允许其他节点稍后加入集群。如果discovery.type 设置为single-node,Elasticsearch 会形成一个单节点集群并不支持cluster.publish.timeout 设置的超时。
-
cluster.initial_master_nodes:设置全新群集中符合条件的主节点的初始集。默认情况下,此列表为空,表示此节点希望加入已引导的集群。请参阅cluster.initial_master_nodes。
解决结果
内存占用显著小了很多,并且可以直接同步大批量数据