0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

3种常用的Elasticsearch数据迁移方案

马哥Linux运维 来源:奇妙的Linux世界 作者:奇妙的Linux世界 2022-04-02 10:50 次阅读

如果准备将自建的 elasticsearch 迁移上云,或者的迁移到其他es集群内,可以根据自己的业务需要选择合适的迁移方案。如果业务可以停服或者可以暂停写操作,可以使用以下几种方式进行数据迁移:

  • COS 快照,即Cloud Object Storage
  • logstash
  • elasticsearch-dump

各种迁移方式的对比如下:

迁移方式 适用场景
COS 快照 数据量大的场景(GB、TB、PB 级别)对迁移速度要求较高的场景
logstash 迁移全量增量数据,且对实时性要求不高的场景需要对迁移的数据通过 es query 进行简单的过滤的场景需要对迁移的数据进行复杂的过滤或处理的场景版本跨度较大的数据迁移场景,如 5.x 版本迁移到 6.x 版本或 7.x 版本
elasticsearch-dump 数据量较小的场景

1COS 快照

基于 COS 快照的迁移方式是使用 ES 的snapshot api接口进行迁移,基本原理就是从源 ES 集群创建索引快照,然后在目标 ES 集群中进行恢复。通过 snapshot 方式进行数据迁移时,特别需要注意 ES 的版本问题:

目标 ES 集群的主版本号(如5.6.4中的5为主版本号)要大于等于源 ES 集群的主版本号。
1.x 版本的集群创建的快照不能在 5.x 版本中恢复。

在源 ES 集群中创建 repository

创建快照前必须先创建 repository 仓库,一个 repository 仓库可以包含多份快照文件,repository 主要有以下几种类型。

  • fs:共享文件系统,将快照文件存放于文件系统中。
  • url:指定文件系统的 URL 路径,支持协议:http、https、ftp、file、jar。
  • s3:AWS S3 对象存储,快照存放于 S3 中,以插件形式支持,安装该插件请参考repository-s3[1]
  • hdfs:快照存放于 hdfs 中,以插件形式支持,安装该插件请参考repository-hdfs[2]
  • cos:快照存放于腾讯云COS对象存储中,以插件形式支持,安装该插件请参考cos-repository[3]

如果需要从自建 ES 集群迁移至腾讯云的 ES 集群,可以直接使用 COS 类型仓库。但需要先在自建 ES 集群上安装 cos-repository 插件(安装插件后需要重启集群才能使用),先把自建 ES 集群中的数据先备份到 COS,然后在腾讯云上的 ES 集群中恢复出来,以完成数据的迁移。

如果自建 ES 的集群不方便安装 cos-repository 插件,但是已经安装 repository-s3 或者 repository-hdfs 插件,则可以先把数据备份到 S3 或者 HDFS 中,然后把 S3 或者 HDFS 中备份好的文件上传到腾讯云 COS 中,之后在腾讯云上的集群中进行恢复。

通过 COS 快照进行数据迁移时,需要先创建 COS 仓库,您可以通过如下命令创建仓库:

PUT _snapshot/my_cos_backup
{
    "type": "cos",
    "settings": {
        "app_id": "xxxxxxx",
        "access_key_id": "xxxxxx",
        "access_key_secret": "xxxxxxx",
        "bucket": "xxxxxx",
        "region": "ap-guangzhou",
        "compress": true,
        "chunk_size": "500mb",
        "base_path": "/"
    }
}
  • app_id:腾讯云账号 APPID。
  • access_key_id:腾讯云 API 密钥 SecretId。
  • access_key_secret:腾讯云 API 密钥 SecretKey。
  • bucket:COS Bucket 名字,不带 appId 后缀的 bucket 名
  • region:COS Bucket 地域,必须与 ES 集群同地域。
  • base_path:备份目录。

在源 ES 集群中创建 snapshot

调用 snapshot api 创建快照以备份索引数据,创建快照时可以指定只对部分索引进行备份,也可以备份所有的索引,具体的 api 接口参数可以查阅 官方文档。

备份所有索引

将源 ES 集群中的所有索引备份到my_cos_backup仓库下,并命名为snapshot_1

PUT _snapshot/my_cos_backup/snapshot_1

这个命令会立刻返回,并在后台异步执行直到结束。如果希望创建快照命令阻塞执行,可以添加wait_for_completion参数:

PUT _snapshot/my_cos_backup/snapshot_1?wait_for_completion=true

命令执行的时间与索引大小相关。

备份指定索引

您可以在创建快照的时候指定要备份的索引:

PUT _snapshot/my_cos_backup/snapshot_2
{
    "indices": "index_1,index_2"
}

参数 indices 的值为多个索引的时候,需要用,隔开且不能有空格。

查看快照状态

通过以下命令检查快照是否备份完成,返回结果中的state字段为SUCCESS则说明快照已经备份成功:

GET _snapshot/my_cos_backup/snapshot_1

在目标 ES 集群中创建 repository

在目标 ES 集群中创建仓库和在源 ES 集群中创建仓库完全相同。

从快照恢复

将快照中备份的所有索引都恢复到 ES 集群中:

POST _snapshot/my_cos_backup/snapshot_1/_restore

如果 snapshot_1 包括5个索引,则这5个索引都会被恢复到 ES 集群中。您还可以使用附加的选项对索引进行重命名。该选项允许您通过模式匹配索引名称,并通过恢复进程提供一个新名称。如果您想在不替换现有数据的前提下,恢复旧数据来验证内容或进行其他操作,则可以使用该选项。从快照里恢复单个索引并提供一个替换的名称:

POST /_snapshot/my_cos_backup/snapshot_1/_restore
{
    "indices": "index_1",
    "rename_pattern": "index_(.+)",
    "rename_replacement": "restored_index_$1"
}
  • indices:只恢复 index_1 索引,忽略快照中存在的其他索引。
  • rename_pattern:查找所提供的模式能匹配上的正在恢复的索引。
  • rename_replacement:将匹配的索引重命名成替代的模式。

查看索引恢复状态

您可以通过调用_recoveryAPI,查看指定索引恢复的进度:

GET index_1/_recovery

另外可以通过调用以下 API,查看指定索引的状态,返回结果中statusgreen,则说明索引已经完全恢复:

GET _cluster/health/index_1

2logstash

logstash 支持从一个 ES 集群中读取数据然后写入到另一个 ES 集群,因此可以使用 logstash 进行数据迁移,使用 logstash 进行迁移前,需要注意以下几点:

  • 需要在和腾讯云上的 ES 集群相同的 VPC 下创建 CVM,部署 logstash,同时保证该 CVM 能够访问到源 ES 集群。
  • 用于部署 logstash 的 CVM 最好选择比较高的配置,例如 CPU 为16核,内存为32GB。
  • logstash 应该和目标 ES 集群的主版本号相同,例如目标 ES 集群为6.8.2版本,则 logstash 也需要使用6.8版本。
  • 需要特别注意索引 type 的问题,因为 ES 的不同版本对索引 type 的约束不同,跨大版本迁移 ES 集群时可能出现因为索引的 type 而导致写入目标集群失败等的问题。具体可参考 logstash-output-elasticsearch 插件中对document_type参数的说明。

一个常用的使用 logstash 进行跨集群数据迁移的配置文件如下:

input {
    elasticsearch {
        hosts => "1.1.1.1:9200"
        index => "*"
        docinfo => true
        size => 5000
        scroll => "5m"
      }
}

output {
    elasticsearch {
        hosts => ["http://2.2.2.2:9200"]
        user => "elastic"
        password => "your_password"
        index => "%{[@metadata][_index]}"
        document_type => "%{[@metadata][_type]}"
        document_id => "%{[@metadata][_id]}"
    }
}

上述配置文件将源 ES 集群的所有索引同步到目标集群中,同时也可以设置只同步指定的索引,利用 logstash 进行迁移的更多功能可查阅 logstash-input-elasticsearch 和logstash-output-elasticsearch[4]

3elasticsearch-dump

elasticsearch-dump 是一款开源的 ES 数据迁移工具,github 地址[5]

  1. 安装 elasticsearch-dump

    elasticsearch-dump 使用 node.js 开发,可使用 npm 包管理工具直接安装:

    npminstallelasticdump-g
    
  2. 主要参数说明

    --input:源地址,可为 ES 集群 URL、文件或 stdin,可指定索引,格式为:{protocol}://{host}:{port}/{index}
    --input-index:源ES集群中的索引
    --output:目标地址,可为 ES 集群地址 URL、文件或 stdout,可指定索引,格式为:{protocol}://{host}:{port}/{index}
    --output-index:目标ES集群的索引
    --type:迁移类型,默认为data,表明只迁移数据,可选settings,analyzer,data,mapping,alias
    
  3. 如果集群有安全认证,可以参照下面的方法使用 reindex 集群鉴权。在对应的 http 后面,添加 user:password@ 参考样例elasticsearch-dump --input=http://192.168.1.2:9200/my_index --output=http://user:password@192.168.1.2:9200/my_index --type=data

  4. 迁移单个索引

    以下操作通过 elasticdump 命令将集群172.16.0.39中的 companydatabase 索引迁移至集群172.16.0.20。

    第一条命令先将索引的 settings 先迁移,如果直接迁移 mapping 或者 data 将失去原有集群中索引的配置信息如分片数量和副本数量等,当然也可以直接在目标集群中将索引创建完毕后再同步 mapping 与 data。

    elasticdump--input=http://172.16.0.39:9200/companydatabase--output=http://172.16.0.20:9200/companydatabase--type=settings
    elasticdump--input=http://172.16.0.39:9200/companydatabase--output=http://172.16.0.20:9200/companydatabase--type=mapping
    elasticdump--input=http://172.16.0.39:9200/companydatabase--output=http://172.16.0.20:9200/companydatabase--type=data
    
  5. 迁移所有索引

    以下操作通过 elasticdump 命令将集群172.16.0.39中的所有索引迁移至集群172.16.0.20。

    此操作并不能迁移索引的配置,例如分片数量和副本数量,必须对每个索引单独进行配置的迁移,或者直接在目标集群中将索引创建完毕后再迁移数据。

    elasticdump--input=http://172.16.0.39:9200--output=http://172.16.0.20:9200
    

4总结

  1. elasticsearch-dump 和 logstash 做跨集群数据迁移时,都要求用于执行迁移任务的机器可以同时访问到两个集群,因为网络无法连通的情况下就无法实现迁移。而使用 snapshot 的方式则没有这个限制,因为 snapshot 方式是完全离线的。因此 elasticsearch-dump 和 logstash 迁移方式更适合于源 ES 集群和目标 ES 集群处于同一网络的情况下进行迁移。而需要跨云厂商的迁移,可以选择使用 snapshot 的方式进行迁移,例如从阿里云 ES 集群迁移至腾讯云 ES 集群,也可以通过打通网络实现集群互通,但是成本较高。
  2. elasticsearch-dump 工具和 MySQL 数据库用于做数据备份的工具 mysqldump 类似,都是逻辑备份,需要将数据一条一条导出后再执行导入,所以适合数据量小的场景下进行迁移。
  3. snapshot 的方式适合数据量大的场景下进行迁移。

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据迁移
    +关注

    关注

    0

    文章

    65

    浏览量

    6890
  • Elasticsearch
    +关注

    关注

    0

    文章

    25

    浏览量

    2788

原文标题:3 种常用的 Elasticsearch 数据迁移方案

文章出处:【微信号:magedu-Linux,微信公众号:马哥Linux运维】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    鸿蒙OS 跨设备迁移

    A 上的 Page 请求迁移。 HarmonyOS 处理迁移任务,并回调设备 A 上 Page 的保存数据方法,用于保存迁移必须的数据
    的头像 发表于 01-31 15:47 858次阅读

    一分钟,自动完成Redis数据迁移

    NineData提供了高效、安全的Redis不停机数据迁移方案。与传统迁移方案相比,NineData具备简单易用、强劲性能和高可靠性的优势。
    的头像 发表于 01-08 11:34 194次阅读
    一分钟,自动完成Redis<b class='flag-5'>数据</b><b class='flag-5'>迁移</b>

    还在为数据迁移烦恼?五种高效方案帮你解决!

    数据迁移是许多企业在数字化转型过程中不可避免的任务。然而,面对市面上众多的数据迁移工具,我们可能会陷入纠结。今天,我将介绍五种常见的数据
    的头像 发表于 12-06 17:05 1557次阅读
    还在为<b class='flag-5'>数据</b>库<b class='flag-5'>迁移</b>烦恼?五种高效<b class='flag-5'>方案</b>帮你解决!

    navicat的数据迁移工具

    数据迁移是当今数据管理的核心任务之一。在数据迁移的过程中,我们经常面临着数据库结构不同和
    的头像 发表于 11-21 10:55 458次阅读

    中软国际DSM数据迁移工具,为您实现端到端的一键数据迁移

    层的数据库,呈现出风起云涌的状态。 数据数据迁移势在必行 作为数据的核心载体,数据库处于IT架
    的头像 发表于 11-07 19:45 466次阅读
    中软国际DSM<b class='flag-5'>数据</b><b class='flag-5'>迁移</b>工具,为您实现端到端的一键<b class='flag-5'>数据</b><b class='flag-5'>迁移</b>

    源译识 | 译文分享:Elasticsearch诉Amazon商标侵权案

    【编者按】 ElasticSearch是归属Elastic公司的一个开源项目,提供分布式、高扩展、高实时的搜索与数据分析引擎。Amazon公司于2015年基于ElasticSearch推出了自己
    的头像 发表于 11-06 19:10 440次阅读

    Python 更新 Elasticsearch 的几种方法

    今天总结一下通过 Python 更新 Elasticsearch 数据的几个方法 Elasticsearch 是一个实时的分布式搜索分析引擎,它能让你以前所未有的速度和规模,去探索你的数据
    的头像 发表于 11-01 10:11 452次阅读
    Python 更新 <b class='flag-5'>Elasticsearch</b> 的几种方法

    SpringBoot 连接ElasticSearch的使用方式

    在上篇 ElasticSearch 文章中,我们详细的介绍了 ElasticSearch 的各种 api 使用。 实际的项目开发过程中,我们通常基于某些主流框架平台进行技术开发,比如
    的头像 发表于 10-09 10:35 427次阅读

    Redis 大数据量高速迁移,2000W key不到2分钟!

    NineData 基于全量复制、增量日志复制技术,提供了高效、安全可靠的 Redis 不停机迁移方案。当然,除了 Redis,NineData 已经支持数十种常见数据库的迁移复制,实现
    的头像 发表于 09-12 15:40 375次阅读
    Redis 大<b class='flag-5'>数据</b>量高速<b class='flag-5'>迁移</b>,2000W key不到2分钟!

    NineData:1小时迁移500GB的MySQL数据

    NineData 提供的数据复制同时包含了数据迁移数据同步的能力,在不影响业务的前提下,提供了高效、稳定、可运维的大数据
    的头像 发表于 09-05 11:34 339次阅读
    NineData:1小时<b class='flag-5'>迁移</b>500GB的MySQL<b class='flag-5'>数据</b>

    NineData:高效可靠的MongoDB迁移及同步方案

    为解决用户面临的MongoDB迁移问题,玖章算术旗下的云原生智能数据管理平台NineData 推出了MongoDB 业务不停服数据迁移能力。NineData实现了完全自动化的全量
    的头像 发表于 09-05 11:32 409次阅读
    NineData:高效可靠的MongoDB<b class='flag-5'>迁移</b>及同步<b class='flag-5'>方案</b>

    Elasticsearch保姆级入门

    我们需要创建一个供 Elasticsearch 和 Kibana 使用的 network。这个 network 将被用于 Elasticsearch 和 Kibana 之间的通信。
    的头像 发表于 09-01 15:24 280次阅读
    <b class='flag-5'>Elasticsearch</b>保姆级入门

    如何快速完成PostgreSQL数据迁移

    NineData推出了PostgreSQL业务不停服数据迁移能力。NineData实现了完全自动化的结构迁移和全量数据迁移,并提供了变更
    的头像 发表于 08-14 15:39 1906次阅读
    如何快速完成PostgreSQL<b class='flag-5'>数据</b><b class='flag-5'>迁移</b>?

    IBM 创新方案+SNP数据转型助一汽大众实现数据平稳、高效迁移

    近日,IBM 采用基于SNP Bluefield技术迁移的IBM Rapid Move创新数据迁移方案, 成功为一汽-大众实施了企业运营数据
    的头像 发表于 05-17 22:34 2563次阅读