elasticsearch verileri bir sunucudan diğerine nasıl taşınır


98

Elasticsearch verilerini bir sunucudan diğerine nasıl taşıyabilirim?

Birden çok indeksi olan bir yerel düğümde Elasticsearch 1.1.1 çalıştıran A sunucum var . Bu verileri Elasticsearch 1.3.4 çalıştıran B sunucusuna kopyalamak istiyorum

Şimdiye kadarki prosedür

  1. Her iki sunucuda da ES'yi kapatın ve
  2. tüm verileri yeni sunucudaki doğru veri dizinine gönderin. (veriler debian kutularımda / var / lib / elasticsearch / konumunda bulunuyor gibi görünüyor)
  3. elasticsearch: elasticsearch için izinleri ve sahipliği değiştir
  4. yeni ES sunucusunu başlatın

ES head eklentisine sahip kümeye baktığımda hiçbir endeks görünmüyor.

Veriler yüklenmemiş gibi görünüyor. Bir şey mi kaçırıyorum?


2
Veri derken dizinleri kastediyorsanız, elasticsearch / data / <clustername> / nodes / <node id> klasörünün içindeki indisler klasörünü yeni karşılık gelen konuma taşıyabilirsiniz. Bu, Windows'taki elasticsearch dizin yapısıdır. Yine de Debian'da aynı olup olmadığından emin değilim. Ancak fikir, uyumluluğun bozulmadığını varsayarak dizin dizinlerini bir kümeden diğerine doğrudan taşıyabilmenizdir.
bittusarkar

1
ES 1.1.1 ve ES 1.3.4'ün aynı lucene sürümünü kullandığından emin misiniz? Bu bir uyumluluk sorununa neden olabilir. Ayrıca, ES meta verilerinin aynı olacağına dair hiçbir garanti yoktur. Kopyayı programlı olarak yapmanızı öneririm. Önce dizin şemalarını kopyalayın ve ardından verileri içe aktarın.
Zouzias

Yanıtlar:


129

Seçilen yanıt, kulağa olduğundan biraz daha karmaşık geliyor, ihtiyacınız olan şey şudur (sisteminize ilk olarak npm'yi kurun).

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

Eşlemeler sabit kalırsa, sonraki kopyalar için ilk elastik döküm komutunu atlayabilirsiniz.

Yukarıdakilerle AWS'den Qbox.io'ya sorunsuz bir geçiş yaptım.

Daha fazla ayrıntı:

https://www.npmjs.com/package/elasticdump

Eksiksizlik için yardım sayfası (Şubat 2016 itibariyle) dahil edilmiştir:

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

Bunu denedim ama her seferinde "Hata Verildi => ECONNREFUSED bağlan" alıyorum.
Vagabond

4
temel kimlik doğrulama nasıl uygulanır?
Mohd Shahid


@OrtomalaLokni artık 5.x desteği gibi görünüyor: github.com/taskrabbit/elasticsearch-dump/pull/268
Beau

elasticsearch için kimlik doğrulamasını ayarladım, lütfen giriş ve çıkış konumu ile birlikte komuttaki kullanıcı adı ve parolayı nasıl geçireceğimi söyler misiniz?
Gr8 Adakron

42

ElasticDump kullanın

1) yum yükleme epel sürümü

2) yum yükleme düğümleri

3) yum yüklemek npm

4) npm elastik dökümü yükle

5) cd node_modules / elastikdump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

Bu, verilerin bir konumdan diğerine ancak aynı sunucuya aktarılması gerektiği zamandır. Ya verilerin iki farklı IP adresine sahip iki farklı sunucu konumuna aktarılması gerekiyorsa?
Vagabond

2
@tramp 2 farklı IP adresidir
de Raad

1
Henüz
Elasticsearch 5'i

2
Görünüşe göre Elasticsearch
hayduke


6

Verileri ELK 2.4.3'ten ELK 5.1.1'e taşımak için ubuntu üzerinde çalıştım

Aşağıdaki adımlar

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

ev dizininde git

$ cd node_modules/elasticdump/

komutu çalıştır

Temel http kimlik doğrulamasına ihtiyacınız varsa, bunu şu şekilde kullanabilirsiniz:

--input=http://name:password@localhost:9200/my_index

Üretimden bir dizin kopyalayın:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data

Bu iyi. sudo apt-get install -y software-properties-commonAdd-apt-repository'den önce çalıştırdığınızdan emin olun
Sahas

umarım +1
Akshay Patil

5

Bir _reindexseçenek de var

Belgelerden:

5.x ve sonraki sürümlerde mevcut olan Elasticsearch reindex API'si aracılığıyla, yeni Elasticsearch Service dağıtımınızı uzaktan eski Elasticsearch kümenize bağlayabilirsiniz. Bu, verileri eski kümenizden çeker ve yenisine dizine ekler. Yeniden dizin oluşturma, esas olarak dizini sıfırdan yeniden oluşturur ve çalıştırılması daha yoğun kaynak gerektirebilir.

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}

4

Eğer varsa olabilir kümeye ikinci bir sunucu eklemek, bunu yapabilirsiniz:

  1. Sunucu A ile kümeye Sunucu B'yi ekleyin
  2. Endeksler için çoğaltma sayısını artırın
  3. ES, dizinleri otomatik olarak B sunucusuna kopyalar
  4. A sunucusunu kapat
  5. Endeksler için kopya sayısını azaltma

Bu, yalnızca yer değiştirme sayısı düğüm sayısına eşitse çalışır.


3
Sürümler farklı olduğunda bunun işe yaramayacağına inanıyorum (OP'nin sorusunda olduğu gibi)
WoJ

Elbette. Şimdi verilerimi ESv1.7'den ESv5'e taşımaya çalışıyorum. Haritalamalarda birçok şey değiştiği için benim seçeneğim işe yaramayacak.
AndreyP

3

Herhangi biri aynı sorunla karşılaşırsa, elasticsearch <2.0'dan> 2.0'a atmaya çalışırken yapmanız gerekenler:

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"

1

Her zaman sadece dizin dizinini / klasörünü yeni sunucuya kopyalayıp yeniden başlatarak başarılı oldum. Yaparak dizin kimliğini bulacaksınız ve GET /_cat/indicesbu kimliğe uyan klasör data\nodes\0\indices(genellikle siz taşımadığınız sürece elasticsearch klasörünüzün içinde).


1

Yedeklemeyi kullanabilir elasticdumpveya multielasticdumpalabiliriz ve geri yükleyebiliriz, verileri bir sunucudan / kümeden başka bir sunucuya / kümeye taşıyabiliriz.

Ben sağladık detaylı cevap bulmak Lütfen burada .


0

Verileri bir elasticsearch sunucusundan diğerine aktarmanız gerekiyorsa, elasticsearch-document-transfer'i de kullanabilirsiniz .

Adımlar:

  1. Terminalinizde bir dizin açın ve çalıştırın
    $ npm install elasticsearch-document-transfer.
  2. Bir dosya oluştur config.js
  3. Her iki elasticsearch sunucusunun bağlantı ayrıntılarını şuraya ekleyin: config.js
  4. Uygun değerleri ayarlayın options.js
  5. Terminalde çalıştırın
    $ node index.js

0

Kümenizin tam durumunun (tüm veri dizinleri dahil) anlık görüntüsünü alabilir ve bunları (geri yükleme API'sini kullanarak) yeni küme veya sunucuda geri yükleyebilirsiniz.


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.