So verschieben Sie Elasticsearch-Daten von einem Server auf einen anderen


94

Wie verschiebe ich Elasticsearch-Daten von einem Server auf einen anderen?

Ich habe Server A, auf dem Elasticsearch 1.1.1 auf einem lokalen Knoten mit mehreren Indizes ausgeführt wird. Ich möchte diese Daten auf Server B kopieren, auf dem Elasticsearch 1.3.4 ausgeführt wird

Verfahren bisher

  1. Fahren Sie ES auf beiden Servern und herunter
  2. scp alle Daten in das richtige Datenverzeichnis auf dem neuen Server. (Daten scheinen sich unter / var / lib / elasticsearch / auf meinen Debian-Boxen zu befinden)
  3. Ändern Sie die Berechtigungen und den Besitz in elasticsearch: elasticsearch
  4. Starten Sie den neuen ES-Server

Wenn ich mir den Cluster mit dem ES Head Plugin ansehe, werden keine Indizes angezeigt.

Es scheint, dass die Daten nicht geladen sind. Vermisse ich etwas


2
Mit Daten, wenn Sie Indizes meinen, können Sie einfach den Indexordner im Ordner elasticsearch / data / <clustername> / node / <knoten-ID> an den neuen entsprechenden Speicherort verschieben. Dies ist die Elasticsearch-Verzeichnisstruktur unter Windows. Ich bin mir nicht sicher, ob es bei Debian dasselbe ist. Die Idee ist jedoch, dass Sie Indexverzeichnisse direkt von einem Cluster in einen anderen verschieben können, sofern die Kompatibilität nicht beeinträchtigt wird.
Bittusarkar

1
Sind Sie sicher, dass ES 1.1.1 und ES 1.3.4 dieselbe Lucene-Version verwenden? Dies kann zu einem Kompatibilitätsproblem führen. Es gibt auch keine Garantie dafür, dass die ES-Metadaten identisch sind. Ich würde vorschlagen, die Kopie programmgesteuert zu machen. Kopieren Sie zuerst die Indexschemata und importieren Sie dann die Daten.
Zouzias

Antworten:


124

Die ausgewählte Antwort klingt etwas komplexer als sie ist. Folgendes benötigen Sie (installieren Sie npm zuerst auf Ihrem System).

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

Sie können den ersten Befehl für den elastischen Speicherauszug für nachfolgende Kopien überspringen, wenn die Zuordnungen konstant bleiben.

Ich habe gerade eine Migration von AWS zu Qbox.io mit den oben genannten ohne Probleme durchgeführt.

Weitere Details unter:

https://www.npmjs.com/package/elasticdump

Hilfeseite (Stand Februar 2016) der Vollständigkeit halber enthalten:

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

Ich habe es versucht, aber ich erhalte jedes Mal die Meldung "Fehler ausgegeben => ECONNREFUSED verbinden".
Vagabond

4
Wie wende ich eine grundlegende Authentifizierung an?
Mohd Shahid

Beachten Sie, dass Elasticsearch 5 noch nicht unterstützt wird: github.com/taskrabbit/elasticsearch-dump/issues/259
Ortomala Lokni

@OrtomalaLokni sieht aus wie Unterstützung für 5.x ist jetzt in: github.com/taskrabbit/elasticsearch-dump/pull/268
Beau

Ich habe die Authentifizierung für Elasticsearch festgelegt. Können Sie mir bitte sagen, wie Benutzername und Passwort im Befehl zusammen mit dem Eingabe- und Ausgabestandort übergeben werden sollen?
Der Gr8 Adakron

42

Verwenden Sie ElasticDump

1) Installieren Sie Epel-Release

2) yum install nodejs

3) yum install npm

4) npm elastischen Dump installieren

5) cd node_modules / elasticdump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

In diesem Fall müssen die Daten von einem Ort zum anderen, jedoch auf demselben Server übertragen werden. Was ist, wenn die Daten an zwei verschiedene Serverstandorte mit zwei verschiedenen IP-Adressen übertragen werden müssen?
Vagabund

2
@ Tramp es ist 2 verschiedene IP-Adressen
de Raad

1
Beachten Sie, dass Elasticsearch 5 noch nicht unterstützt wird: github.com/taskrabbit/elasticsearch-dump/issues/259
Ortomala Lokni

2
Es sieht so aus, als ob Elasticsearch 5 jetzt unterstützt wird. Github.com/taskrabbit/elasticsearch-dump/pull/268
hayduke


6

Ich habe auf Ubuntu versucht, Daten von ELK 2.4.3 nach ELK 5.1.1 zu verschieben

Es folgen die Schritte

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

im Home-Verzeichnis gehe zu

$ cd node_modules/elasticdump/

Führen Sie den Befehl aus

Wenn Sie eine grundlegende http-Authentifizierung benötigen, können Sie diese folgendermaßen verwenden:

--input=http://name:password@localhost:9200/my_index

Kopieren Sie einen Index aus der Produktion:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data

Das ist gut. sudo apt-get install -y software-properties-common
Stellen Sie

hoffe, es verdient +1
Akshay Patil

5

Es gibt auch die _reindexOption

Aus der Dokumentation:

Über die Elasticsearch-Reindex-API, die in Version 5.x und höher verfügbar ist, können Sie Ihre neue Elasticsearch-Dienstbereitstellung remote mit Ihrem alten Elasticsearch-Cluster verbinden. Dadurch werden die Daten aus Ihrem alten Cluster abgerufen und in Ihren neuen indiziert. Durch die Neuindizierung wird der Index im Wesentlichen von Grund auf neu erstellt, und die Ausführung kann ressourcenintensiver sein.

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}

4

Wenn Sie den zweiten Server zum Cluster hinzufügen können , können Sie Folgendes tun:

  1. Fügen Sie Server B zum Cluster mit Server A hinzu
  2. Erhöhen Sie die Anzahl der Replikate für Indizes
  3. ES kopiert automatisch Indizes auf Server B.
  4. Server A schließen
  5. Anzahl der Replikate für Indizes verringern

Dies funktioniert nur, wenn die Anzahl der Ersetzungen der Anzahl der Knoten entspricht.


3
Ich glaube, dass dies nicht funktionieren wird, wenn die Versionen unterschiedlich sind (wie es in OPs Frage der Fall ist)
WoJ

Sicher. Ich arbeite jetzt daran, meine Daten von ESv1.7 auf ESv5 zu migrieren. Meine Option wird dafür nicht funktionieren, da sich viele Dinge in den Zuordnungen geändert haben.
AndreyP

3

Wenn jemand auf dasselbe Problem stößt, müssen Sie beim Versuch, von elasticsearch <2.0 auf> 2.0 zu sichern, Folgendes tun:

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"

1

Ich hatte immer Erfolg damit, das Indexverzeichnis / den Indexordner einfach auf den neuen Server zu kopieren und neu zu starten. Sie finden die Index-ID, indem Sie dies tun, GET /_cat/indicesund der Ordner, der mit dieser ID übereinstimmt, befindet sich data\nodes\0\indices(normalerweise in Ihrem Elasticsearch-Ordner, sofern Sie ihn nicht verschoben haben).


1

Wir können das Backup verwenden elasticdumpoder multielasticdumperstellen und wiederherstellen. Wir können Daten von einem Server / Cluster auf einen anderen Server / Cluster verschieben.

Eine ausführliche Antwort, die ich hier gegeben habe, finden Sie hier .


0

Wenn Sie lediglich Daten von einem Elasticsearch-Server auf einen anderen übertragen müssen, können Sie auch die Elasticsearch-Dokumentübertragung verwenden .

Schritte:

  1. Öffnen Sie ein Verzeichnis in Ihrem Terminal und führen Sie es aus
    $ npm install elasticsearch-document-transfer.
  2. Erstellen Sie eine Datei config.js
  3. Fügen Sie die Verbindungsdetails beider Elasticsearch-Server in hinzu config.js
  4. Stellen Sie die entsprechenden Werte in ein options.js
  5. Im Terminal ausführen
    $ node index.js

0

Sie können eine Momentaufnahme des vollständigen Status Ihres Clusters (einschließlich aller Datenindizes) erstellen und diese (mithilfe der Wiederherstellungs-API) im neuen Cluster oder Server wiederherstellen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.