BROADSoftware.hdfs_modules
hdfs_modules
Diese Ansible-Rolle enthält eine Reihe von Modulen, die darauf abzielen, Dateien und Verzeichnisse im HDFS (Hadoop Distributed File System) zu manipulieren.
hdfs_file: Entspricht dem Ansible files/file-Modul, aber für HDFS. Dokumentation an diesem Ort
hdfs_info: Entspricht dem Ansible files/info-Modul, aber für HDFS. Dokumentation an diesem Ort
hdfs_cmd: Entspricht dem Ansible commands/command-Modul, aber für HDFS. Dokumentation an diesem Ort
Anforderungen
Diese Module benötigen das Python-Paket python-requests auf dem Remote-Knoten.
Um auf ein Kerberos-geschütztes Cluster zugreifen zu können, ist außerdem python-requests-kerberos erforderlich.
Beispiel-Playbook
- hosts: edge_node1
roles:
- hdfs_modules
tasks:
# Erstelle ein Verzeichnis, wenn es nicht existiert.
# Wenn es bereits existiert, passe Besitzer, Gruppe und Berechtigung an, falls unterschiedlich.
- hdfs_file: hdfs_path=/user/joe/some_directory owner=joe group=users mode=0755 state=directory
# So kopierst du eine Datei vom Dateisystem des Zielhosts nach HDFS
- hdfs_cmd: cmd="sudo -u joe hdfs dfs -put /etc/services /user/joe/services" hdfs_creates=/user/joe/passwd1 uses_shell=True
# Und passe Besitzer, Gruppe und Berechtigung an der Datei an
- hdfs_file: hdfs_path=/user/joe/passwd1 owner=joe group=users mode=0644
# Es ist jedoch besser, hdfs_put für diese Kopie zu verwenden
- hdfs_put: src=/etc/services hdfs_dest=/usr/joe/services owner=joe group=users mode=0644
# Du kannst auch einen Ordner rekursiv kopieren
- hdfs_put: src=/etc/hadoop/conf/ hdfs_dest=/usr/joe/some_directory hdfs_user=joe
Lizenz
GNU GPL
Klicke auf den Link, um den vollständigen Text zu sehen.
Installieren
ansible-galaxy install BROADSoftware.hdfs_modules
Lizenz
gpl-3.0
Downloads
830
Besitzer