BROADSoftware.hdfs_modules

hdfs_modules

Diese Ansible-Rolle enthält eine Reihe von Modulen, die darauf abzielen, Dateien und Verzeichnisse im HDFS (Hadoop Distributed File System) zu manipulieren.

  • hdfs_file: Entspricht dem Ansible files/file-Modul, aber für HDFS. Dokumentation an diesem Ort

  • hdfs_info: Entspricht dem Ansible files/info-Modul, aber für HDFS. Dokumentation an diesem Ort

  • hdfs_cmd: Entspricht dem Ansible commands/command-Modul, aber für HDFS. Dokumentation an diesem Ort

Anforderungen

Diese Module benötigen das Python-Paket python-requests auf dem Remote-Knoten.

Um auf ein Kerberos-geschütztes Cluster zugreifen zu können, ist außerdem python-requests-kerberos erforderlich.

Beispiel-Playbook

- hosts: edge_node1
  roles:
  - hdfs_modules
  tasks:
  # Erstelle ein Verzeichnis, wenn es nicht existiert.
  # Wenn es bereits existiert, passe Besitzer, Gruppe und Berechtigung an, falls unterschiedlich.
  - hdfs_file: hdfs_path=/user/joe/some_directory owner=joe group=users mode=0755 state=directory

  # So kopierst du eine Datei vom Dateisystem des Zielhosts nach HDFS
  - hdfs_cmd: cmd="sudo -u joe hdfs dfs -put /etc/services /user/joe/services" hdfs_creates=/user/joe/passwd1 uses_shell=True

  # Und passe Besitzer, Gruppe und Berechtigung an der Datei an
  - hdfs_file: hdfs_path=/user/joe/passwd1 owner=joe group=users mode=0644

  # Es ist jedoch besser, hdfs_put für diese Kopie zu verwenden
  - hdfs_put: src=/etc/services hdfs_dest=/usr/joe/services owner=joe group=users mode=0644

  # Du kannst auch einen Ordner rekursiv kopieren
  - hdfs_put: src=/etc/hadoop/conf/ hdfs_dest=/usr/joe/some_directory hdfs_user=joe

Lizenz

GNU GPL

Klicke auf den Link, um den vollständigen Text zu sehen.

Über das Projekt

HDFS aware Files-like modules (info, file and command)

Installieren
ansible-galaxy install BROADSoftware.hdfs_modules
GitHub Repository
Lizenz
gpl-3.0
Downloads
830
Besitzer