humio.humio.kafka
humio.kafka
ABGELEGT. Dieses Repository wird keine Aktualisierungen mehr erhalten. Bitte ziehen Sie in Betracht, humio-operator zu verwenden, um Logscale zu installieren und zu verwalten: https://library.humio.com/falcon-logscale-self-hosted/installation-containers-kubernetes.html.
Kafka-Installer für die gemeinsame Nutzung mit Humio
Anforderungen
Diese Rolle muss Zugriff auf eine Installation von Zookeeper haben.
Rollenvariablen
Siehe die Standardeinstellungen.
Auf Maschinen ohne Internetzugang kann die Variable kafka_mirror
auf "master"
gesetzt werden, um das Kafka-Tarball aus dem Verzeichnis der Master-Dateien zu kopieren.
kafka_mirror: "master"
Rack Awareness
Kafka unterstützt Rack Awareness, wenn Sie angeben, in welchem Rack sich jeder Kafka-Knoten befindet. Dies kann geschehen, indem Sie die Einstellung broker.rack
in Kafka festlegen. Dies wird in dieser Ansible-Rolle über die Variable kafka_broker_rack
konfiguriert. Damit dies richtig funktioniert, stellen Sie sicher, dass jedes Rack oder Rechenzentrum als Gruppe in Ihrem Inventar definiert ist und die entsprechenden Maschinen zugewiesen wurden. Sie können dann entweder die Variable kafka_broker_rack
direkt im Inventar festlegen oder eine Datei group_vars
für jede der Rack-/Rechenzentrumsgruppen erstellen, die es entsprechend definiert.
Standardmäßig werden alle Kafkas einem einzelnen Rack namens dc1
zugewiesen.
Abhängigkeiten
Java 9 muss installiert sein. Die Rolle humio.java wird empfohlen.
Beispiel-Playbook
- hosts: servers
become: true
vars:
zookeeper_hosts:
- zookeeper_id: 1
ip: "{{ ansible_default_ipv4.address }}"
roles:
- role: humio.java
- role: AnsibleShipyard.ansible-zookeeper
- role: humio.kafka
Fehlerbehebung
Wenn Sie gezwungen sind, die Ansible-Ausführung während des Schrittes Install Kafka from remote
zu unterbrechen, kann es sein, dass das Tarball, das abgerufen und entpackt wurde, während der Entpackungsphase unterbrochen wurde. Wenn dieser Schritt unterbrochen wird, während das Tarball noch abgerufen wird (z. B. aufgrund eines Zeitüberschreitungsfehlers), können Sie das Playbook einfach erneut ausführen. Wenn es während der Entpackungsphase unterbrochen wird, müssen Sie das Verzeichnis /usr/lib/kafka_{{ kafka_scala_version }}-{{ kafka_version }}
manuell löschen, bevor Sie das Playbook erneut ausführen (in diesem Schritt wird überprüft, ob dieses Verzeichnis existiert, um den Schritt in zukünftigen Durchläufen zu überspringen).
Lizenz
Apache 2.0