humio.humio.kafka

humio.kafka

DEPRACADO. Este repositorio no recibirá más actualizaciones. Por favor, considera usar humio-operator para instalar y gestionar Logscale https://library.humio.com/falcon-logscale-self-hosted/installation-containers-kubernetes.html.

Instalador de Kafka para ejecutar junto con Humio

Requisitos

Este rol debe tener acceso a una instalación de Zookeeper.

Variables del Rol

Consulta los valores predeterminados.

En máquinas sin acceso a internet, la variable kafka_mirror se puede establecer en "master" para copiar el archivo tar de Kafka del directorio de archivos del maestro.

kafka_mirror: "master"

Conciencia de Rack

Kafka soporta la conciencia de rack si especificas en qué rack se encuentra cada nodo de Kafka. Esto se puede hacer configurando el ajuste broker.rack en Kafka. Esto se configura en este rol de Ansible mediante la variable kafka_broker_rack. Para que esto funcione correctamente, asegúrate de que cada rack o centro de datos esté definido como un grupo en tu inventario y que las máquinas apropiadas estén asignadas. Luego, puedes establecer la variable kafka_broker_rack directamente dentro del inventario o puedes crear un archivo group_vars para cada uno de los grupos de rack/centro de datos que lo defina correctamente.

Por defecto, todos los Kafkas están asignados a un único rack llamado dc1.

Dependencias

Java 9 debe estar instalado. Se recomienda el rol humio.java.

Ejemplo de Playbook

- hosts: servers
  become: true
  vars:
    zookeeper_hosts:
      - zookeeper_id: 1
        ip: "{{ ansible_default_ipv4.address }}"
  roles:
    - role: humio.java
    - role: AnsibleShipyard.ansible-zookeeper
    - role: humio.kafka

Resolución de Problemas

Si te ves obligado a interrumpir la ejecución de ansible durante el paso Instalar Kafka desde remoto, puedes encontrarte en una situación donde el archivo tar que se está obteniendo y descomprimiendo fue interrumpido durante la fase de descompresión. Si este paso se interrumpe mientras el archivo tar aún se está obteniendo (por ejemplo, un tiempo de espera), puedes simplemente volver a ejecutar el playbook. Si ocurre durante la fase de descompresión, necesitarás limpiar manualmente el directorio /usr/lib/kafka_{{ kafka_scala_version }}-{{ kafka_version }} antes de ejecutar el playbook nuevamente (esta etapa verifica si existe ese directorio para omitir el paso en ejecuciones futuras).

Licencia

Apache 2.0

Acerca del proyecto

Kafka role specifically designed for Humio

Instalar
ansible-galaxy install humio.humio.kafka
Licencia
apache-2.0
Descargas
0
Propietario
A CrowdStrike company. Log everything, answer anything, in real time