humio.humio.kafka
humio.kafka
DEPRACADO. Este repositorio no recibirá más actualizaciones. Por favor, considera usar humio-operator para instalar y gestionar Logscale https://library.humio.com/falcon-logscale-self-hosted/installation-containers-kubernetes.html.
Instalador de Kafka para ejecutar junto con Humio
Requisitos
Este rol debe tener acceso a una instalación de Zookeeper.
Variables del Rol
Consulta los valores predeterminados.
En máquinas sin acceso a internet, la variable kafka_mirror
se puede establecer en "master"
para copiar el archivo tar de Kafka del directorio de archivos del maestro.
kafka_mirror: "master"
Conciencia de Rack
Kafka soporta la conciencia de rack si especificas en qué rack se encuentra cada nodo de Kafka. Esto se puede hacer configurando el ajuste broker.rack
en Kafka. Esto se configura en este rol de Ansible mediante la variable kafka_broker_rack
. Para que esto funcione correctamente, asegúrate de que cada rack o centro de datos esté definido como un grupo en tu inventario y que las máquinas apropiadas estén asignadas. Luego, puedes establecer la variable kafka_broker_rack
directamente dentro del inventario o puedes crear un archivo group_vars
para cada uno de los grupos de rack/centro de datos que lo defina correctamente.
Por defecto, todos los Kafkas están asignados a un único rack llamado dc1
.
Dependencias
Java 9 debe estar instalado. Se recomienda el rol humio.java.
Ejemplo de Playbook
- hosts: servers
become: true
vars:
zookeeper_hosts:
- zookeeper_id: 1
ip: "{{ ansible_default_ipv4.address }}"
roles:
- role: humio.java
- role: AnsibleShipyard.ansible-zookeeper
- role: humio.kafka
Resolución de Problemas
Si te ves obligado a interrumpir la ejecución de ansible durante el paso Instalar Kafka desde remoto
, puedes encontrarte en una situación donde el archivo tar que se está obteniendo y descomprimiendo fue interrumpido durante la fase de descompresión. Si este paso se interrumpe mientras el archivo tar aún se está obteniendo (por ejemplo, un tiempo de espera), puedes simplemente volver a ejecutar el playbook. Si ocurre durante la fase de descompresión, necesitarás limpiar manualmente el directorio /usr/lib/kafka_{{ kafka_scala_version }}-{{ kafka_version }}
antes de ejecutar el playbook nuevamente (esta etapa verifica si existe ese directorio para omitir el paso en ejecuciones futuras).
Licencia
Apache 2.0
ansible-galaxy install humio.humio.kafka