kameshsampath.openshift_app_spices

Rol de Ansible para Operadores de OpenShift

Ansible para configurar un clúster de OpenShift para Talleres y Demos de Desarrolladores de Red Hat.

El rol también se puede usar para instalar y configurar:

== Requisitos

[source,bash]

pip3 install
-r https://raw.githubusercontent.com/kameshsampath/ansible-role-openshift-spices/master/requirements.txt ansible-galaxy role install -r https://raw.githubusercontent.com/kameshsampath/ansible-role-openshift-spices/master/requirements.yml ansible-galaxy collection install -r https://raw.githubusercontent.com/kameshsampath/ansible-role-openshift-spices/master/requirements.yml


[NOTA]: Para Windows se recomienda usar el Subsistema de Windows para Linux (WSL)

== Variables del Rol

[%header,cols="1,2,1"] .Variables del Rol |=== | Nombre de la Variable| Descripción | Valor por Defecto

| download_clients | Descargar clientes de OpenShift oc, kubectl y openshift-install | Verdadero

| ocp_bin_dir | Directorio para descargar e instalar los clientes de OpenShift. El directorio se creará si no existe | $HOME/openshift/bin

| ocp_version | La versión mínima de OpenShift a usar | 4.5.6

| deploy_serverless | Desplegar OpenShift Serverless | Verdadero

| serverless_subcription_channel | El Canal del Operador para la Suscripción Serverless | 4.5

| knative_serving_cr | El Recurso Personalizado de Knative Serving | serverless/cr/serving.yaml

| knative_eventing_cr | El Recurso Personalizado de Knative Eventing | serverless/cr/eventing.yaml

| deploy_pipelines | Desplegar OpenShift Pipelines | Falso

| deploy_argocd | Desplegar Argo CD | Falso

| argocd_cr | El recurso personalizado de Argo CD | argocd/cr.yaml

| argocd_release_channel | El Canal de Liberación de Argo CD | alpha

| deploy_acm | Desplegar Advanced Cluster Management for Kubernetes (ACM) | Falso

| acm_cr | El recurso personalizado de ACM | acm/cr.yaml

| acm_release_channel | El Canal de Liberación de ACM | release-2.0

| deploy_servicemesh | Desplegar OpenShift Service Mesh | Falso

| servicemesh_es_channel | El Canal del Operador para la Suscripción de Red Hat Elastic Search | 4.5

| servicemesh_cr | El recurso personalizado de Red Hat Servicemesh | servicemesh/cr.yaml

| servicemesh_members | Crear y agregar proyectos Servicemesh a| [source,yaml]


servicemesh_members: create: False prefix: tutorial start: 0 end: 10


| deploy_kafka | Desplegar Apache Kafka usando Strimzi
| Falso

| kafka_cluster_name | El nombre del clúster de Apache Kafka
| my-cluster

| kafka_cluster_namespace | El espacio de nombres del clúster de Apache Kafka | kafka

| strimzi_kafka_cr | Recurso Personalizado de Strimzi para Apache Kafka | kafka/cr.yaml

| knative_eventing_kafka_cr | Recurso Personalizado KafkaSource de Knative Eventing | kafka/eventing/cr.yaml

| deploy_camel_k | Desplegar Apache Camel-K | Falso

| deploy_che | Desplegar Eclipse Che | Falso

| eclipse_che_cr | El recurso personalizado de Eclipse Che | che/cr.yaml

| deploy_acm | Desplegar RedHat Advanced Cluster Management for Kubernetes | Falso

| users | Crear usuarios de OpenShift y Administrador del Clúster a| [source,yaml]


users: create: True prefix: user start: 0 end: 10 ocpadmin_username: ocpadmin


[NOTA]

Configurar start y end en 0 no creará usuarios excepto cluster-admin

|===

== Ejemplos de Playbooks

El directorio de ejemplos tiene varios ejemplos de playbooks para empezar a usar este rol:

por ejemplo,

Si deseas desplegar OpenShift Serverless con Pipelines ejecuta:

[source,bash]

ansible-playbook examples/serverless_pipelines.yml

Si no tienes Ansible instalado localmente, puedes usar el proyecto openshift-spice-runner para ejecutar los playbooks usando Docker y Ansible Runner.

== Licencia

Licencia Apache v2

== Información del Autor

mailto:kamesh.sampath@hotmail.com[Kamesh Sampath]

== Problemas

Problemas

Acerca del proyecto

Setup OpenShift workshop cluster with required components

Instalar
ansible-galaxy install kameshsampath.openshift_app_spices
Licencia
Unknown
Descargas
83
Propietario
Veteran tech innovator with 20 years in the trenches. As an author and developer advocate, I'm on a mission to demystify data and cloud technologies.