kameshsampath.openshift_app_spices

Rôle Ansible pour les Opérateurs OpenShift

Ansible pour configurer un cluster OpenShift pour les ateliers et démonstrations des développeurs Red Hat.

Le rôle peut également être utilisé pour installer et configurer :

== Exigences

[source,bash]

pip3 install
-r https://raw.githubusercontent.com/kameshsampath/ansible-role-openshift-spices/master/requirements.txt ansible-galaxy role install -r https://raw.githubusercontent.com/kameshsampath/ansible-role-openshift-spices/master/requirements.yml ansible-galaxy collection install -r https://raw.githubusercontent.com/kameshsampath/ansible-role-openshift-spices/master/requirements.yml


[NOTE] : Pour Windows, il est recommandé d'utiliser le sous-système Windows pour Linux (WSL)

== Variables du Rôle

[%header,cols="1,2,1"] .Variables du Rôle |=== | Nom de la Variable | Description | Valeur par Défaut

| download_clients | Télécharge les clients OpenShift oc, kubectl et openshift-install | True

| ocp_bin_dir | Dossier pour télécharger et installer les clients OpenShift. Le dossier sera créé s'il n'existe pas | $HOME/openshift/bin

| ocp_version | La version minimale d'OpenShift à utiliser | 4.5.6

| deploy_serverless | Déployer OpenShift Serverless | True

| serverless_subscription_channel | Le canal de l'Opérateur pour l'abonnement Serverless | 4.5

| knative_serving_cr | La ressource personnalisée Knative Serving | serverless/cr/serving.yaml

| knative_eventing_cr | La ressource personnalisée Knative Eventing | serverless/cr/eventing.yaml

| deploy_pipelines | Déployer OpenShift Pipelines | False

| deploy_argocd | Déployer Argo CD | False

| argocd_cr | La ressource personnalisée Argo CD | argocd/cr.yaml

| argocd_release_channel | Le canal de version d'Argo CD | alpha

| deploy_acm | Déployer Advanced Cluster Management for Kubernetes (ACM) | False

| acm_cr | La ressource personnalisée ACM | acm/cr.yaml

| acm_release_channel | Le canal de version d'ACM | release-2.0

| deploy_servicemesh | Déployer OpenShift Service Mesh | False

| servicemesh_es_channel | Le canal de l'Opérateur pour l'abonnement Red Hat Elastic Search | 4.5

| servicemesh_cr | La ressource personnalisée Red Hat Service Mesh | servicemesh/cr.yaml

| servicemesh_members | Créer et ajouter des projets Service Mesh a| [source,yaml]


servicemesh_members: create: False prefix: tutorial start: 0 end: 10


| deploy_kafka | Déployer Apache Kafka avec Strimzi
| False

| kafka_cluster_name | Le nom du cluster Apache Kafka
| my-cluster

| kafka_cluster_namespace | L'espace de noms du cluster Apache Kafka | kafka

| strimzi_kafka_cr | Ressource personnalisée Apache Kafka Strimzi | kafka/cr.yaml

| knative_eventing_kafka_cr | Ressource personnalisée KafkaSource de Knative Eventing | kafka/eventing/cr.yaml

| deploy_camel_k | Déployer Apache Camel-K | False

| deploy_che | Déployer Eclipse Che | False

| eclipse_che_cr | La ressource personnalisée Eclipse Che | che/cr.yaml

| deploy_acm | Déployer Red Hat Advanced Cluster Management for Kubernetes | False

| users | Créer des utilisateurs OpenShift et un administrateur de cluster a| [source,yaml]


users: create: True prefix: user start: 0 end: 10 ocpadmin_username: ocpadmin


[NOTE]

Définir start et end à 0 ne créera aucun utilisateur sauf cluster-admin

|===

== Exemples de Playbooks

Le répertoire exemples contient divers exemples de playbook pour commencer à utiliser ce rôle :

par exemple

Si vous souhaitez déployer OpenShift Serverless avec Pipelines, exécutez :

[source,bash]

ansible-playbook examples/serverless_pipelines.yml

Si vous n'avez pas Ansible installé localement, vous pouvez utiliser le projet openshift-spice-runner pour exécuter les playbooks à l'aide de Docker et Ansible Runner.

== Licence

Apache v2

== Informations sur l'Auteur

kamesh.sampath@hotmail.com [Kamesh Sampath]

== Problèmes

Problèmes

À propos du projet

Setup OpenShift workshop cluster with required components

Installer
ansible-galaxy install kameshsampath.openshift_app_spices
Licence
Unknown
Téléchargements
83
Propriétaire
Veteran tech innovator with 20 years in the trenches. As an author and developer advocate, I'm on a mission to demystify data and cloud technologies.