Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
elearning:workbooks:kubernetes:k8s06 [2022/09/28 11:39] adminelearning:workbooks:kubernetes:k8s06 [2025/01/17 15:25] (Version actuelle) admin
Ligne 1: Ligne 1:
 ~~PDF:LANDSCAPE~~ ~~PDF:LANDSCAPE~~
  
-Version - **2022.03**+Version - **2024.01**
  
 Dernière mise-à-jour : ~~LASTMOD~~ Dernière mise-à-jour : ~~LASTMOD~~
  
-======DOF307 - Troubleshooting======+ 
 +======DOF307 - Troubleshooting K8s======
  
 =====Contenu du Module===== =====Contenu du Module=====
  
-  * **DOF307 - Troubleshooting**+  * **DOF307 - Troubleshooting K8s**
     * Contenu du Module     * Contenu du Module
     * LAB #1 - Le Serveur API     * LAB #1 - Le Serveur API
Ligne 67: Ligne 68:
 ===La Variable KUBECONFIG=== ===La Variable KUBECONFIG===
  
-Si vous utilisez le compte root pour interagir avec K8s, vérifier que la variable **KUBECONFIG** est renseignée correctement :+Si vous utilisez le compte root pour interagir avec K8s, vérifiez que la variable **KUBECONFIG** est renseignée correctement :
  
 <code> <code>
Ligne 76: Ligne 77:
 ===Le Fichier $HOME/.kube/config=== ===Le Fichier $HOME/.kube/config===
  
-Si vous utilisez un compte d'un utilisateur normal pour interagir avec K8s, vérifier que le fichier **$HOME/.kube/config** est renseigné correctement et qu'il possède les bonnes permissions :+Si vous utilisez un compte d'un utilisateur normal pour interagir avec K8s, vérifiez que le fichier **$HOME/.kube/config** est renseigné correctement et qu'il possède les bonnes permissions :
  
 <code> <code>
Ligne 186: Ligne 187:
 </code> </code>
  
-=====LAB #2 - Les Noeuds=====+=====LAB #2 - Les Nœuds=====
  
 ====2.1 - Le Statut NotReady==== ====2.1 - Le Statut NotReady====
  
-Quand un noeud du cluster démontre un problème, il convient de regarder la section **Conditions** dans la sortie de la commande **kubectl describe node** du noeud concerné :+Quand un nœud du cluster démontre un problème, il convient de regarder la section **Conditions** dans la sortie de la commande **kubectl describe node** du nœud concerné :
  
 <code> <code>
Ligne 206: Ligne 207:
 </code> </code>
  
-En règle générale, le status de NotReady est créé par la panne du service **kubelet** sur le noeud, comme démontre l'exemple suivant :+En règle générale, le statut de NotReady est créé par la panne du service **kubelet** sur le nœud, comme démontre l'exemple suivant :
  
 <code> <code>
Ligne 241: Ligne 242:
 </code> </code>
  
-En activant et en démarrant le service, le noeud retrouve son status de Ready :+En activant et en démarrant le service, le nœud retrouve son statut de **Ready** :
  
 <code> <code>
Ligne 335: Ligne 336:
 </code> </code>
  
-Deployez ensuite l'application :+Déployez ensuite l'application :
  
 <code> <code>
Ligne 342: Ligne 343:
 </code> </code>
  
-En consultant le pod créé, vous verrez qu'il y a une erreur de type **ErrImagePull** :+En consultant le pod créé, vous verrez qu'il y a une erreur de type **ImagePullBackOff** :
  
 <code> <code>
Ligne 551: Ligne 552:
 </code> </code>
  
-<WRAP center round important 40%>+<WRAP center round important 60%>
 **Important** : Notez l'utilisation de **^C** pour arrêter la commande **kubectl logs postgresql-6f885d8957-tnlbb -f**.  **Important** : Notez l'utilisation de **^C** pour arrêter la commande **kubectl logs postgresql-6f885d8957-tnlbb -f**. 
 </WRAP> </WRAP>
Ligne 562: Ligne 563:
  
 <code> <code>
-See 'kubectl logs -h' for help and examples 
 root@kubemaster:~# kubectl exec postgresql-6f885d8957-tnlbb -- cat /opt/bitnami/postgresql/conf/postgresql.conf | more root@kubemaster:~# kubectl exec postgresql-6f885d8957-tnlbb -- cat /opt/bitnami/postgresql/conf/postgresql.conf | more
 # ----------------------------- # -----------------------------
Ligne 635: Ligne 635:
  
 ====5.1 - kube-proxy et le DNS==== ====5.1 - kube-proxy et le DNS====
 +
 +Utilisez la commande **kubectl get pods** pour obtenir les noms des pods **kube-proxy** et **coredns** :
  
 <code> <code>
Ligne 655: Ligne 657:
 </code> </code>
  
-<code> +Recherchez des erreurs éventuelles dans les journaux de chaque pod :
-kubectl logs -n kube-system kube-proxy-ggmt6 | tail +
-</code>+
  
 <code> <code>
Ligne 683: Ligne 683:
 </code> </code>
  
-====5.2 - La Conteneur netshoot====+====5.2 - Le Conteneur netshoot====
  
 Si, à ce stade, vous n'avez pas trouvé d'erreurs apparentes, il convient de créer un pod qui contiendra un conteneur généré de l'image **nicolaka/netshoot**. Cette image contient un grand nombre d'outils de dépannage pré-installés : Si, à ce stade, vous n'avez pas trouvé d'erreurs apparentes, il convient de créer un pod qui contiendra un conteneur généré de l'image **nicolaka/netshoot**. Cette image contient un grand nombre d'outils de dépannage pré-installés :
  
 +{{ :elearning:workbooks:kubernetes:netshoot.png?nolink&600 |}}
  
 Créez le fichier **nginx-netshoot.yaml** : Créez le fichier **nginx-netshoot.yaml** :
Ligne 826: Ligne 826:
  
 ---- ----
-Copyright © 2022 Hugh Norris+Copyright © 2024 Hugh Norris
Menu