vagrant@master:~/kubernetes-certified-administrator-training/06_lab-06$ curl $LIST_URL -o ./student_age.json
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 39 100 39 0 0 106 0 –:–:– –:–:– –:–:– 106
vagrant@master:~/kubernetes-certified-administrator-training/06_lab-06$ cat student_age.json
{
« bob »: « 13 »,
« alice »: « 12 »
}
J’ai aussi remarquer que l’un des pod flannel n’est pas en été running sur mon master, son été est « CrashLoopBackOff », en regardant dans les logs j’ai ce message: « E0226 06:08:58.969930 1 main.go:268] Failed to check br_netfilter: stat /proc/sys/net/bridge/bridge-nf-call-iptables: no such file or directory ». Est-ce qu’il y a un lien avec mon erreur sur l’init container ?
Ulrich Steve NOUMSI
sur 28 février 2025 à 9 h 58 min
Bonjour Monsieur,
Je vous recommande de prendre le fichier correspondant dans le dépôt EAZYTraining, sous ce cours, afin d’obtenir la syntaxe exacte du fichier JSON que nous utilisons dans la vidéo.
l’erreur que vous avez peut etre due a une mauvaise syntaxe du lien
Hello , moi aussi j’ai eu le message d’erreur : Could not resolve host: raw.githubusercontent.
Tout comme le message l’indique je me suis dis que le worker sur lequel se trouve le pod est bloqué pour des résolutions DNS vers l’extérieur. Mon infra : Proxmox (ip publique) / Opnsense / Vlan Master et Vlan Worker , avec CNI flannel.
Donc je me connecte sur le worker et la résolution fonctionne très bien et je peux récupérer le fichier json.
Donc j’essaie de comprendre comment fonctionne la résolution DNS dans Kuber et soit disant il utilise le /etc/resolv.conf du worker courant. Après je me dis que c’est peut être un problème avec les régles de Firewall de Opnsense pour le traffic venant du Vxlan Kuber mais comme c’est du Vxlan encapsulé dans le réseau Kuber, l’opnsense ne le verra pas. J’active les logs live sur Opnsense et là bingo , j’avais oublié une partie des régles pour autoriser l’udp 8472.
Vraiment super ces cours, c’est du pratique et si on ne fait pas du simple copier coller mais que l’on s’oblige a créer les manifest de zéro on apprend énormément.
J’ai aussi créé un service de type nodeport pour pouvoir voir l’interface et là j’ai constaté quelque chose d’intéressant. Mon pod se déploie et à cause du backend qui lui manque un fichier, le pod passe en mode Crash. Or sur les deux containers du Pod (avant ajout de l’init container) php et pozos-api seul le conteneur pozos-api est en échec. J’ai remarqué que les régles iptables permettant de faire le DNAT 30080 -> 80 ne s’activent que si le Pod est sain alors qu’en fait il pourrait activer la régle sachant que le conteneur du pod qui recoit le traffic web est up. Par contre dans le cadre de mon infra pour permettre la connexion au Pod j’ai du faire du DNAT sur le proxmox et également sur le Opnsense en plus de la régle DNAT créé par le service de type NodePort, ca fait beaucoup de DNAT. A court terme je vais placer l’ip publique directement sur l’opnsense plutot que sur Proxmox, ca simplifiera un peu la donne.
Oui en effet j’ai fait une erreur j’ai redirigé vers le worker au lieu de rediriger vers le master, j’ai changé cela et cela fonctionne bien. Par contre dans Opnsense j’ai pas las possibilité de spécifier en destination un pool de machines, là ca va car j’ai qu’un seul Master mais si j’en avais plusieurs ….
Bonjour ! Ca serait super pour l’ensemble des images du cours de les builder pour qu’elle supportent les architectures les plus connus (https://medium.com/nerd-for-tech/rebuilding-a-3rd-party-docker-image-for-apple-silicon-8299fca9654). Les images utilisées sont buildées uniquement pour amd64, pour l’occasion j’ai rebuild en arm64.
Je me suis permis de faire ça:
https://hub.docker.com/r/sandujar/pozos-api/tags
arm64 et amd64
A changer dans votre deployment/pod si vous êtes sur mac silicon par exemple 🙂
Bonjour, j’ai rencontré cette erreur dans mon pod d’initialisation » Could not resolve host: raw.githubusercontent.com
«
Hello Thierry.
Avez vous apporté une modification à ce manifest ? car de notre côté la requête passe sans problème et ce lien est public.
vagrant@master:~/kubernetes-certified-administrator-training/06_lab-06$ LIST_URL=https://raw.githubusercontent.com/diranetaf
en/student-list/master/simple_api/student_age.json
vagrant@master:~/kubernetes-certified-administrator-training/06_lab-06$ curl $LIST_URL -o ./student_age.json
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 39 100 39 0 0 106 0 –:–:– –:–:– –:–:– 106
vagrant@master:~/kubernetes-certified-administrator-training/06_lab-06$ cat student_age.json
{
« bob »: « 13 »,
« alice »: « 12 »
}
Pouvez-vous m’aider. Merci
J’ai aussi remarquer que l’un des pod flannel n’est pas en été running sur mon master, son été est « CrashLoopBackOff », en regardant dans les logs j’ai ce message: « E0226 06:08:58.969930 1 main.go:268] Failed to check br_netfilter: stat /proc/sys/net/bridge/bridge-nf-call-iptables: no such file or directory ». Est-ce qu’il y a un lien avec mon erreur sur l’init container ?
Hello Thierry.
Vous semblez rencontré des problèmes liés à votre cluster.
Est-ce que son déploiement s’est bien passé ?
Veuillez rejoindre notre channel « général » sur slack via le lien suivant :
https://join.slack.com/t/pozosworkspace/shared_invite/zt-2zevfamxi-B7P4aP3WBjIc_tUQIs_7tQ
Le suivi sera meilleur de ce côté là.
Cordialement…
Bonjour Monsieur,
Je vous recommande de prendre le fichier correspondant dans le dépôt EAZYTraining, sous ce cours, afin d’obtenir la syntaxe exacte du fichier JSON que nous utilisons dans la vidéo.
l’erreur que vous avez peut etre due a une mauvaise syntaxe du lien
Cordialement
Hello , moi aussi j’ai eu le message d’erreur : Could not resolve host: raw.githubusercontent.
Tout comme le message l’indique je me suis dis que le worker sur lequel se trouve le pod est bloqué pour des résolutions DNS vers l’extérieur. Mon infra : Proxmox (ip publique) / Opnsense / Vlan Master et Vlan Worker , avec CNI flannel.
Donc je me connecte sur le worker et la résolution fonctionne très bien et je peux récupérer le fichier json.
Donc j’essaie de comprendre comment fonctionne la résolution DNS dans Kuber et soit disant il utilise le /etc/resolv.conf du worker courant. Après je me dis que c’est peut être un problème avec les régles de Firewall de Opnsense pour le traffic venant du Vxlan Kuber mais comme c’est du Vxlan encapsulé dans le réseau Kuber, l’opnsense ne le verra pas. J’active les logs live sur Opnsense et là bingo , j’avais oublié une partie des régles pour autoriser l’udp 8472.
Vraiment super ces cours, c’est du pratique et si on ne fait pas du simple copier coller mais que l’on s’oblige a créer les manifest de zéro on apprend énormément.
J’ai aussi créé un service de type nodeport pour pouvoir voir l’interface et là j’ai constaté quelque chose d’intéressant. Mon pod se déploie et à cause du backend qui lui manque un fichier, le pod passe en mode Crash. Or sur les deux containers du Pod (avant ajout de l’init container) php et pozos-api seul le conteneur pozos-api est en échec. J’ai remarqué que les régles iptables permettant de faire le DNAT 30080 -> 80 ne s’activent que si le Pod est sain alors qu’en fait il pourrait activer la régle sachant que le conteneur du pod qui recoit le traffic web est up. Par contre dans le cadre de mon infra pour permettre la connexion au Pod j’ai du faire du DNAT sur le proxmox et également sur le Opnsense en plus de la régle DNAT créé par le service de type NodePort, ca fait beaucoup de DNAT. A court terme je vais placer l’ip publique directement sur l’opnsense plutot que sur Proxmox, ca simplifiera un peu la donne.
Oui en effet j’ai fait une erreur j’ai redirigé vers le worker au lieu de rediriger vers le master, j’ai changé cela et cela fonctionne bien. Par contre dans Opnsense j’ai pas las possibilité de spécifier en destination un pool de machines, là ca va car j’ai qu’un seul Master mais si j’en avais plusieurs ….
Hello thyedevops
Merci d’utiliser dans un premier temps l’environnement de labs qui vous est proposé afin de réaliser le TP et le rendre fonctionnel.
https://eazytraining.fr/cours/devenez-certified-kubernetes-administrator/lessons/08_lab-0-creation-des-vms-avec-vagrant/
Après vous serez libres de faire vos tests dans d’autres environnements différents de celui du cours.