Pour ma part la mise en place de RKE2 a bien fonctionné, j'ai suivi cette doc: https://docs.rke2.io/install/quickstart
Par contre c'est au moment de la mise en place de Cilium où ça s'est beaucoup compliqué car j'ai suivi cette documentation: https://docs.cilium.io/en/stable/gettingstarted/k8s-install-default/
Mais ça ne marchais pas, je n'ai pas réussi à savoir pourquoi mais au moment de faire le cilium status --wait
, Cilium ne passait jamais en OK.
J'ai donc dû supprimer Cilium, désinstaller RKE2 et tout refaire et cette fois ci, Cilium a fonctionné et est bien passé en OK
J'avais donc peut-être raté une étape qui avait causé ce problème.
J'ai donc pu déployer mon application sur mon cluster RKE2, les images sont sur ghcr.io, il y a les versions 1,2,3 et 4 pour le downtime: https://github.com/orgs/do3-2023/packages?repo_name=vfo-kube, j'ai eu besoin de rien changer dans mes fichiers de config k8s, tout marche...
Pour la mise en place du Downtime, j'ai bien changé le code de l'API et du Front pour pouvoir traiter des Personnes et bien évidemment créer les différentes versions.
Accessible sur les branches:
- downtime-v1
- downtime-v2
- downtime-v3
- downtime-v4
Pour le WASM, j'ai essayé plusieurs outils:
- bytecoder
- cheerpj
- TeaVM
- wasmedge / wasmer
Aucun des outils n'a fonctionné pour mon application Quarkus, je pense que si j'avais choisi du Java sans framework ça aurait été bien plus simple et ça aurait certainement marché, mais même en utilisant la tâche de native build avec Quarkus, j'obtiens un binaire que ne j'arrive pas à convertir en wasm avec tous les outils que j'ai trouvé.
Sur la branche "wasm" j'ai commit l'une de mes tentatives avec TeaVM qui était la solution la plus prometeuse pour moi
GET /generateperson
GET /persons
GET /healthz
GET /
POST /api/v1/person (without any content body)
GET /api/v1/person
GET /healthz
GET /hello
wget -q -O - https://raw.githubusercontent.com/k3d-io/k3d/main/install.sh | bash
k3d cluster create <clustername>
chmod +x deploy_all.sh
./deploy_all.sh
chmod +x deploy_all.sh
./deploy_all.sh nobuild
kubectl apply -f database/
kubectl apply -f back/infra/
kubectl apply -f front/infra/