( kisg | 2021. 05. 05., sze – 20:03 )

Konkrétan a menedzselt Kubernetes clusterek nagy része így működik: Kubernetes worker node-oknak 1-1 VM van betolva, abban futnak a konténerek. Persze működhet ez dedikált géppel is, de a VM sokkal jellemzőbb.

Tehát csinálhatod azt simán, hogy a VMware infrastruktúrádon elindítasz néhány VM-et, amik a Kubernetes cluster lesznek, ahova lehet már konténerizált alkalmazásokat betolni, a legacy appok meg futnak tovább VM-ben, ahogy eddig. Pl. ilyen esetben én elgondolkoznék a K3OS használatán ezeken a VM-eken: minimál Linux + K3S (egyszerűen deployolható Kubernetes) egy csomagban.

 

Aztán még lehet ezen is csavarni egyet, mert ugye a konténer sem azonos a "Linux konténerrel" úgyis mint cgroups és társai, hanem vannak itt egyéb megoldások is, pl.:

- KATA containers (QEMU-n belül futnak a konténerek)

- GVisor (Go-ban írt Linux system call ABI implementáció, kb. user-mode Linux csak biztonságra kihegyezve, ez van a Google AppEngine alatt)

- Firecracker (Amazon Lambda alatt is ez fut, de Kubernetes konténerek alá is be lehet tenni, eredetileg a ChromeOS VMM-jéből forkolták)

- elég biztos vagyok benne, hogy van olyan OCI runtime, ami Vmware VM-ben futtatja a konténert (passz, hogy ez a Tanzu része, vagy valami külön is használható cucc)