( vl | 2021. 10. 21., cs – 03:35 )

Szerkesztve: 2021. 10. 21., cs – 03:37

Nem értem.

ezert hozza kellett adni egy masik halokartyat is a gepekhez.(10.10.32.x/24)

Hozzaadtam egy masodiuk route tablat

- Ugyanugy meg kell adni a masodlagos route tablat azokon a node-okon is?

Minek? Amint felkonfigurálod a második hálókártyát az adott gépen, a 'connected network', azaz a hálókártya IP subnetje automatikusan megjelenik a routing táblában, nem kell ott csinálni semmit se.

- Hogyan etetem meg mindezt a kubernetessel? Kell valami magia a CNI -szel? Weave a hasznalt CNI plugin. Jelenleg sajnos nem talaltam semmi erre utalo dokumentumot

Semmit nem kell csinálni. Automágikusan menni fog mindegyik node-on, amiről ez a hálózat elérhető. Nem is értem itt fentebb a multus előhozását...

A Pod hálózatából minden, ami nem Kubernetes, az ekvivalens az "Internet" elérésével. Tehát valami vagy belül van (pod network, service network, node-ok címei), vagy ha nem, akkor a kimenő forgalmat indító fizikai node saját routing táblájával, source NAT (MASQ) után kvázi a hostról indított forgalomként jelenik meg. Pont, mint amikor a gmail weboldalát címezed. Esetünkben ez baromi egyszerű: mivel a hostnak saját közvetlen kapcsolata van az adott subnettel, így az mindig azon keresztül fog menni.

Másrészt: az NFS mount kernel funkció, így az nem a Podon belül történik. Azaz még ha esetleg a Pod szintjén is csinálod a mount parancsot, a mountolást a kernel végzi, és az eleve nem a Pod hálózatából indul, hanem a hostéból. Ha a Pod volume listájában NFS mount van, az nem a Pod neve alatt fog megvalósulni, mert ezeket a mountolásokat a kubelet végzi, a saját kontextusában, egy random jól megválasztott host könyvtárban, aztán ezt a host könyvtárat fogja a kubelet az adott Pod adott konténerébe local bind mountként bevinni (mint a -v opció a docker run alatt). Azaz az egész fenti elmélkedés N/A esetünkben, eleve nem is a Podon belül történik az NFS mount.