Virtualizáció

Aruba Cloud VMware VPS migrálás OpenStack-re

Fórumok

Sziasztok !

Az Aruba nemrégiben levelet küldött, hogy a VMware licence változás miatt drágulnak a VPS-ek, viszont lehetőség van OpenStack-re migrálni.

Van 2  kis méretű vps-em a cseh adatközpontban, ezért  a kevésbé fontoson el is indítottam próba képen a migrációt. Konkrétan 2-szer, de mindkét alkalommal hibára futott az új openstack vm létrehozása ( CreateComputeInstance : Error ). Első alkalommal ( a vm eredetileg ubuntu 18.04 template-ü, de már frissebb :) ) ubuntu 20.04-re, második alkalommal ubuntu 22.04-re akartam migrálni.

Kérdésem az lenne, hogy van-e köztetek valaki akinek ez a művelet bármilyen ottani vm-el már sikerült ?

Persze lehet, hogy sokan próbálkoznak egyszerre, mert borzasztóan lassú az admin felület. Mondjuk eddig sem volt gyors.

Előre is köszönet a válaszokért !

[Kubernetes] [1.31.1] Frissen inicializált Kubernetes cluster magától meghal

Fórumok

Van egy 1 node-s Kubernetes clusterem, amin semmi nem fut(na), csak egy gitlab, aminek hostpathon vannak a cuccai. 1.22-ről jöttem fel 1.31-re, már ott tartok, h nulláról húzom újra, és 2 perc futás után minden ok nélkül lekapcsol a cluster.

Átmegy ready-be, minden faszának tűnik majd szétrohad a picsába. A kubelet logja gyakorlatilag olvashatatlan, nem tudom mit keressek benne, a kube-system alatti cuccokban nincs érdemi hiba, minden error kezdetű dolgot meggoogleztam, de semmi.

Nem tudok mire keresni, a kubelet logjában ugyan van egy csomó error, de tapasztalatból tudom, hogy ez normális, idő mire elindulnak a dolgok, de közben force probál minden mindenhez csatlakozni. 5 órája szopok vele, és kicsit tele van a hócipőm ezen a ponton.

A kubeadm reset / kubeadm init után van ez, nem fut még semmi, még a calicot sem tettem fel, mert odáig sem jutunk el. A containerd jó, abban sem látok hibát. Már csináltam egy default cni konfigot is ez alapján, de az se segít. El sem tudom képzelni már, mit rontok el, semmi extra nincsen a konfigban.

A kubeadm-et így futtatom:

kubeadm reset -f
kubeadm init --pod-network-cidr=10.88.0.0/16

Kínomban már leszedtem az ufw-t is (amúgy disabledben volt), az sem segített. Találtam egy ufw konfigot hozzá, bekonfiguráltam, hogy hátha valami defaultja van, ami beleszól, az se.

A kubelet logja főleg azzal van tele, hogy CrashLoopBackOff -ba került a kube-scheduler meg a kube-apiserver. 

A kube-apiserver logja lényegében eseménytelen, a kube-schedulerben látok ilyet:

I0928 22:12:48.463694       1 shared_informer.go:313] Waiting for caches to sync for client-ca::kube-system::extension-apiserver-authentication::client-ca-file
E0928 22:12:48.463762       1 shared_informer.go:316] "Unhandled Error" err="unable to sync caches for client-ca::kube-system::extension-apiserver-authentication::client-ca-file" logger="UnhandledError"

de ezt azt tippelem, azért írja, mert a kube-apiserver épp nem fut olyankor. És mindegyik szervíznél azt látom, hogy valamilyen - számára - külső ok miatt álltak le.

FONTOS:

Nincs érdemi mentendő dolog a clusteren, a gépet nem tudom újra telepíteni, és a gitlab mappái kellenek ofc, de minden más kuka lehet mindaddig, amíg a gép maga még be tud bootolni és SSH-n elérhető lesz.

Felhőbe menni nem opció, külső szolgáltató nem opció (tőlem félig-meddig független okok miatt, erről nem tudok és nem is akarok bővebben beszélni). Szeretnék itt egy egy node-os k8s clustert, mert később kerülnének ide szolgáltatások, de ha ezt holnap délig nem oldom meg, akkor vmi docker alapú rendszer kerül ide (nem ragaszkodok múlhatatlanul a kuberneteshez, Portainerrel vagy valami más Docker konténereket kezelő cuccal is meg tudom oldani a problémáimat).

A fenti két bekezdést figyelembe nem vevő kommentekre nem fogok reagálni. Minden más segítséget megköszönök és igyekszem válaszolni.

LXC network port forward

Fórumok

Üdv,

LXC-ben (nem lxd) hogyan érdemes/kell a port forwardot beállítani? Tehát mint a Docker-ben a hoszt egy portjára érkező kéréseket átdobja az adott portra a konténernek.

Vagy itt tűzfal (firewalld) szabályt kell beállítani?

  • OS: Fedora 40
  • lxc: 6.0.1

LXC proxy

Fórumok

Üdv!

LXC-hez hol lehet beállítani a proxy szerver elérhetőségét? (pl. a template-eket is le tudja tölteni) http_proxy=

  • OS: Fedora 40
  • lxc: 6.0.1

ESXI 8.0 jatszos, vnc port nyitas --> service.xml-t nem tudom szerkeszteni

Fórumok

Sziasztok!

Otthoni jatszoson szeretnek vnc-t megvalositani, hasonloan mint proxmox alatt.

 

pelda: esxihost-ip:5900 

Kerdes eseten: Egy xp-t kellene igy elerni, aminek nem szeretnek halozatot adni egyelore. Atmeneti megoldas, a guest user, esxi hoston, es akkor web interface-en eleri, de ott meg ott a tobbi vm-is, es ez sem szerencses.

Egy regi auto diag szoftver fut rajt, csak xp 32bit-et tamogat.

 

Vannak irasok, hogy mit hogyan kell  a portnyitashoz megvalositani:

1. nezd meg hogy engedelyzeve van-e a port, nyilvan nincs ezert kellene kinyitni

A port nyitashoz el kellene kovetni egy ilyet a service.xml-ben:

 <service>
    <id>vnc-server</id>
    <rule id="0000">
      <direction>inbound</direction>
      <protocol>tcp</protocol>
      <port>5900-5999</port>
    </rule>
  </service>

Engedelyezem az ssh-t, winscp-vel csatlakozom, meg is tudom nyitni, de nem engedi menteni. 

Ok, nezem permission-t, csak olvashato. Jo, akkor chmod 644, ES itt akadok meg, hogy root-al nem engedi modositani a jogosultsagokat, illetve menteni sem tudom a file-t.

 

Valaki ki tudna segiteni, hogy mi a csocsot kellene csinalni, hogy belekeruljon a fenti resz az xml-be?

 

Alternativ megoldaskent keszitettem a firewall mappaba egy vnc.xml file-t. Ebbe betettem a configot:

 

<ConfigRoot>
  <service>
    <id>vnc-server</id>
    <rule id="0000">
      <direction>inbound</direction>
      <protocol>tcp</protocol>
      <port>5900-5999</port>
    </rule>
  </service>
</ConfigRoot>

 

Configroot kiegeszitessel. Ezt nyilvan el tudom menteni, rendben is van. Viszont ezt nem tudom "betolteni" az esxi-nek:

 

Megvan a file, restartolom a hostot, es ezzel a paranccsal megnezem:

esxcli network firewall ruleset list

 

Nincs bent a listaba az altalam keszitett szolgaltatas, de nem is lepodok meg, mert semmit nem talaltam arra, hogy hogyan tudom ravenni hogy olvassa be az en konfigomat is.

 

Amit meg megneztem, hogy vcenterrel lehet-e ilyet csinalni. Egyelore nem talaltam abban sem, semmi erre utalo dolgot. A meglevoket tudom kezelni, de ujat abban sem tudok letrehozni.

 

ui.: Ez proxmox alatt tok jol mukodik. A vmware-nel is van erre lehetoseg, tehat feltetelezem hogy mukodesre is lehetne birni valahogy.

Nyilvan en vagyok a keves ide.

 

Koszi elore is!

Virtuális és nem-virtuális Win

Fórumok

Úgy szeretnék egy VM-be telepíteni és regisztrálni egy Win10-et, hogy ehhez felhasználnám a géphez "járó" kulcsot. Viszont elvi síkon szeretném biztosítani, hogy ha valmikor a jövőben valaki ugyanezen a gépen natívan akarna rajta Win10-et telepíteni, akkor sehol ne akadjon be, hogy a legutolsó telepítéskor nem ilyen gép volt.

Mivel gőzöm nincs, hogy mit figyel / ellenőriz a telepítés / regisztráció, ehhez kérek tippeket, hogy mire figyeljek a VM paraméterezésénél. A környezet FreeBSD bhyve-val, de ezt nyugodtan lehet ignorálni, tételezzük fel, hogy Linuxszal és VMware-rel / VirtualBox-szal / KVM-mel / akármivel akarom csinálni; az elméleti része érdekel. És nyugodtan zárjuk rövidre azt is, hogy de már nem is lehet Win10-et telepíteni / regisztrálni. Gondolom ha a gép Win10-zel jött, akkor ha a tulaja újra akarja húzni - mondjuk egy új diszk kapcsán, akkor ezt azért nem fogja megakadályozni Redmond (vagy Brüsszel, és ezzel a politikai vonalat zárjuk is le).

ProxMox LVM Thin meghibásodás

Fórumok

Sziasztok, 
egy áramszünet miatt egy vason elszállt az LVM-ben lévő lvm-thin volume, amiben voltak virtuális gépek.
HW hiba nincs, vélhetően az lvm-thin superblock-ot csapta fejbe valami.

Van esetleg valakinek gyakorlata ilyen fixálásában? Előre is köszönöm!

 

thin_check /dev/mapper/volgroup-vmstore
examining superblock
superblock is corrupt
bad checksum in superblock, wanted 929184704

Cloud szolgáltatók (ár/teljesítmény) összehasonlítása

Fórumok

Találkozott már valaki olyan oldallal, ahol a cloud compute ajánlatok -csak az, tehát a mindenféle csilivili, hostolt postgres, redis, proprietary megoldások nem lényegesek- (x CPU, y memória, esetleg egyéb adatok, pld. local, network storage adatok) egy helyen almát az almával alapon összehasonlíthatók?

Plusz igény lenne, hogy valami teljesítményarányt (CPU-nál, itt most elsősorban ez lenne az érdekes, bár nyilván erősen függ az alkalmazástól) lássunk, mert hiába publikálja némelyik vendor, hogy xyz típusú CPU van az adott gépében, ez a környezet miatt (is) elég jelentős eltéréseket mutathat, ráadásul oltári macera mindezt ár/érték arányosan összepárosítani ezekről az oldalakról.

Az ilyen https://instances.vantage.sh/ és társait ismerem, de pld. ez már eleve külön oldalon kínálja az AWS-t és Azure-t, és most őszintén, mire megyek azzal, hogy a CPU "AWS Graviton2 Processor"*, amely az égvilágon semmivel sem összehasonlítható, még publikus benchmarkok esetében sem (egy akármilyen Xeonnál erre még van valami esély, bár ott is vannak olyan változatok, amik csak az adott vendornál elérhetők, azaz a boltban elvileg nem kaphatók).

Ilyeneket találtam még: https://techblog.nexxwave.eu/benchmark-between-cloud-servers-january-20…, de ez erősen korlátozott, cserébe a szokásos AWS/GCP/Azure mellett más is szerepel benne.

Mint írtam, csak compute kellene, az hasznos, ha az adott vendort lehet valami IaC toollal menedzselni (TF, Pulumi mindegy), amúgy mindegy milyen vendor, ahogy az is, hol van.

*: mindegy, hogy ARM, vagy x86_64, az ár/teljesítmény lenne a lényeg.

Proxmox init.d probléma

Fórumok

Sziasztok!
 

Áthúztam néhány régebbi Debian 7-es és 8-as gépet 8.1-es Proxmox alá. (Konténerek, szóval nem KVM).

Viszont a konténerek elstartolása után se SSH, se Cron, se hálózat... Ha kézzel kiadogatom a /etc/init.d/ssd start ,stb. parancsokat, akkor elindulnak szépen, de maguktól nem hajlandóak... 

Mi lehet a probléma? A Proxmox host OS systemd az ami a galibát okozza? Hogyan lehetne orvosolni?