Se CDN, se Workers elérés, se Dashboard login nem működik.
A DNS megy, de minek.
Más is ezt látja?
Ugyanitt szakértsük meg, hogy lehetne olyan multi-cloud infrastruktúrát összerakni - nyilván két krajcárért, tehát a helyezzünk el 100+ DC-ben szervert ötletek nem játszanak -, hogy az ilyet el lehessen kerülni. Nekem a fő kérdésem, hogy a DNS-t hogy lehet átirányítani ilyenkor másik cloudban felálló infra-ra, ha alapesetben CloudFlare-nél van a DNS. Nyilván fordítva, Amazon Route 53 is el tud romlani.
- 2444 megtekintés
Hozzászólások
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
"CloudFlare valaki más számítógépe" :)))
"Budapest CloudFlare Error"
- A hozzászóláshoz be kell jelentkezni
Ilyenkor mindenki ezzel a multi-cloud otletelessel jon. Csak ha kiszamoljuk, hogy atlagosan evente egyszer van vmi glitch par orara, akkor kiszamolhato, hogy nem eri meg beruhazni vmi jo komplex megoldasra (aminek a komplexitasabol fakadoan lesznek outage-ek :) ).
- A hozzászóláshoz be kell jelentkezni
Főleg, hogy a Cloudflare inkább egy komplementer megoldás, a CDN témakörben. Tipikusan az alkalmazás és adat réteged az egy másik cloud providernél lesz ígyis-úgyis, vagy akár on-premise.
Persze közben jön fel egy csomó szolgáltatással a Cloudflare is, van lehetőség kódvégrehajtásra és adattárolásra is náluk, de azért ez még eléggé korlátosan alkalmazható teljes üzleti logika kiszolgálására.
- A hozzászóláshoz be kell jelentkezni
Use case függő, de elég jól működik arra, hogy a backend szervereket ne kelljen publikusan kirakni a netre + a DDOS-ok nagy része el se jusson oda. JS alapú frontend kód szerintem teljesen jól futtatható rajta, jó áron.
- A hozzászóláshoz be kell jelentkezni
Plusz a statikus site kiszolgálás is rohadt jó náluk.
- A hozzászóláshoz be kell jelentkezni
Szerintem Franko elég jó multi-cloud infrastruktúrát rakott össze kb. gombokért, csak nem találom az előadását. :)
- A hozzászóláshoz be kell jelentkezni
https://iotguru.cloud/prezi/ha-system#/
De ehhez NoSQL kell. Ha vkinek mindenkepp tradicionalis RDBMS kell, akkor azt azert igencsak problemas szinkronban tartani cross-cloud/region, ugy hogy split-brain se legyen sose, gyors is maradjon, stb.
- A hozzászóláshoz be kell jelentkezni
Ha túl tud valaki lendülni a postgres hypeon, vitess-el elvileg egész jól lehet multi régió mysql-t épiteni :)
- A hozzászóláshoz be kell jelentkezni
PostgreSQL-nél ott a YugabyteDB, ami szintén tud multi regiot (nyilván a fizikát legyőzni nem lehet :) ).
- A hozzászóláshoz be kell jelentkezni
Vagy a CocroachDB
- A hozzászóláshoz be kell jelentkezni
Na ezt nem ismertem, de ahogy nézem elég borsos az ára :)
- A hozzászóláshoz be kell jelentkezni
Ez egy opensource projekt, nyilván van támogatott Enterprise verzió sok pénzért, ha szeretnél, de elvileg 2025 eleje óta minden (korábban csak Enterprise) feature ott van Githubon: https://github.com/yugabyte/yugabyte-db
- A hozzászóláshoz be kell jelentkezni
Na, azóta eltelt egy kis idő (6 év?), már K8s alapú az egész, ugyanígy 5 DC, három VPS szolgáltató, két földrész, árban kb. ugyanazt, csak sokkal több resource van már alatta. Múltkor említésre méltó röccenés nélkül kibírta, amikor leégett az OVH adatközpontja, viszont annyi SPOF került bele, hogy az Amazon Route53 van DNS szolgáltatóként, ha az megborul és pont valami egyéb gebasz is van, akkor nem nagyon tud átállni másik DC-re, addig round-robin szar lesz a kieső DC vagy node.
Nyilván lehet RDBMS alapokon is, csak komplexebb és törékenyebb a multi region cluster, a Cassandra meg erre készült alapvetően.
- A hozzászóláshoz be kell jelentkezni
Erdekes modon a fizetos csomagok mukodnek gond nelkul...:)
Error: nmcli terminated by signal Félbeszakítás (2)
- A hozzászóláshoz be kell jelentkezni
Akkor csak az ocsojanosokat (kullancsokat) razzak le magukrol :)
- A hozzászóláshoz be kell jelentkezni
Nem kizart.
Backupnak hasznalunk r2 -t s3 mellett; + egy business es egy normal csomag. Ezek mind mennek; a bypassolt oldalak mennek, a 10 db ingyenes nem bypassolt cucc megdoglott :D
Sokadszorra tortenik ez.
Error: nmcli terminated by signal Félbeszakítás (2)
- A hozzászóláshoz be kell jelentkezni
Nekem a Telex bejön...
- A hozzászóláshoz be kell jelentkezni
Amúgy az X-et is érintette, de úgy láttam, ha X-ként volt a hivatkozás, működött, ha twitter-ként, akkor meg nem...
- A hozzászóláshoz be kell jelentkezni
Barion ...
- A hozzászóláshoz be kell jelentkezni
Nálunk Enterprise support alatt lévő cuccok is ugyanúgy meghaltak. De legalább mostanra már visszajöttek :)
- A hozzászóláshoz be kell jelentkezni
tippre valamelyik anti-ddos cucc (bot detector? workerek?) döglött meg, és inkább beállításoktól függ, hogy mi megy és mi nem.
- A hozzászóláshoz be kell jelentkezni
Ent. és pro csomagban lévőkre vna rálátásom, azok is ugyanúgy esnek kellnek mint az ingyenesek, nem látok különbséget.
- A hozzászóláshoz be kell jelentkezni
Cafolom, az enterprise accountunknak is mindenfele baja van.
- A hozzászóláshoz be kell jelentkezni
Persze, hogy van, szerencsére nem kell találgatni, a státusz oldalon minden le van írva:
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
nyilván két krajcárért, tehát a helyezzünk el 100+ DC-ben szervert ötletek nem játszanak
Valamilyen SPOF úgyis lesz a rendszerben, legfeljebb ha több lóvét szánsz a problémára, akkor nagyobb rugalmassággal döntheted el, hogy hol legyen.
- A hozzászóláshoz be kell jelentkezni
A DNS-en kívül én egyelőre nem látok SPOF-ot, és abban reménykedtem, hogy itt az okos kollégák, majd megmondják, hogy ezt hogy lehet kikerülni. :)
- A hozzászóláshoz be kell jelentkezni
Két NS record, két különböző szolgáltatóra mutató címmel megoldás erre, s nem is különösebben drága.
- A hozzászóláshoz be kell jelentkezni
Így, ez az univerzális. Ha nem akarsz várni perceket a timeout-ra, akkor meg hosszú cache-elési idejű SPA ami felnyalja az alternatív címeket (ez nem univerzális)
- A hozzászóláshoz be kell jelentkezni
Hogy oldod meg azt, ha (mint ma) a Cloudflare DNS feloldás működik, de az API + admin felület nem, ezért a két NS közül az egyik láb inkonzisztens lesz a másikkal?
- A hozzászóláshoz be kell jelentkezni
?
Hint: DNS based load balancing
- A hozzászóláshoz be kell jelentkezni
Az nem arról szól, hogy a DNS szerver bizonyos szabályok alapján (round-robin, kliens geo-ip lookup) alapján oldja fel a DNS neveket?
Ez hogy oldja meg azt, ha az egyik DNS szerver az adott domainhez olyan szolgáltatónál van, aminek az admin API-ja nem működik, ezért nem tudod az IP-ket átállítani hogy a jó helyre mutassanak? Mert ma konkrétan ez történt. Akinek a CloudFlare-nél volt a DNS-e, az nem tudta módosítani, hiába működött a feloldás.
- A hozzászóláshoz be kell jelentkezni
Nem, az arról szól, hogy egy rekordban több cím van már alapból és hacsak nincs súly beállítva, a kliensek round robin alapon kapnak/választanak. Nem kell közben konfighoz nyúlni, pont ez adja a megoldást még akkor is ha ez egy hosszú időre cache-elhető rekord. Az egyetlen hátulütő, hogy a DNS timeout hosszú, így amelyik kliens elsődlegesnek a hibás ág címét kapta, csak percek után vált a következő lábra
- A hozzászóláshoz be kell jelentkezni
Ezt írtam az első mondatban.
De ez nem oldja meg, ha rossz címre mutatnak a rekordok, és nem tudod módosítani őket, mert a DNS provider API-ja éppen nem működik.
- A hozzászóláshoz be kell jelentkezni
Ez egyetlen dolgot tud megoldani, hogy ne legyen SPOF a DNS. Ennyi, többre nem vállalkozik a két NS rekord két szolgáltatótól. A tegnapi eset ellen nyilván nem védett volna, ahol amúgy nem is a DNS, sokkal inkább a proxying volt a gond, ami már másik rétegbeli kérdés.
- A hozzászóláshoz be kell jelentkezni
Ha ebből több régióban leteszel egyet-egyet (vagy kettőt-kettőt, hogy HA-ban működjenek), és ezeket állítod be NS servernek, akkor már nem SPOF.
- A hozzászóláshoz be kell jelentkezni
Ha valakit érdekel, íme a megoldás: https://www.youtube.com/watch?v=yOgMVw38xkA
Szívesen! :-)
- A hozzászóláshoz be kell jelentkezni
Azért milyen jól jelképezi az akkori idők internetjét, hogy a lila linksys rútert mindenki így felismeri azóta is.
- A hozzászóláshoz be kell jelentkezni
Jó kis design volt, bár szerelhetőség szempontjából nem jött be. Viszont ez a "stack"-elhetőség nagyon frankó volt.
- A hozzászóláshoz be kell jelentkezni
Köszi a tippet, ilyenem nekem is van, nagyon jó kis router, bár most épp elromlott. :)
- A hozzászóláshoz be kell jelentkezni
Most kezdenek visszaterni. London, Becs, Munchen mar megy(eget).
I don't run often, but when I do, I run as administrator.
- A hozzászóláshoz be kell jelentkezni
A hup mièrt volt lenn?
Ha tartós rendszert építesz és okos csapatot nevelsz, akkor száz kiadásban sem érheti baj; ha csak a gépekre hagyatkozol, akkor egyszer jól jársz, máskor rosszul; de ha sem a rendszer nem bírja a terhet, sem a csapat nem tanul a hibákból, akkor minden egyes kiadás kockázat.
- A hozzászóláshoz be kell jelentkezni
Kicsit az az érzésem hogy "worldwide" túl sokat pofáztak bele a managerek a mérnökök dolgába - nyilván a spórolás irányába - és ennek meglett a következménye.
- A hozzászóláshoz be kell jelentkezni
Nekem meg az, hogy egyes "mérnökök" kicsit az overengineering hibájába esnek és manapság a jobb kezükkel vakarják a bal fülüket.
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Hát nekem az jut eszembe, hogy az egyik helyemen évekig ment a BCP (több DC-vel) és minden évben többször ki volt próbálva (ahogy kell) és a cég mégis simán fejre állt, mert valaki elkefélte a BGP szabályokat és 3-4 DC együtt masírozott a halálba egy fél napra. A router volt a SPOF, azóta máshol van.
- A hozzászóláshoz be kell jelentkezni
Máshol van a router, a SPOF, vagy aki elkefélte a konfigot?
- A hozzászóláshoz be kell jelentkezni
Akkor igy utolag visszanezve mekkora otlet volt fenntartani sokszoros infrat, ami ugyanugy elhasalt eles valtaskor.
- A hozzászóláshoz be kell jelentkezni
Gondolok ez volt a manager summary is, mikor kőccségcsökkentés címén következő évben lebontatták a redundáns infrát :)
- A hozzászóláshoz be kell jelentkezni
Én az első munkahelyemen a szemétből (konkrétan a selejt raktárból) gubázva építettem majdnem-redundáns infrát. Kis Pentium 160 meg 200 gépek, mindegyikben 3 hálókártya, és egy floppy amiről bebootolt a Coyote Linux. Routolt és iptables alapon csomagszűrt. Volt hét ilyen gép, a főiskola 7 szegmensére, a gépek nevei a Hófehérke törpéi voltak. És volt a nyolcadik gép, név szerint Lámpás*, ami arra várt, hogy ha valamelyik törpe megnyekken, akkor beugrik a helyére, ő volt a redundancia a rendszerben, hideg tartalékként.
Sok évig jól működött, még azután is, hogy eljöttem onnan, szóval kiállta az idő próbáját. Az egyetlen nem triviális de időnként jelentkező hibája a rendszernek hálózati lassulás képében jelentkezett. De ilyenkor csak egy csepp olaj kellett az adott gép CPU ventillátorának a tengelyére, (vagy ha a gazdasági helyzet megengedte, venti csere cirka egy ezresért) és máris repesztett az internet.
Valahol vicces, hogy régen milyen egyszerű módon oldottuk meg, hogy a kollégisták pornót tölthessenek az internetről, míg most ugyanezt a célt mennyivel bonyolultabban és menyivel drágább eszközökkel érjük el. :-)
* Mert: "Nyolc törpe volt, de sötét és mély a bánya ..."
- A hozzászóláshoz be kell jelentkezni