Pingdom open alternatíva

Sziasztok!

Pingdom (https://www.pingdom.com/) alternatívát keresek. A neten kis milliót találtam de jó lenne ha nem kéne mindet végigtesztelni. A cél csak annyi, hogy működik vagy nem egy szoláltatás, abból is elég a http, https, smtp, ping és email riasztás. Nincs szükség ágyúra (nagios, zabbix, stb.), legyen egyszerű. Ez elég szimpatikus, de úgy látom egy ideje nem fejlesztik http://www.phpservermonitor.org

Ha valakinek van tapasztalta ilyesmi programmal, megköszönöm ha megosztja.

Hozzászólások

Veszel 5 VPS-t szerte a világon és megírod a teszteket.

Hacsak nem kell valami end-to-end app teszt, akkor percek alatt megvan és kijön fillérekből. :)

Én vegignyomkodtam párat, mert nem volt kedvem az egész szolgáltatásnál két nagyságrenddel bonyibb megoldást építeni. Freshpingnél maradtam, slackra/mailre jön a noti. Fapad, de kb megy, ritka a fals pozitív. Egy baja van, cert validitast nem néz (a fizetős azóta már tud).

A cula.io volt még szimpi, de az megbízhatatlan, sok fals riasztás van.

Köszi, on-premises megoldást nem néztél?

A tömegek sohasem szomjúhozták az igazságot. A nekik nem tetsző bizonyságok elől elfordulnak és inkább a tévedést istenítik, ha ez őket elkápráztatja. Aki illúzióba ringatja őket, úr lesz fölöttük, de áldozatuk az, aki megpróbálja őket kiábrándítani.

Nem igazán, pont azért keresgéltem, mert nem volt kedvem összerakni egy on-prem rendszert. Monjduk leginkább amiatt, hogy hely kellett volna neki, egyébként én biztos a nagios / zabbix / netdata / Grafana+prometheus+node_exporter / TICK stack vonal valamelyikén indulnék el, ha össze kéne rakni valamit, maga az alap beüzemelés nem nagyon fáj egy ilyennél szerintem, csak ha egy vm monitorozásához kell egy másik, akkor már meg van cseszve az egész.

(és amennyire a grafana a trendi mostanában, szertintem koncepcionálisan úgy szar, ahogy van. A node exporterért ütni kellene őket sokáig)

És azt még azért tegyük hozzá, hogy igazán jó monitoring összerakása viszont azért munkás tud lenni.

(és amennyire a grafana a trendi mostanában, szertintem koncepcionálisan úgy szar, ahogy van. A node exporterért ütni kellene őket sokáig)

Az másik banda. A Grafana az egyik, a Prometheus & Co. egy másik. Jó haverok, kétségtelen, de az egyikért ne a másik elkövetőit hibáztasd.

Amúgy kifejtheted, hogy mi a koncepcionálisan szar az egészben.

Elnézést, teljesen igazad van, a grafanával magával valóban nincs bajom. És disclaimer, maga a cucc ettől még lehet funkcionalitásban jó, de a kollektorokonként külön HTTP server, ami külön porton figyel, az infrastrukturálisan elég fájdalmas. (Tudom, tudom, mikorszerviz architektúra, de szerintem ide nem kellene). Ráadásul messze nem egyszerű kiterjeszteni. Emlékeim szerint anno a hogyan kell adatot küldeni is elég esetleges volt, tán még prometheus oldali illesztést is kellett (volna) csinálni, de gyorsan ránézve most is azzal kezdődik a doksi, hogy hát oldjad meg, hogy callbackes legyen a gyűjtögetőd. Nagyságrendileg jobb volna, ha ezzel nem kellene mindenféle kollektornál külön szopni.

Tényleg, ezt nem is láttam. A weboldalon 3.2 az utolsó és sourceforege-ra mutat, biztos elfelejtették átírni :)

A tömegek sohasem szomjúhozták az igazságot. A nekik nem tetsző bizonyságok elől elfordulnak és inkább a tévedést istenítik, ha ez őket elkápráztatja. Aki illúzióba ringatja őket, úr lesz fölöttük, de áldozatuk az, aki megpróbálja őket kiábrándítani.

saját weben lógó végpontok számára:

https://uptimerobot.com/

hogy mit takar neked az "open" azt nem tudom; mindenesetre van nyílt api-ja azt írsz hozzá amit csak szeretnél, a detektálást meg leveszi a válladról :)

Nem is tudtam, hogy ennyi féle szolgáltató van a neten. Lehet, hogy nem volt egyértelmű amit írtam, a lényeg az on-promises és, hogy free, meg opensource legyen. A felhős szolgáltatók nem játszanak. 

A tömegek sohasem szomjúhozták az igazságot. A nekik nem tetsző bizonyságok elől elfordulnak és inkább a tévedést istenítik, ha ez őket elkápráztatja. Aki illúzióba ringatja őket, úr lesz fölöttük, de áldozatuk az, aki megpróbálja őket kiábrándítani.

Erre nem elég egy bash script cronból meghívva?

Régen így ellenőriztem a honlapokat. Évekig tökéletesen működött. Nagyon egyszerű és pont azt tudja amire kellett.

#!/bin/bash
while read LINE; do
    sleep 5
    status_code=$(curl --connect-timeout 8 -o /dev/null --silent -L --write-out '%{http_code}' "$LINE")
    if [ $status_code -ne "200" ]
    then
        echo "$status_code $LINE" | mail -s"Nem működő oldal" info@example.com
        echo "$status_code $LINE"
    fi
done < /.../...urls.txt

Ha nem elég, mert naplózni kell,... biztosan nem vacakolnék "hobbiprojektekkel", hanem feltennék pl egy Zabbixot. Egyáltalán nem bonyolult az alap telepítése, használata, viszont ezer más dolgot is tud monitorozni.

Nem kell percenként meghívni ;) Ha meg áll a szolgáltatás akkor belefér mondjuk 5-10 percenként egy levél.

Ez egy nagyon egyszer, stabil megoldás, percek alatt "telepíthető" bárhova.

Ha komolyabb monitorozás kell, akkor arra vannak profi megoldások, pl a Zabbix. Egyszerű telepíteni, stabil, nincs extra hardver igénye és nagyon sok mindent tud. Nem hinném, hogy egy köztes hobbiprojekt kevesebb melóval járna üzemeltetni, viszont garantáltan kevesebbet tud.

Egyébként igazad van ;)

Hát, én leallásnál 5 percenként se szeretnék levelet kapni, de ez nyilván ízlés kérdése. Igazából arra akartam utalni, hogy ahhoz, hogy egy ilyen megoldás elmenjen az egyszerű, de már valammennyire monitorozásnak látszó irányba, hirtelen kéne még sok mindent kéne hozzá gyártani, szóval nincs értelme ilyen hobbiprojekteknek, amik ennél hosszabbak, pont ahogy írtad :)

És őszintén szólva még ez is olyan, hogy ha már nem akarok egy komplett hóbelevancot futtatni, akkor futtatnám inkább cronból a megfelelő nagios plugint, itt pl a check_http-t, mert kb egy csomag install akárhova, és gyanús, hogy obskúrus edge casekben jobban működik, mit a curl. Persze nem lehetetlen, hogy az ott pont jó, és mindenféle hibára be fog jelezni, de ehhez alaposabban meg kell nézni a curlt, vagy az akármit is, a nagios pluginekről meg jó szívvel lehet feltételezni, hogy azt csinálják, amire valók.

on-promises + open source = O2SP

:)

A tömegek sohasem szomjúhozták az igazságot. A nekik nem tetsző bizonyságok elől elfordulnak és inkább a tévedést istenítik, ha ez őket elkápráztatja. Aki illúzióba ringatja őket, úr lesz fölöttük, de áldozatuk az, aki megpróbálja őket kiábrándítani.

Ha csak URL hívás, akkor cron+curl. Ha komolyabb tranzakció, akkor selenium alapú.