Fórumok
Sziasztok!
Van egy webszer, aminek csak statikus állományokat kell majd kiszolgálnia, ezt szeretném addig terhelni, ameddig csak lehet.
A webszerver jelenleg bekapcsol directory list opcióval fut, hogy ezt egyszerűen meg lehessen tenni. A wget -r remek, de önmagában egyszálú és nem is a terhelés a célja.
Van más lehetőség mint több wget példány futtatása? Van-e valami nagyon sokszálú weboldal "klónozó" alkalmazás? AB-t rá lehet ilyesmi tartalomra ereszteni?
Oli
Hozzászólások
AB-t mindenre rányomhatsz, de érdemes több netkapcsolatról, nem egyről.
LAN-on tesztelnénk először, hogy mi a legvége. Nem egy állomány listát szeretnénk, name, hogy a directory list alapján rekurzívan automatikusan töltsön le mindent amit talál.
A lényeg, hogy különféle "távoli" IP-ről stresszeld. Ezt egy lanon a legkönnyebb szimulálni bár ott jóval kisebb lesz a késleltetés, mint egyébként.
A wget, curl, axel, ab bármelyike megfelel, ha egy man vagy --help átfutásán felül nem akarsz többet rászánni az eszközre, inkább a kötőanyagával foglalkozol egy kicsit.
Egyébként: http://jmeter.apache.org/
mondjuk egy ilyet küldj rá: :)
while :; do ab -kc 100 -n 100 http://szerveredcime/; sleep 0; done
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
siege
t
+1 bár erőforrást zabbant rendesen :)
Meg nekem statikus tartalomnál hamarabb halt meg mint a szerver :D
httperf
Köszönöm a válaszokat, hamarosan megírom mikkel próbálkozok.
Ha tényleg sok helyről akarsz egyszerre, hogy ne a klienseket benchmarkold a szerver helett, akkor cloud-jellegű skálázás hasznos lehet. Pl. https://github.com/newsapps/beeswithmachineguns ami AWS micro instance-eket indít