DoclerWeb: van, hogy van jobb a felhőnél (x)

 ( hup | 2012. április 16., hétfő - 6:30 )

A nagy terhelésű, folyamatosan nagy látogatottságot generáló weboldalak üzemeltetői számára már megérheti saját infrastruktúrát építeni. Számukra ideális megoldást jelenthetnek a mikroszerverek.

A mikroszerverek tipikusan az I/O korlátos, kis processzorteljesítményt igénylő, jól párhuzamosítható feladatok alatt mutatják meg az oroszlánkörmeiket, ezek közé tartozik a webkiszolgálás is. A webhoszting-szolgáltatók nem ritkán több ezer vagy több tízezer gépet üzemeltetnek, számukra a legnagyobb kiadás a gépek bekerülési és üzemeltetési költsége, utóbbiban pedig jelentős tétel az energiafogyasztás.

A mikroszerverek ezen a téren jelentenek nagy előrelépést a hagyományos rackes vagy blade formátumú kiszolgálókhoz képest, amelyhez alacsony fogyasztású processzorok és nem ritkán alacsony fogyasztású memóriák jelentik a kulcsot. A gépek emellett fizikailag is kisebbek a rackbe építhető “pizzadoboz” vagy blade kivitelű társaiknál, ami alacsony árat és nagy teljesítménysűrűségű kiépítést tesz lehetővé - egy rackszekrénybe akár több száz szerver is beépíthető, amennyiben a megfelelő hűtési kapacitás rendelkezésre áll. Egy mikroszerverekkel “megtömött” rackszekrény fogyasztása megközelítheti a 10 kilowattot is, ezt azonban kevés adatközpontban tudják kezelni.

A világ 40 leglátogatottabb oldalainak egyikét üzemeltető és a hazai hosztingpiacon is egyre nagyobbá váló DoclerWeb kutatás-fejlesztési osztálya, a DoclerLabs olyan technológiákra koncentrál, amik egyszerre költséghatékony és kellően hibatűrő rendszert eredményeznek a lehető legjobb teljesítmény mellett. A vállalat tapasztalatai szerint a cloudok és a virtualizált rendszerek esetében relatív sok üzemzavart okoznak azok a rétegek, amik a virtualizációért felelősek.

Teljesítmény terén is kompromisszumokat követelnek meg a public cloudok és virtuális szerverek: az elvileg "hasonló" teljesítményű instance-ek és virtuális privát szerverek (VPS) jelentősen gyengébb sebességadatokat produkáltak a mikroszervereknél, elsősorban I/O terén. A VPS ugyanakkor remek eszköznek bizonyult tesztrendszerek vagy kisebb jelentőségű kiszolgálók üzemeltetésére, és a cloudban is van fantázia, amennyiben ideiglenes terhelést kell kiszolgálni vagy kis forgalmú webes tartalomszolgáltatásra van szükség.

A közel egy éves kutatás konklúziója, hogy ár/teljesítmény, megbízhatóság és üzemeltetési költségek terén a mikroszerver a jobb megoldás, amennyiben nagy teljesítményű webes kiszolgálás a cél. A költséghatékonyság elsősorban a rendkívül kedvező árú hardvernek, az extrém alacsony fogyasztású Xeon E3 processzoroknak és a load-balancing kedvező árának köszönhető. Ezeket az előnyöket a DoclerWeb kihasználja, használja, mégpedig úgy, hogy továbbadja ügyfeleinek: így érhető el szerverhoszting áráért egy fizikai szerver és szerverhoszting.

A vállalat az érdeklődők számára egy április 24-én este 6-kor kezdődő rendezvényen számol be szerverterem-építés terén szerzett tapasztalatairól. A Docler Akadémia előadója Angeli János, azaz Angelo, a szakma elismert szerverterem-tervezője és hálózati mérnöke. Angelo 1998 óta dolgozik internetszolgáltatóknál, részt vett 7 szerverterem tervezésében és építésében, műszaki vezetőként az Interware szervertermeinek építését és üzemeltetését is irányította, a cég ez idő alatt vált a hazai hosztingpiac vezetőjévé. A DoclerWeb hálózat és infrastruktúra osztályvezetőjeként szerverterem, valamint IP-gerinchálózat építése és üzemeletetése a feladata. Az eseményre ezen az oldalon lehet regisztrálni.

(A DoclerWeb Informatikai Kft. megbízásából készített anyag.)

Hozzászólás megjelenítési lehetőségek

A választott hozzászólás megjelenítési mód a „Beállítás” gombbal rögzíthető.

az elvileg "hasonló" teljesítményű instance-ek és virtuális privát szerverek (VPS) jelentősen gyengébb sebességadatokat produkáltak a mikroszervereknél, elsősorban I/O terén.

Errol jo lenne valami konkretat latni (mondjuk a meresek jegyzokonyvet), hogy egyaltalan az kideruljon, hogy mit mivel es hogyan hasonlitottak ossze...

Hajra, elnok ur! A Heti Valasz cenzuraja

csak a rend kedveert, nsfw

Pontosan, csak 18 év felett!!! és csak munka után!!!

tanaroknak pedig sulinet.hu helyett sulinet.com

---
Egy jól megállapított probléma félig megoldott probléma.
- Charles Kettering

lol
de nem birom kihamozni belole, miert?

[insert line here]
B.C. 3500 - DIY Vehicle / A.D. 30 - DIY Religion / A.D. 1991 - DIY OS

"sulinet.com" -on jobb felul a "panic" gomb kotelezo! :)

ezzel feltetelezed, hogy nem ismerjuk

[insert line here]
B.C. 3500 - DIY Vehicle / A.D. 30 - DIY Religion / A.D. 1991 - DIY OS

Sziasztok!

Csak a további OFFolások elkerülése végett:

Igen, a www.livejasmin.com a DoclerWeb egyik nagy ügyfelének a tulajdonában van, és Igen, a DoclerWeb üzemelteti ennek az Alexa top50-es site-nak a szervereit.

Remélem ezt a szálat ezennel le is tudjuk zárni. :)

Üdv:
Angeli János
DoclerWeb

top65, mester :)

http://www.alexa.com/siteinfo/livejasmin.com

--------------------------
The OOM killer is like a surgeon that amputates the limb of a man to save his life: losing a limb is not a nice thing, but sometimes there is nothing better to do.

"Understanding the Linux Kernel" on page frame reclaiming

Ez már a vég kezdete :-D

A doclerweb egyik nagy ügyfele nem véletlenül saját magának egy másik csápja?
--
unix -- több, mint kód. filozófia.
Life is feudal

"egyik nagy ügyfele"
Ki a másik nagy ügyfele? :)

esetleg vmi Docleren kivuli?

voltam mar ott, szep szammal lattam ott komoly hazai ugyfeleket.

Egyre tobb nagyobb meretu cucc van ott :)

Nagyobb _hazai_ ügyfeleink:

ACE Telecom, Novotron, Deninet, Netkontakt, IEC, Network.hu, Equilor...

Üdv:
Angelo

na mi tortent, elhoztad toluk a sajat szervereidet? :)

Tyrael

Nem. Sőt! Teljesen elégedett vagyok eddig. Csak így tovább.

Ahogy a hidegháború és a fegyverkezési verseny egyik következménye a holdraszállás, úgy az online pornó egyik következménye a szervertermek átalakulása, új hálózati megoldások létrejötte. -> Mindenben van valami jó... :)

Igen, a kéréssel teljesen egyetértek, készítünk egy publikálható összefoglalót a mérésekből, és megosztjuk veletek. (Reményeim szerint még ezen a héten. :)

Üdv:
Angelo

Na ez erdekelne, kar hogy nem tudok elmenni. Lesz valami letoltheto prezi, felvetel, ilyesmi?

Az elozo eloadasok itt fent vannak: http://www.doclerholding.com/hu/academy/30/
--
1 leszel vagy 0 élő vagy hulla!

Koszi :)

Vissza a témához!
Ez a micro server gondolom nem ilyen: http://bit.ly/J8aGGk
Ha nem akkor milyen? Microblade, vagy mifán terem, nem tudnál némi doksit (a gyártóét), vagy képet belinkelni?

----
올드보이
http://molnaristvan.eu/

Ha linket megnézed... Supermicro SYS-5037MC

Sziasztok!

Egész pontosan ezt használjuk:
http://www.supermicro.com/products/system/3U/5037/SYS-5037MC-H8TRF.cfm

Jelenleg folyamatban van az E5-2600-as verzió tesztelése is.

Üdv,

-logor-

Pluhár Károly
DoclerWeb Kft.

ez 8 node/3U, vagyis 2.66 node/U.

Mi itt 2node/U sűrűségű rendszert használunk, nincs teli a rack, 45 node van csak. Igen komoly feladat volt a 45 node bekábelezése, a 19'' rack nincs erre méretezve. Talán egy 21'' rackbe be lehet kábelezni 84 node-t is.

Az a gyanum, hogy nálatok sincs a 42U rackben 112 node, mind klímatechnikai mind pedig szervizelési okokból értelmesebb 'hagyni helyet' a rackben.

Az entry-level storage fajlagosan olcsóbb, mint egy telivér midrange, kisebb switch fajlagosan olcsóbb, mint egy 48 port feletti switch, a tartalomkiszolgálásnál a storage áteresztőképessége fontosabb, mint a cpu száma. Innen gondolom - ha valóban több racknyi infrastruktúrátok van- hogy mondjuk 24 node, 2 swtitch és egy entry-level storage (3-4 shelffel) tartozik egy rackbe.

A kábelezés mellett az áramellátás se piskóta ekkora sűrűségnél. A blade-ek esetén szerintem a tápegység hatásfoka is jobb, ami nagyméretű telepítésnél már számíthat.

A blade-ek esetén szerintem a tápegység hatásfoka is jobb

Az összes blade-rendszer prospektusában szerepel ez az állítás. Ahol mérés is van mellette, ott mindig a mai blade rendszert hasonlítják össze a 4-5 évvel ezelötti standalone szerverrel.

Történt a blade szerverek elterjedésének idejében egy tápegység-fejlődés, amikor is a tápegységek hatásfoka lényegesen javult. (80%-ról 95%-ra ?). Nagyjából ez idő tájt terjedt el a változtatható fordulatszámú ventillátor a szerverekben, a blade rendszerekben is.

Aztán ez az állítás az összes mai szerver prospektusában szerepel.

Az egyik storage-hez kaptam egy matricát, ami azt bizonygatja, hogy ez a storage az üzemeltetése alatt nem foszilis-áramot, hanem szélenergia-áramot fog fogyasztani. Ezek nagyon fontos dolgok.

Itt a 45 darab gép 9.5 kW -ot eszik teljes terhelésnél. Ez 90 darab Xeon E5520 cpu és 282 darab ddr3 modul, 179 ventillátor, 12 tápegység.

A számok teljesen korrektek. Egy mai 1/2U-os duál Xeon szerver kb 210-225W-ot fogyaszt, és jó minőségű tápegység van bennük. (0,9 - 0,95-ös cosfi + 90% körüli hatásfok)

Egy blade chassis-ban kb 6 vagy 8 tápegység van, és kb 16 szerver. Ez szerverenként akkor 0,5 tápegység, de jelentősen nagyobb tápok. Jó esetben a tápegységek vesztesége fele akkora lehet egy blade-ben mint 16db különálló szerverben, de sűrű felépítés miatti nagyobb ventilátorok ezt a nyereséget szerintem elfogyasztják.

Viszont a kérdés remek, megmérjük, semmi akadálya. :) Ezzel mi eddig nem nagyon foglalkoztunk, mert a blade megoldások más műszaki paraméterek miatt kiestek a versenyből a sima szerverekhez képest. :) Ezt lentebb már írtam.

Angelo

Oh, tehát HP balde-d van(6 táp, 16 szerver = HP c7000 chassis) :-)

Egy közepesen pakolt IBM X3550M3-as 180-190W-ot mér magáról nagyjából alapjáraton. Ebből 2 CPU, 5 diszk és 6x4GB memória van. Ez szerintem bőven lejebb hozható, ha csak egyszerű felhasználás kell. Ugyanakkor X56xx-es cpukkal és totál tökig rakva memóval és 15k-s diszkekkel simán duplázható is. :)

(Alapjárat: a gép körberöhögi azt a terhelést/forgalmat, amit egy sokéves 2 procis 2,8GHz-es Netburst Xeon és egy másik hasonló de csak 2,4GHz-es gép már elég nehezen viselt.)

A táp kérdést minden matrica nélkül gondoltam, a brossúrákat ritkán olvasom vagy veszem komolyan. Ez a szélenergiás különösen aranyos, lehet arra gondoltak hogy a gépben a ventik által keltett szelet lehet visszatáplálásra használni. :)

A kérdés jogos! Valóban nem triviális feladat.
Nálunk 19"-os 46 U-s rackek vannak, és 96 node-ot teszünk egy rackbe.
Ez ugye 12*3 Unit, ami mellé még kell 96 gigabites switch port,
amit két 48 portos menedzselhető switch szolgáltat.

Emellett minden géphez külön fixen bekötött IPMI port is jár,
ami újabb 96 portot jelent, egy VPNen elérhető VLANban.
Ez még négy 24 portos switch.

Így összesen 42 Unit van használatban.
A fennmaradó 4 Unit a switchek körül van elosztva a kábelezés rendezésére.
Valójában mind a klíma rendszer, mind a rackenkénti betáp elbírna többet is,
a 10 kW/rack hűtési teljesítmény ilyenkor jön jól. :)

A storage megoldásokat productionra nem preferáljuk, a gépek lokális diszkjeit használjuk alapvetően.
Akinek mégis kell storage, a blade-ek rendelkeznek iSCSI vezérlővel.
Mivel az iSCSI ethernet felett megy, a storage bárhol lehet, jellemzően egy másik rackben.

Angelo ígért képeket a kábelezésről, ezt ilyen sűrűség mellett is meg lehet oldani kulturáltan.

Üdv,

-logor-

És ami még érdekes lehet a 48db production port GigabitEthernet, a 48-portos switchnek 10G uplink-je van a core felé. Azaz egy rack-ben van 96 mikroszerver és 20G uplink a világba. :)

Angelo

"20G uplink a világba" Ebből mennyi a kulfold, s mennyi marad az elojazmin nelkul?

Ez egy 'marketing' adat, amire ráadásul olyan kérdést tettél fel, aminek szintén kevés a gyakorlati értelme. 100db normál hoszting szerver (nem warez, ftp...) nem feltétlenül közelíti meg az 1G belföldet, külföld irányba néhány 10M-t csúcsidőben. A fontos kérés az, hogy a szolgáltatónak van-e biztonságos plusz tartalék sávszéllel annyija, ami bőven elég az ügyfeleinek, illetve ha szükséges, tudja-e és milyen gyorsan bőviteni a kapacitásait, ha a gyakorlatban több kell. Doclernél szerintem az utóbbiak közül egyik sem gond. Ha megnézed az oldalukat, az össz külföldre 80G kapcsolattal hirdetik magukat..., valószínű tudnak annyit kiszorítani belőle, amennyi kell ezeknek a bérszervereknek.

Skuzzy már leírta a lényeget. :)

Minden hoszting linerate 1G-át kap. (Linerate: Nem korlátozunk semmit sem, de a technológia - ethernet + TCP/IP - miatt 80% forgalomnál már lehet packet loss. Azaz 1G port esetén ez 800Mbit/sec Full Duplex kapcsolatot jelent packet loss nélkül.) A 10G uplink azért fontos a Layer2 aggregation switchekből a core felé, mert manapság egy DOS attack simán lehet 2-3G is. Azaz egy gépet ért támadás nem üti ki az összes ügyfelet (48) aki ugyanazon a Layer2 switchen van.

Minden hosztingnak műszakilag garantáljuk a linerate 1G-át belföld és külföld felé is. Az már más kérdés, hogy azok a felhasználók akik _folyamatosan_ _jelentősen_ kilógnak az árazási modellből, azokkal 1-2 hónapon belül leülünk beszélgetni hogy mit szeretnének... Azok a felhasználók akik időnként elrángatják 1G-ig a szerverüket simán beleférnek az árazási modellbe. :)

Műszakilag tudjuk mérni és korlátozni is a hoszting nemzetközi és belföldi forgalmát is. Jelenleg viszont nincs egyetlen ügyfelünk sem akinél limitet kellett volna felrakni. Sőt nem is lesz senkin limit addig amíg az előbb említett megbeszélés le nem zajlott vele. :)

Üdv:
Angelo

:) Nekem van olyan projektem (nem előjázmin konkurens), ami a mérés szerint csúcsidőben 950-980Mbitet présel ki üzemszerűen (~98-99%-ban belföld) 1-1 switchportból és perpill 3 van. :) Az ilyenhez hogyan viszonyultok műszaki főleg szempontból? (Hogy mennyire van csomagvesztés a linkeken azt nem mértük, de szerintem elenyésző.)

A DoclerWebet ismerve szerintem, ebből nem lesz gond, max az áron lehet vitatkozni, de Logor vagy Angelo majd megmondják a tutit. :)

Korrekt valasz, koszonom!

amikor kezdődött ez a sűrűség-kergetés, akkor elöbb kijöttek a 2U, majd az 1U szerverek.
Utána már látszott, hogy a kábelezéstechnikai, felügyeleti probélmák durván nőnek a szerverszámtól, emiatt kezdett elterjedni a blade technológia, ahol is a kábelezést, felügyeletet adja a doboz. befér 8/14/16 node egy dobozba.

Csakhogy a blade túl nagy siker (buzzword) lett, a gyártók rendszerei páronként inkompatibilisek egymással, így történt, hogy a balade rendszer ára szinte mindíg több, mint egy vele szoftveresen ekvivalens standalone konfig ára (szerverek, switchek, felügyelet).

Van a vásárlóknak egy része, akiket nem lehetett beetetni a blade technológiával, akiknek megéri 50e forintot kifizetni a kábelezésre (mérnök) mintsem 1M forintot a blade árába. (ahol a mérnök rendkívül szűk erőforrás, ott megéri a blade).

Ilyen helyeken alkalmaznak a standalone server és a blade rendszer közötti átmenetet, ahol is a tápegység és a doboz közös, de más (felügyelet, switch, kábelezés) nem. Nálunk ezeket 'thin server' -nek nevezik, itt most microserver-nek.

Pontosan erről van szó!

Mi sem használunk klasszikus blade rendszereket, mert semmivel sem olcsóbb az 1/2U-os szervereknél. A kábelezést sem egyszerűsíti csak akkor ha belerakjuk a blade chassis-ba az ethernet switchet, így viszont túl sok hálózati eszközt kellene üzemeltetni. (És nem is olcsó megoldás :)

A nagy sűrűség elérésének a titka az egyedi méretű kábelek és egy igényes technikus kolléga.

A Mikroszerver márkanév ;) pedig egy belső fejlesztési projektből jött ami arról szól hogy kb 144 alaplap + CPU-t rakjunk egy rack szekrénybe. De ezen még dolgozunk egy kicsit. :)

Üdv:
Angelo

"A nagy sűrűség elérésének a titka az egyedi méretű kábelek és egy igényes technikus kolléga."

Koszonom, ezt szerettem volna mastol is hallani :)

Azért az 1-3-4-5-7-10 satöbbi feet hosszú kábelek elég jól le tudják fedni az átlagos igényeket :) Az persze vitathatatlan, hogy normális technikus (és megfelelő raktárkészlet...) kell a szép munkához.

Az egyedi hosszúságú kábel nem feltétlenül helyszínen gyártott. Mi konkrétan gyári 0,3 0,5 1 1,5 2 és 2,5m-es kábeleket használunk a rack szekrényekben különböző színekkel kombinálva. Tápkábelekből is egyedi gyártású gyári 65 és 85cm-es kivitelt.

És valóban nem kevés raktárkészletet kell fenntartani ahhoz, hogy minden színből és hosszból legyen kb. 100db raktáron. :)

Üdv:
Angelo

Hallod Yotzo? :) Mindjárt posztolok valami szép képed a munkádról... :)

Csak a rack tetejet ne mutassad :D

Viccen kivul, tenyleg kivancsi lennek ra...

Érdemes lenne, Yotzo szebben kábelez, mint bárki más a világon. :)

O! Nem csak az alkoholtol dagad a majam :D

Nekem mindig könnybe lábad a szemem, mikor látom a munkádat, annyira szép :)
(jössz egy sörrel a PR munkáért :P)

Ahogyan ígértem, íme egy fotó a MikroSzerver rack (46U, 600mm széles, 1200mm mély) kábelezéséről:

CablingWorks by Yotzo :)

A szürke kábelek a production GE, a kék kábelek a 100M-ás IPMI kábelek, a fekete pedig a tápkábelek (balra az "A" jobbra a "B" UPS tápelosztója).
A production switch egy CISCO 4948E back-to-front légáramlással 48x10/100/1000M + 4x1/10G SFP+, az IPMI switchek nem managelhető Planet 24x10/100M + 2x10/100/1000M.
A képen jól látszik hogy szinte felesleges is a kihagyott 1-1 Unit a switchek és a szerverek között. :) Azaz egy 42U-os rack be is be lehetne rakni a 96 szervert. :)

Üdv:
Angelo

Planet switch :)

IPMI/KVM switchnek valszin több mint kiváló. Ha minden porton egyszerre KVM-eznek is, akkor sem több mint 20Mbit a szumma forgalom, annyit meg remélhetőleg kibír. :)

Egyszer egy komoly helyen meglepődtem, hogy miért csak két "sima" switchet használnak. Aszondták azért mert "hát nekünk két vlan kell és így még a szeparáció is tuti".

Azért mosolyogtam, mert legutoljára pont ugyanilyen Planet switcheket láttam egy hazai szuperszámítógép nodejai között... ;)

a specifikációnak megfelelő legolcsóbb switch kell, minden más hiba.

- 3 év gari (niif esetén 5)
- wirespeed gigabit
- jumbo frame
- értelmes légáramlási megoldás
- 10G uplink

nem olyan hosszú a specifikációs lista nemde?

más kérdés a production-HPC, mondjuk a meteorológusoknál, hiszen az erősen ciki, hogy "nincs előrejelzés holnapra, javitják a switchet" Ennek megfelelően az omsz 2 darab egyforma HPC-t vett.

Nyilván az érintett gépnél sem az interconnect megy a Planet switchen keresztül (az Numalink5), csak érdekes volt látni, hogy egy sokmilliós beruházásnál ezen spóroltak pár tízezer forintot (majd gondosan leragasztották a Planet feliratot a switchen, hogy úgy hátha nem szúrja ki az ember elsőre... :)

Pedig ez nem ciki szerintem. Sőt, meg lehet mutatni, hogy nézzétek a pénz nem baromságra költöttük, hanem inkább erősebb CPU, több RAM stb. került a rendszerbe a ahelyett hogy Full layer 3+ managed BGP mittomilyen csodaswitchen mennek az IPMI-s vagy ahhoz hasonló dolgok. :)

Ehhez persze tudni kell, hogy általában sok remek EU-s projektnél X forintot (EUR árfolyamtól függően...) nyernek meg és be kell tuszkolni egy minnél jobb rendszert. Természetesen azzal az optimista feltételezzésel élek, hogy rendesen állnak hozzá a projekthez. Ez egyébként igaz lehet akkor is, ha egy normál céges projektben szűkre szabják a költségvetést vagy a tervezéskori árakhoz képest elszállnak a beszerzéskoriak.

Igen, Planet switch. :)

A kérdéses switchnek jelenleg alábbi a specifikációja, bármit használunk szívesen ami működik és ennek megfelel:
- back to front airflow vagy passzív légáramlás nélküli hűtés
- nem managelhető
- min. 2db GE uplink port
- 24 vagy 48 10/100 vagy 10/100/1000 port

Régebben 3com-ot használtunk, a rack-ek feléban az van, de megszüntették a gyártását. :)

Üdv:
Angelo

Elrettentésképpen ide most linkelhetnék egy hazai hostingban készült képet, amit az egyik olvasó juttatott el hozzám azután, miután a fórumban a hosting embere levetetett egy kommentet, mert azt állította, hogy az illető nem állított valóst, amikor az ottani helyzetről képet festett. Szép lenne a kontraszt :D

--
trey @ gépház

Lécci, mond, hogy nem a T-esó vagy alá tartozó viszonteladói... vagy datacenter vagy mi a neve...

----

Korrekt, igényes munka.

Koszi a kepet, igy kellene minden racknek kinezni mindenhol legalabb :) Hasonlo kep 1U-s gepekkel nincs veletlen? :)

De van az is... :) Küldjük a fotóst. :)

lecsapva :D

Kosz, ja es szoljatok ha van uresedes :D

Szerintem reálisabb, ha inkább ránézel rendszeresen a karrier oldalukra:-D

Nyilvan :)

A jó kábelezés specifikációja:
- nem akadályozza a légáramlást túlságosan
- lehetővé teszi az 1 node kiszerelését a többi zavarása nélkül
- visszakövethető 1 kábel, cserélhető 1 kábel a többi zavarása nélkül

meg kell mondjam, egy kicsit elfogott az irigység, én itt terelgetem a 63 node-os HPC-t és a 22 node-os cloudot, azt meg másutt mekkora rendszereket építgetnek, és nem is a no such agency, meg lawrence livermore, hanem a szomszéd.

nem gondolnám ;)

cloudot? milyen cloudot?

van definicioja a cloudnak?
nincs.
tehat uzemeltetunk egyet.
Egy Intel leiras rolunk szol, es nyomokban valosagot is tartalmaz.

az IaaS eleg jol definialt, szoval van.

de amugy erdekes, hogy ennek en semmi hiret nem lattam sehol, hogy lehetne mostantol VM-eket igenyelni szimpla API hivasokkal. igazan adhatnal egy urlt.

Több napja jelentkeztem, eddig semmi visszajelzést nem kaptam. Ez bug, vagy feature? :)

--
Java apps are nothing more than sophisticated XML-to-exception converters.

Sziasztok!

Ez feature:)
A mai napon mennek ki a visszajelzések,
rövidesen megkapjátok őket.

Kicsivel nagyobb lett az érdeklődés, mint amire számítottunk,
de egyenlőre mindenkit tudunk fogadni!

Üdv,

-logor-

Köszönöm a választ. :)

--
Java apps are nothing more than sophisticated XML-to-exception converters.

Igazán nincs mit!
Aki az előadás után szeretné a szervertermet is megnézni,
az mihamarabb válaszoljon, mert biztonsági okokból limitált számú embert tudunk bevinni.
Nem biztos, hogy mindenki sorra kerül aznap este.
Természetesen más időpontokban is lehet jönni,
csak egy egyeztetés kérdése.

Aki nagyon szeretne aznap este menni, az a válaszlevélbe írja be a hup.hu varázsszót:)

Üdv,

-logor-

Köszi, küldtem én is. Igaz, a varázsszóban a .hu helyett @ szerepel :)

szerintem érteni fogom úgy is;)

Az előadáson leadott slide-ot meglehetne kapni? :)

+1

Az előadásról készült videót már meg lehet tekinteni:

http://www.doclerholding.com/hu/academy/30/

Magát a prezentációt nem tudom hogy akarjuk-e publikálni (a hozzá tartozó magyarázat nélkül nem olyan érdekes), megkérdezem az illetékeseket. :)

Üdv:
Angelo