Fórumok
Sziasztok!
Jött ma egy kérdés, miszerint egy 500terás adatbázist kéne üzemeltetni napi 10milliárd lekérdezéssel.
Elsőként az amazon jutott eszembe.
Ti hová szerveznétek ki ekkora adatbázist ilyen forgalommal?
Saját berendezésekben nem merek gondolkodni, de ha gondolkodnék, akkor kb nagyságrendileg mire lenne szükségem?
PZ
Hozzászólások
Biztos, hogy a kérdező pontosan tette fel a kérdését és valóban szüksége van ilyen környezetre?
http://www.focus.com/fyi/10-largest-databases-in-the-world/
Üdv,
Marci
+1. Vagy csak arra kíváncsi, hogy "hogy is működik" az ekkora adatkupac tárolása...
Arra én is kíváncsi vagyok.
faluhelyen a Manci nénik helyből tudnak ennyit a környék népségéről :)
(rejtett subscribe)
Látom, ismered a Bödőcs-féle alkalmazott informatika alapjait.
ez valami poénja volt? rühellem a stand up comedyt, csak véletlenül hibáztam rá. elég nagy szégyen.
Nem hiszem, hogy volt, csak lehetett volna.
sub (érdekes téma lesz, ha tényleg nem elírás az az 500TiB)
+1
+1
[ NeoCalc - Earnings Calculator for NeoBux ]
Elnézve az adatmennyiséged és a linkeden levő adatokat, lehet csak simán a Youtube-ot akarja lokálban tartani, tükrözve :D
Kérdezd meg őket, biztos adnak jó pénzért tanácsot, amúgy sem lesz ez egy olcsó projekt:
http://www.teradata.hu/
Leginkabb attol fugg, mik a kovetelmenyek (ill. a workload)...
Also becslest keszithetsz a kovetelmenyekbol becsulheto a muveletek szama, es abbol a minimalis (elmeleti) energiaszukseglet:
https://en.wikipedia.org/wiki/Margolus%E2%80%93Levitin_theorem
Majd ezt egy kelloen nagy konstans ertekkel megszorzod, mert a technika meg igen tavol van ettol a hatartol...
Esetleg varsz par evet, es ha szerencsed van kenyelmesen fut majd a telefonodon... :D
Esetleg varsz par evet, es ha szerencsed van kenyelmesen fut majd a telefonodon... :D
ez jo volt :-)
Palgium
+1
A kérdés elméletinek tünik.
a napi átlag 3-szorosa legalább a csúcs, akkor ez 347222 lekérdezés/sec.
Ez azért elég sok.
Mondjuk, ha az adatbázisban nincs update, akkor ez elég jól párhuzamosítható és a feladat megoldhatóvá válik, bár attól még elméleti. Mi az az adatbázis? A bind is adatbázis, lekérdezésre kihegyezve, de abból soha nem lesz 500T adat.
Mekkora az elemi adat? (egy lekérdezés adata).
A facebook -nak van 1500 TB adata, ez 3 szorosa az általad megadottnak. Ez az 500T egy 2 évvel ezelötti facebook.
Ha már facebook, nekik most van 483 millió user/nap, mennyit klikkelhet egy avg user? (nem addikt) 30-at? ez 15 milliárd page/nap, ami szintén egy nagyságrend azzal, amit mondtál. Mondjuk laponként 10 image, az 150G kép/nap.
Csak érzékeltetem a nagyságrendet, a 2 évvel ezelötti facebook méreteit adtad meg.
Lehet ezzel a feltétellel az amazonhoz menni, el is vállalják (én is elvállalom :-) és önnálló géptermet (géptermeket) építenek rá.
Ekkora db-hez már nem lenne hátrány úgy tervezni a szoftvert, hogy szét lehessen robbantani az adatokat csillió kis apró darabra.
De ez így annyira nyúlfarknyi infó, hogy ezzel így érdemben foglalkozni nem lehet.
----------------
Lvl86 Troll
A tranzakció volumenből és az óriási adatmennyiségből kiindulva Oracle Exadata full rack-ben gondolkodnék.
Itt van róla egy adatlap:
http://www.oracle.com/technetwork/server-storage/engineered-systems/exa…
Itt fontos tudni, hogy ha az adatbázis szerverek számítási kapacitása elég, tudod csak a tároló szervereket is bővíteni.
Használjuk ennek egy kisebb változatát (negyed rack), engem meggyőzött.
Hasonló mint a korábban említett Terradata, de azt közelebbről nem ismerem, nem használtam.
-
Nem gb-t akartál írni? ... Ha neked kell rakni valahová szerntem kérdezz rá hogy eddig hol volt.
Szerintem ez történt azért tűnt el a topic felvető :)
lehet, hogy petát akart írni, és AZÉRT tűnt el! kiszúrták a nemzetbiztonságiak.
Kíváncsi vagyok mi lehet ekkora adat...
Kezdő közösségi oldal :)
Kínában.
mobil szolgáltató db-je is simán lehet ennyi. de akár banké is.
remélem a bankok nem ide járnak tanácsért :-)
Tudok pénzintézetről, ahol az ajánlott infrastruktúra és a support árát inkább kispórolták a DB2 alól, ami addig nem is volt problémás, amíg a házilag összerakott elsődleges szerver meg nem döglött, és nem hiányzott a házilag összerakott TSM-ből egy rakás tranzakciós log a stdby élesítéséhez.
Külön vakmerőségre vallott, hogy a kollapszus után sem azt mondták, hogy nézd, ájbíem pajtás, eddig sajnáltuk tőled a pénzt, de ha most kihúzol valamilyen csodával a szarból, nagyon megháláljuk, hanem megkérdezték egy korábban már nekik fejlesztőt, aki mellesleg a kékkel is szerződésben állt korábban, hogy nem ért véletlenül ehhez jó pénzért.
Megfizetve meg ki ne tudna úszni...
"Megfizetve meg ki ne tudna úszni..."
Aki tudja, hogy belefulladna. Bár a szakmai halálozás nem feltétlenül jellemző manapság :(
A HUP első negyedéves trolljelentése A-tól F-ig.
Lehet p*rnót akar benne tárolni, BLOB-okban.
Akar otthonra egy ilyet:
http://www.archive.org/web/web.php
Azure
Csak Február 29.-n ne kelljen használni... lol
LOAD "http://digx.hu",8,1
Bárhová mész, meg fogják kérdezni, hogy az 500T-n felül még mennyi helyet ill. milyen rendelkezésreállási/mentési politikát szeretnél.
Technikailag a DB2, Squadronon, pár p-re széparticionálva erre volna kitalálva (kb. erre is használják), a Neumann Rendszerházban azt is megmondják, hogy mennyiért, ha már tudod, hogy pontosan mi kell - olcsó nem lesz (máshol se), de Kubatovnak van most forrása. :)
Most az egész pcforum ezen a poston röhög.
---
http://youtu.be/wzEahz7pa7k
Bizisten nem.
Az üzleti élet jelentős része éppen szól arról, hogy emberek azért vágnak bele valamibe, mert nincs vagy alig van fogalmuk arról, hogy milyen technikai és jogi macerával állnak szemben - szép részük persze el is vérzik, a többiből viszont hős lesz (jó sok sebhellyel).
Aki viszont helyből látja a fa méretét, az okkal dobja el a fejszét még az első csapás előtt.
Ez nagyon kevés információ, nincs leírva, hogy ez milyen jellegű adat... páldául lehet 50 ezer darab 10GBájtos videó; 500 milliárd pénzügyi tranzakció; esetleg egy komplex de integritását tekintve laza adathalmaz. Aztán az adatok használata: a tíz milliárd lekérdezés mennyi adatot kell visszaadjon, mennyi adatot kell megmozgasson, ésatöbbi. Aztán ez az 500T azonnal rendelkezésre áll, vagy most van az adatbázisban tíz tesztadat és majd ha a projekt lenyomta a Google+Facebook+MS triót a tartalomindexelés és a közösségi háló tekintetében, akkor lesz 500T és 10 milliárd lekérdezés... :)
És még lehet sorolni... szóval ez nagyon sovány leírás bármiféle becsléshez.
--
http://wiki.javaforum.hu/display/~auth.gabor/Home
Vannak kifejezetten nagyobb mennyiségű adathalmazokra szakosodott adatbázis kezelők. Amivel én találkoztam, az az infobright, de adattárházak és business intelligence témakörben fogsz találni még néhányat.
Kicsit többet az ExaData-ról:
- a full RACK két féle diszkkel rendelhető HC (high capacity) vagy HP (high performance)
- a HC diszkellek egy full RACK 336T adat tárolására képes (tömörítés nélkül)
- smart flash cache-el megtámogatva 1m IOPS-t tud 8k blockmérettel
Tehát több mint egy rack szekrény kell, vagy a tömörítést is használnod kell.
De én úgy érzem egy vagy két szekrény kiszolgálhatja az igényeid.
Üdv,
R.
"Ti hová szerveznétek ki ekkora adatbázist ilyen forgalommal?"
Szerverekre. Kockas fuzetbol sok kene hozza. :-)
Komolyra forditva: info, meg info, ez nagyon keves, erre nem lehet erdemben valaszolni.
--
subs.
------------------------------------------
"Nincs ez el**szva, csak másra lesz jó!"
Megint egy rosszul megfogalmazott probléma. Légyszíves kicsit több infot. Kik használnák az adatbázist? Az adatbázist közvetlenül érik el vagy valamilyen alkalmazás és/vagy webszerveren keresztül? Milyen típusú adatok vannak az adatbázisban? Milyen ezeknek a méret/típus szerinti eloszlása? Milyen jellegű az adatbázis(OLTP, adattárház stb.)? Rendelkezésre állás, SLA paraméterek? Földrajzilag honnan érnék el az adatbázist?
Amúgy vállalom az üzemeltetését jó pénzért(10-11 jegyű szám forintban a kiépítés). A havidíjat olcsón számolom(néhány 10-100 millió forint). Megegyezünk... :D
A kolléga azóta eltűnt, de az okfejtés érdeke, mivel nagyon kevesen vagyunk admin kapcsolatban ilyen nagy adatmennyiséggel (feltételezem, hogy nem csak adatbázisban van az adat mert akkor Magyarországon "nincs" kolléga :)
Feltételezhetjük azt hogy az adatok folyamatosan növekednek kb évi 10%-al, túlnyomó része fájlalapon tárolt raw adat, pl videó állományok.
Ezek tárolására vagy nagyon nagy mennyiségben az idők végezetéig kell venni valamelyik gyártó lemezes tároló rendszereit, ami irdatlan költség a másik lehetőség valamilyen szalagos hsm-re épülő rendszer amit a jelenlegi felhasználást alapul véve lehet kalkulálni.
Feltételezhetjük, hogy kisebb része adatbázis, mondjuk 1-5Tb, ha ez már létezik és használatban is van, továbbra is azt kell tenni, amennyiben lehetséges. Feltehetően nem lehetséges az adatbázis kezelő váltása és hasonló.
Az biztos, hogy ha ilyen nagyságrendben hosszú távon kiszervezed valahova (3-6 év) akkor biztosan többszörösét kell kifizetned, ez nem az a kategória mint egy webhost 200Mb ami ha van ha nincs plusz költséggel nem jár a cég számára. 500Tb vagy 500Gb esetén is alapos kalkulációk, egyeztetések kellenek és persze rengeteg zsák jól megtömött pénz.
subs
Illetve fejben számolva... ekkora tárhoz, csak 2500db wincsi kell míííínium, az majd 40 milla jóárasítva! plusz a hw, az még 20. Aztán kb 2-3 hónap munka mire felrakhatod rá az első dump-ot :) jahh és ne felejtsük el kicsit túltervezni is, a bővülés miatt, mert azzal is számolni kell.
Mennyi is lesz a fogyasztása egy ekkora eszköznek? Nem semmi! Érdekes a feladat, de tényleg hiányos kicsit a bejövő paraméter lista. Szívesen a közelébe kerülnék egy ilyen projektnek!
Korábban szó volt róla, hogy két rackszekrény bőven elég hozzá :-) Ha azt nézem, hogy az első nettó 1T-s storage, amit nagyobbacska terhelésre (adattárház alá) kialakítva láttam, az 4.5 meg 9GB-os diszkekből állt össze... (ha jól emlékszem IBM 7133-020 fiókok, darabonként 16 diszk, tripla táp...)
A 2500 db disk az hogy jött ki? :)
----------------
Lvl86 Troll
fejben :D)
Bele gondoltam, hogy raidben én mennyit tennék bele az adatbiztonság és a főleg a sebesség kedvéért.
Nos nem hiszem, h elírta, mert 500G-t 2-3 PC-vel meg lehet csinálni elég nagy biztonsággal és sebességgel. Ahhoz csak 30-35 winyót igénylenék.
Szóval az nem ekkora kunszt. Ez a mennyiség érdekesebb! :)
2500*1Tb az csak 5x nagyobb mint a db. Sztem nem biztos, hogy elszámolta magát még akkor sem, ha 2Tb-os vinyókat veszek figyelembe. Ekkora adatbázist biztonsággal üzemeltetni és bacupról gondoskodni nem kis feladat.
Bár sztem a témaindító elírta azt a méretet.
Engem is érdekelne a Megaupload backupja. ;)
Azert az a 500TiB nem olyan rettenetesen nagy mennyiseg - 12U-ban, 3db Thumper szeru szerkezetben (48hdd/szerkezet, 4TiB hdd) elfer.
A 10 milliard lekerdezes pedig a lekerdezesek szelektivitasa nelkul nem igazan mond semmit.
Itt erdemes megjegyezni, hogy lekerdezesekre vonatkozik a kerdes, nem pedig tranzakciokra. Ha a lekerdezeseket tranzakciokezelve kell intezni (nem read-only), akkor a kulonbozo snapshotok/verziok tarolasa, kovetese plusz eroforrasokat igenyel.
A szelektivitast a legkisebbtol a legnagyobbig vegig lehet zongorazni:
1) A 10 milliard query megvalaszolasahoz adatbazis ugyanazon 1 bitjet kell olvasni.
[..]
n) A 10 milliard query megvalaszolasahoz adatbazis 0.1%-at kell olvasni.
n+1) A 10 milliard query megvalaszolasahoz adatbazis 1%-at kell olvasni.
n+1) n) A 10 milliard query megvalaszolasahoz adatbazis 10%-at kell olvasni.
[..]
m) A 10 milliard query megvalaszolasahoz adatbazist teljesen vegig kell olvasni (100%).
A lekerdezeseknel alabbi parameterek fognak limitalni:
a) IO muveletek szama/idotartama
b) IO muveletek savszelessege
c) Memoria muveletek szama/idotartama
d) Memoria muveletek savszelessege
e) CPU szamitasi kapacitas
Es egy kis szamolgatas:
1) Ez az eset - lasd korabbi hozzaszolasom - futtathato lenne akar telefonon is - ha van valami mod arra, hogy a ~116k req/sec fogadasa/parsolasa/megvalaszolasa megoldhato a rendelkezesre allo eroforrasokbol (pl.: kotegelve, usb-n :D)
m) Ez az eset 6.362915 * 10^19 byte/sec (~56 EiB/sec) aggregalt savszelesseget igenyel. Ez mintegy ~5.7 milliard db ddr3 1333MHz memoria (10666MB/sec elmeleti max) jelentene vagy ~225 millio db gddr5 -at (264GB/sec).
Mas technologiaval pl.: xdr2 (8Gb/s/pin) ~56 millio pin, vagyis ~114k 512pin-es memoriamodul kellene.
Az uj nintendo wii ultimate konzolt mar ilyen xdr2 memoriaval (512MB) szallitjak, gddr5 mellett.
Az m) eset ~225 millio darab gpu-val megoldhato lenne (~270W/db), ha csak elmeleti savszelesseget szamolgatunk ... csak meg kell varni mig felepul az ellatasahoz az a 44db uj paks kapacitasu eromu...
Vegeredmenyben az m) is kivitelezheto lenne valamilyen fpga (ill. asic a kisebb energiaigenye miatt) + xdr2 megoldassal, ha csak az igenyelt savszelesseget nezzuk.
Mar csak a maradek korlatoknak (pl.: szamitasi kapacitas) kell utanaszamolgatni. fyi: a netazza, kickfire barkacsoltak mar fpga-ban query processort...
Bakker, olyan jol el tudunk beszelgetni a semmirol... ebbol a kerdesbol tobbet megtudtam, mintha a fel internetet atolvastam volna. Ezt most nem direktben neked cimeztem, csak te voltal a legalso... :-)
--
Mennyivel jobb lenne, ha uj adonemeket talalnank ki? Minden napra egy ujat...
Próbáld meg! Azt hiszed olyan könnyű olyan adónemet kitalálni, ami biztosan nincs ma sem?
Memoriaban tarolva ~24 rack szekreny, 1U masinakkal, darabonkent 512GB memoriaval. Ez kb ~5sec alatt vegigolvassa a teljes adatbazist.
Ha a valaszido nem lenyeges, a bejovo lekerdezeseket ~5 masodperces ablakokba gyujtve, majd ezeket egyszerre kiertekelve (felteve hogy van eleg szamitasi kapacitas) is megoldhato a feladat...
Az m) eset szerencsére nem valószínű, valamiféle index csak alkotható...
60 diszket lehet most tenni egy DCS3700 -ba, 4U-ba. ez 60x3 = 180T pl.
Ha ezt SQL-el akarod kezelni, akkor térdre imához. Egyébként a Facebook ennél két nagyságrenddel nagyobb Hadoop clustert üzemeltet. Körülbelül ezer dual Xeonos gép szerény 8-16GB-vel simán lekezel egy félpetás Hadoop clustert. A Cassandra is erősen elosztott adatbázisnak van kitalálva. Vagy ElasticSearch http://stackoverflow.com/questions/6359382/practical-limits-of-elastics…
A SuperMicronak vannak kellemes Twin szerverei amivel 2U-ba 4 ilyen szerver építhető. Tehát ha nagyon sűrűn telepítesz akkor akár 12 rackbe is beleférhetsz csak győzzd hűteni. Ilyenkor vesz az ember egy teherautónyi Xeon L processzort...
Ha egy teherautóra 200 000 db Xeon L fér fel és feltételezzük, hogy egy Xeon processzor másodpercenként 1.000.000 műveletet képes elvégezni akkor... :D
... akkor mekkora load elvitelére képes egy teherautó, és hogyan változik a futási idő autópályán?
load "xeon-l",8
Ezt már olyan kevesen értik... meg akkor ,8,1 :D
én értettem, akkor öreg vagyok ?
------------------------------------------
"Nincs ez el**szva, csak másra lesz jó!"
Az igazán öregek a 8-at is csak hallomásból, mert amikor ők voltak fiatalok, ilyen nyolcas csoda még nem létezett, csak a fütyülős.
:DD
Vagy a 64'er-ből checksummás hexából beverni (az 5 oldalas) kódot. (Ami aztán nem működött.)
Nagyanyammal diktaltattam. :) Es tenyleg nem mukodott. :)
lopikulat! Nekem mindig ketszer kellett, mivel elobb a fast loadert toltottem be!
Aztan lett csak cartridge belole;) meg kesobb egy fc3, igy a fast loader cartridge kimaradt a sorbol:(
:-D
....még működőképes hardverem is van hozzá... :)
"640kb mindenre elég"
az jóval később volt.
...38911 basic bytes free...
Azert a profik joval tobb szabad helyrol tudtak, mint a gep :-)
--
Voltak elvakultak, akik 64k-s bank lapozást hegesztettek bele.
Ez übereli a Tannenbaum-féle klasszikust. ;-)
Azért a Teradata elbodogul elég szépen ennyi adattal. :)
Marketing guy.
Tesztelted már? :)
Mondjuk úgy, hogy látom nap mint nap.
+ Ha jól tudom az Amazon is használja a cloud alatt...
Érdekes egy topic így sok-sok hozzászólás után.
> Kéne sok adatot tárolnom. (semmi infó)
> 20 millió szolgáltató beírja, hogy náluk BIZTOSAN NAGYON JÓL tárolható az adat (magyar cégek, magyar képviseletek).
Meh.
Fizetett hirdetésünket látták?
Gigantikus Adatbázis-kezelő(TM)-be?
Fujj, de gonosz vagyok.
...és az hogy fér be majd a liftbe?!
Kotel+daru aztan beemelik valahogy.
--
vagy: eleve hőlégballonnal reptetik a gyárból.
Lassan már mindenki hozzászól, de a topiknyitó eltűnt mint szürke szamár a ködben. :-)
Talán elnyelte az adatbázis? Vagy összeroskadt alatta. Netalán beszippantotta őt? :) Bocs, ez gonosz volt. Engem is érdekelnének már a topiknyitó válaszai.a megfogalmazott kérdésekre.
A topicnyito egy transzporter-kiserlethez keresett adatbaziskezelot. Valoszinuleg talalt egy megoldast, ami elegtelennek bizonyult stabilitasban, igy most o egy (jo esellyel serult) adatbazis. A jelszot nem adta meg... :-) #gonosz
--
Egyszerűen kapott annyi ötletet, amelyből meg tudta építeni az infrastruktúrát, és most írja az insert parancsokat nótpeddel.
Esetleg a hup-ot olvasva felmondtak neki, ő átnyálazta az idevonatkozó munkajogos hup-topicot...és /dev/null-ba küldte az egész kócerájt. :)
Szerintem nem fér a billentyűzethez a sok merevlemeztől amit berendelt az irodába :D
De a témafelvetés érdekes lehetne ha tudnák róla valamit ...
ja, az a 200 diszk mennyi helyet elvisz! (nem) :)
lehet, hogy véletlenül ilyet vett.
azok ott zománcozott lapostányérok?
igen, abból esszük a bitpörköltet. köretként lehet kérni xfs-t, ntfs-t, ext3-at. fat16-ot nem ajánlok, mert azzal nem tudom beteríteni az egész tányért.
Ebből annyi kellene hogy akkora halom lenne mint a Kheopsz-piramis. :-)
ennyi diszkbol aligha lesz 300kIOps
nyilvan nem lesz :) de itthon siman berendelik igy ;D
Lehet, hogy odafért topicnyitó kartács a kupactól az asztalához, csak az első üzemóra végén másod- és harmadfokú égési sérülésekkel kórházba került.
Hétfőn meg jön az ELMÜ és bedobós villanyórát rak fel a tartozások miatt.
Hat, mondjuk egy asztalt elfoglal :-) Akkor mar nem tudsz melleulni es HUP-ozni...
--
persze, hogy eltunt.
szvsz ezt a valaszt akarta kipreselni belolunk :
http://storagekereso.hu/
de mi kreativ nep vagyunk, es egesz eddig nem doltunk be a marketingtrukknek :D)
Es most is csak te doltel be neki :-) #gonosz
--
Olyan napom még nem volt mint Ray-nek, de olyan volt mint a kollegáinak... és az nem jó!
unsubscribe :(
Szegény bervi, elszakadt a cérnája. :-)
Hát mertem remélni, hogy valami érdekes lesz ebből a témából, ehelyett leírták 50x, hogy jajajajtöbbinfókell!!, meg jött mellé jó sok random bullshit. Nem igazán köt le.
Jogos. Mostanra kifulladt a dolog.
Eléggé elrugaszkodott kérdés ez szerintem, kár volt ennyire ráindulni. Ha 500GB vagy 5TB lett volna a kérdés, akkor aszondom oké az simán előfordulhat viszonylag sűrűn. A dolog eleve ott lesz érdekes, hogy ugyan tárolni tökegyszerű sok száz TB-ot is manapság, de hogy abból értelmes idő alatt adatbázis jelleggel visszanyerjél bármit na az a nem mindegy.
Szintén.
Igen, kár, h eltűnt a post indító. De szerintem ezért cserébe bosszúból csináljuk meg, de ne áruljuk el neki! :)
Helyette simán csak áruljuk neki :)
#nagyongonosz
--
sub :)
akit érdekel a téma, akkor az most anyázás nélkül lépjen át ebbe a topicba, mert hasonló a felvetés!
http://hup.hu/node/112605
Aki men nem tudja visszafogni magát, az ide!
http://hup.hu/node/112425
Pubi! tudod milyen az örökmozgó? akkor kattints ide!
http://hup.hu/node/112425#comment-1433437
ez utóbbi linkkel a szőke barátnőm hetekig ellesz. kösz!