( asch | 2020. 09. 29., k – 10:33 )

Igen, mi még azzal szívtunk. Borzalmas, hogy mennyire szar.

Szeretek azon elgondolkodni, hogy egy problémakör valójában mennyi adatról szólna, ha lehántanánk róla a "felesleges" rétegeket?

 

Van az egyetemnek kb 10000 hallgatója, és egy hallgató jelentkezik mondjuk átlagban 10 tárgyra (Hallgatónként 400bájt bőven elég tárolni). Van mondjuk 1000 tárgy, és mindegyikhez tartozik némi metaadat, hogy mikor vannak órák, hányan jelentkezhetnek maximum, stb. A hallgatóknak is van némi metaadata, hogy milyen képzésen van, ebből következik, hogy mit kötelező és mit tilos felvennie. Mondjuk hallgatónként 1kB

Számoljunk:

 * Hallgató metaadat: 10000*1kB = 10MB

 * Jelentkezések 10000*400B=4MB

 * Tárgy metaadat 1000*5kB=5MB

Összesen tehát kb 20 MB adatot kell kezelni. Egy mai vason ha egyetlen szálon tranzakciónként hajtanánk végre minden műveletet, akkor is az egész nap összes tranzakciója (kb 10000*10=100.000 tranzakció) lefutna néhány másodperc alatt ha tisztességesen meg lenne csinálva :-).

Ezt a problémát sikerült akkorára fújni ügyes szoftveres trükkökkel, hogy a világ összes vasa ne legyen elég alá - mivel nem is skálázódik :-)