( Jason | 2016. 03. 10., cs – 21:52 )

Igen, a java okoszisztema ilyen :D

Az, hogy kurvasok memoriat eszik a progi, azt jelenti, hogy 1) esz nelkul nyaltok fel mindent, 2) koncepcionalis problemak vannak.

"a feldolgozas utan torlodnek a memoriabol"
NEM. a GC "majd egyszer" torli. A hangsuly a "majd"-on van. Ez nem C.

"En szemely szerint minimumnak tartom C/C++-ban a sikeres memoriafoglalas teszteleset, es nem lattom a Java mert lenne mas."
Mert a java az managed: ha nem sikerul foglalni, jon az OOMException. Letesztelte neked.

A managed nyelvek koncepciojaval vannak gondok, nagyon nativ/C++ fejjel gondolkozol, ez mashogy mukodik.

Meg ha mar ennyire sok a adat, raadasul sok kis filebol, akkor Hadoop+Spark.