( asch | 2022. 09. 29., cs – 11:55 )

Zsengébb koromban tervezgettem egy saját nyelvet csinálni és abban 32 bites lett volna a string ábrázolása. Mert az UTF vacakolások egyszerűen túl bonyolultak amiatt, hogy nem fix a karakterek hossza. Javában is a 16 bites ábrázolás miatt lehetséges olyan karakter ami nem egy char, és emiatt egy rakás kivétel kerülne a minőségi kódokba, amit kezelni kell. Amit persze nem csinálnak meg a programozók - a többség nem is tudja, hogy kellene - és emiatt szerintem lehetnek még aknák a rendszerben. Biztos nem vagyok benne, mert 100%ig én sem értem hogy pontosan mit hogyan kellene csinálni :-)

Nincs is jobb mint mikor kapsz egy random kódolási exceptiönt valami lib mélyéről, azán keresgetheted, hogy valaki úgy vágott félbe egy stringet, hogy a karakter két 16 bites része külön stringbe került.

Szóval nem szeretem azokat a rendszerket amikben lehetséges aknák vannak, és a változó hosszúságú kódolás pont ilyen. Ezért kellene 32 biten tárolni egy karaktert.