Ha az esetek 1%-ban lenne rá szükség, már akkor megérte. Már pedig gyakrabban van rá, ha magyarul is írsz, akkor is szükséged lehet pl. normális nyomdai jelekre, rendes idézőjel (már az alakja és a pozíciója is más, nem ez a ""-jellegű írógépes szar, a nyomdait nevezik smart quotation marknak is), gondolatjel (n-dash, hosszabb, mint a kötőjel), hármaspont, stb., ha angolul írsz, akkor nagykötőjel (m-dash), angol vagy amerikai típusú nyomdai idézőjel, stb..
A kínai jelek megjelenítése meg nem csak azért fontos, valószínű, ha megjelennek, akkor sem tudják sokan elolvasni, csak krix-krax marad, de legalább nem üres négyzetek jelennek meg a helyükön, amiről az ember azt sem tudja mi akart lenni, meg nem szállnak el a fájlkezelők hibával, hogy valami kódolási probléma miatt nem tudták a fájlt megnyitni, meg a tömörített fájlt nem lehetett kibontani. Sokan azt hiszik, hogy ezek arra vannak, hogy a kínaiak dákóját szopkodjuk, pedig nem. Pl. a kínai karakterek akkor is jól jönnek, ha fájlnévben vannak, nem tudod mit jelent, csak kimásolod fájlnévből, könnyen feldolgozható lesz online gépi fordítóval. Megvallom én sem használok kínai jeleket, nem tudok kínaiul (jó, kemény 3 jel rámragadt érdekességből), de pl. angolul tanuláshoz sok fonetikai átiratot készítek (meg hobbiból magyar, német, spanyol fonetikai átiratot is néha napján), és ahhoz jól jönnek a Unicode-os IPA-jelek. Vagy pl. cirill betűknél sem az a néhány betű van, mert mások a kisbetűk, nagybetűk, nyomtatott és kézírásos betűk, elég más a betűformájuk.
A matematikai jeleknél sem árt, ha mindjárt be lehet őket szúrni egy plain text fájlba, úgy könnyen szerkeszthetők, nem kell mindenféle „bloat”, grafikus frontendet és markup kódértelmezőt igénybe venni. Példának tudom írni a (La)TeX-et, annál eredetileg \szekvenciákkal lehetett csak bevinni a matematikai jeleket (meg a magyar ékezeteket, cserébe elég volt rá a 7 bites ASCII), de mióta pl. a modern forkok alapból kezelik az UTF-8-at, sokkal gyorsabban lehet begépelni ezeket a jeleket, és már a forráskód is olvashatóbb lesz az emberi szemnek, könnyebben látszanak a gépelési hibák, míg a régi rendszerben, ha valahol nem stimmelt a képlet, nézegethetted és debugolhattad szemszáradásig, hogy melyik szekvenciánál hibás. Kereséskor is jól jön, könnyebben megtalálod a kódban az adott szó előfordulását, ha UTF-8-as kódolásban keresel rá az adott szóra, míg szekvenciáknál lehet szenvedni az átírással, csak megnöveli az elgépelés kockázatát.
A 32-bites megoldást azért írtam, mert már létezik, és ez is 4 milliárd karakterre ad lehetőséget (valójában csak a fele, mert ott vannak escape bitek is), ennyit az emberiség még jó ideig nem fog tudni kihasználni, akkor sem, ha történelmi nyelvek hieroglifáit, meg egyes szakmák jeleit felveszik (pl. mérnöki jelek, zenei jelölések), meg szegecsnek beteszünk még 500 millió szmájlit, még a fele felét sem tudjuk kihasználni akkor sem. Plusz a túl sok karakter támogatása betűtípusszinten is problémás, nem csak az elkészítési munka, de egyáltalán a fájlméret, memóriaigény miatt, úgy nem sok értelme van a sok karakternek, ha nem tudjuk megjeleníteni. Persze, ha annyira akarod, tőlem lehet 64 vagy 128 bites is a kódolás, de akkor hajbi minimum a kardjába dől befelé nagyon dúlván.