pedig lehetne a transformer NN model epitokoveire csinalni dedikalt hw utasitasokat, es az meg gyorsabb is lenne mint egy GPU. apple mar el is kezdte a neural engine-nel es a tobbi chipgyarto is kiserletezik mar hasonloval. a zhogy a GPU gyorsabban szamolja most mint egy CPU nem nagy cucc, de a GPU-nal is lehetne hatekonyabban egy direkt erre optimalizalt procival.
amugy a generativ modellekkel az a baj hogy iszonyu nagyok, a legegyszerubb kepgeneralok is sok giganyi parameterrel operalnak, az LLM-ek meg 100GB-okban merhetok. inkabb a sok (es gyors) memoriat kene megoldani valahogy a GPU-hoz. vagy az Intel pont ebben tudna nagyot durrantani (ha akarna), hogy a CPUja az osszes ddr5 ramot tudna hasznalni tensor muveletekhez is.