( arpi_esp | 2025. 09. 06., szo – 12:05 )

ebben teljesen igazad van, jelenleg(!) valoszinu igy mukodne. vagy meg igy se. de ahogy par eve meg 512 majd 2048 token volt a context size (gpt3-nal), most meg mar millio tokenes contextekkel mennek az LLM-ek, ez az idobeli korlat is eltunik eleg gyorsan. ha mar nem csak az utolso par masodpercre/kepkockara fog emlekezni hanem az elozo 3 orara is akkor tud koherens kimenetet produkalni. 

egy regi/kicsi llm 3 kerdes utan mar nem emlexik honnan indult a beszelgetes mert kozben az kifutott a context ablakbol, a maiaknak meg beadhatsz 1000 oldal pdf-et es kerdezhetsz a tartalmarol, latja egyszerre az egeszet, es azt is amit generalt sot el is tudja menteni, ugy remlik az uj chatgpt-ben mar emlexik a korabbi contextekre is.