Kb. erre kell számítani: https://www.reddit.com/r/LocalLLaMA/comments/1i69dhz/deepseek_r1_ollama…
A huggingface.co-n bartowski és unsloth modelljeit érdemes megnézni. A szükséges memória megbecsülhető a gguf fájlok méretéből. A kis változatok egyébként Rasberry Pi5-től felfelé szinte bármin elfutnak csak lassú lesz. Pl. 8B Q6_K 1.5t/s a Pi5-n. Alapfeladatokra már ez is jó persze angolul. Én a llama.cpp-t ajánlom (CPU-n Openblas-szal vagy Intel MKL-lel fordítva). https://github.com/ggerganov/llama.cpp