Sziasztok!
Tapasztalatokra lennék kíváncsi, főleg azokéra akik statisztikával foglalkoznak.
Mennyire tekinthetők pontosnak az AI modellek statisztikai számításoknál. Főként arról van szó, hogy megkap egy pl. Excel táblázatot adatokkal és abból neki statisztikai számításokat kell elvégeznie. Fel kell ismernie a csoportosításokat, összefüggést kell találnia egyes csoportok között, prevalencia kalkuláció, stb. Ebben jól számol (sajnos fogalmi kérdésben vannak problémák...a butaságot is olyan meggyőződéssel előadja, hogy félelmetes :))
Vagy ha nem openAI (chatGPT) akkor melyik modell a legalkalmasabb erre a feladatra?
Köszönöm előre is!
- 131 megtekintés
Hozzászólások
Erre szerintem nem lesz egzakt válasz, csinálj néhány próbát, és kérd meg, hogy az elemzéshez használt kódot is adja oda.
Vagy előre definiált feladatok vannak? Mert akkor te add neki a te kódodat :)
- A hozzászóláshoz be kell jelentkezni
Adatelemzéshez nem használnék publikus LLM modellt, nem erre vannak kitenyésztve.
Pythonban, R-ben rengetek adatelemzéshez hasznos modellt találsz, nézz utána, hogy a Te adataidhoz hasonlóakra milyen modellt ajánlanak.
Az mindeképp szükséges, hogy értelmezni tudd az adataidat olyan szinten, hogy miket tartalmaz, milyen formában, milyen összefüggésekre vagy kiváncsi, mert különben nagyon félremehet az elemzés és észre sem veszed, hogy butaság az eredmény.
Szüksége lehet az adatok normalizálására, közös alapra hozására ahhoz, hogy a valódi összefüggések érdemben megjelenjenek.
Itt találsz pár alapfogalmat, ha még nem foglalkoztál ilyennel mélyebben: https://realpython.com/python-for-data-analysis/
De ez is alaposnak tűnik, ennyit időt megér, hogy utána hónapokat spórolhass: https://www.youtube.com/watch?v=wUSDVGivd-8
Persze , hogy végül milyen modellt használsz, az a feladattól függ, de jó, ha mérni tudod a jóságát és ha újra tanítani nem is érdemes (idő és erőforrás), az utolsó pár réteget érdemes finomhangolni.
- A hozzászóláshoz be kell jelentkezni