( djpety | 2023. 03. 26., v – 14:34 )

Pontosítsunk: ahelyett, hogy bevallaná, hogy nem érti, mit akarsz, ahelyett, hogy pontosításra kérne meg, inkább nekiáll bullshittelni. Ergo: megbízhatatlan. Nem azért megbízhatatlan, mert rossz eredményeket is adhat, az oké. A bullshittelés miatt. Nem hibaüzenet van, hogy nem érti, vagy nem talált semmi infót, hanem made-up bullshit.

Ez még egy bevallottam problémás terület. Érdemes olvasgatni a témában - egyébként még folyamatosan bővül maga a doksi is ezzel kapcsolatban: https://github.com/openai/openai-cookbook - megbízhatatlanságra visszatérve: szükséges a hozzáértés, nem szabad vakon azt hinni, hogy jó eredményt ad.

Vagy nem. Ld. a belinkelt Twitter posztot.

Ez egy kiragadott példa. Nem tökéletes, nem is szabad ezt várni.