Egyik ismerősöm megkeresett, hogy szüksége lenne egy olyan képgeneráló AIra, amit zárt környezetben, saját vason tud futtatni és amit saját maga tudna tanítani.
Az ok egyszerű, az AIval, olyan képanyagokat készítenének, aminél nem opció, hogy bármiféle szerzői jogi konfliktusba keveredjenek az AI üzemeltetőjével és kizáró ok, hogy a generált tartalom 3. félhez kikerüljön. Maga a betanításhoz tudnának képanyagot előállítani.
Bónusz pontok, hogyha egy átlagos informatikus RTFM alapján be tuná állítani, scriptelhető lenne a beviteli prompt és CPUn is elfutna.
A sebesség és a precizitás nem igény, mert a képanyag vizuális töltelékként lenne felhasználva.
Van erre valakinek ötlete?
Hozzászólások
Az AI válaszol:
Aláírás _Franko_ miatt törölve.
neut @
Van amugy megosztas gomb is :)
Bakker, már külön gombot kapott a megosztó anyagok generálása? :-)
pytorch cpun, az fincsi lesz
Annak mintha lenne cuda támogatása, nem ?
természetesen
4/7 gigas a huggingface modell. Egy jobb hazi nvidia gpu-n valszeg elfutkos, de ezen a szinten a T4-et szoktak "belepo" modellnek venni. Ne lepodj meg, ha esetleg a cpu-n, bar valoban jelolve van, hogy fut, "esetleg" baromi lassu lesz.
Ha lesz kis idom, kiprobalom en is, mert erdekesnek tunik.
Megneztem.
A fenti valasz durvan elavult es hibas is; az ajanlott install a stable-diffusion-webui, ami rogton egy gui-t is ad a lehetosegekkel.
Nekem egy 6GB-os nvidia a1000 (ami kb. egy rtx3050) van a laptopban, azzal kb. 5-6 masodperc alatt general egy 512x512-es kepet.
Tomoren, mukodik.
sub
>és CPUn is elfutna
Tudom hogy csak bónusz pont de ezt az elvárást szerintem még most felejtse el. És nem azért mert nem lehetséges, vagy tényleg lehetetlenül lassú 1-1 kép, hanem mert a promptok próbálgatása baromi sok meló már önmagában is. Igen lehet CPU-n futtatni általában ezeket de most képzeld el, hogy mondjuk 1-2-5+ perc (sampling steps növelésével szinte exponenciálisan növekszik) egy 250x250 pixeles kép generálása, és csak a 30. próbálkozásra sikerült nagyjából azt kapni amire te gondoltál. Egyszerűen túl sok szemetet kapsz általában, nem reális a cpu. Ha nem sajnálja rá az idejét akkor működni persze működhet. Ráadásul modellt tanítani ennél még sokkal, sokkal számításigényesebb. Ha tényleg tanítani is akar akkor duplán felejtse el.
Egyébként szerintem nem egy szívsebészet az AUTOMATIC1111 webui és huggingface-ről halászott modell alapján lokális instance-ot létrehozni, ráadásul ha lesz rá dedikált szervere akkor csak egyszer kell felkonfigurálni.
[insert line here]
B.C. 3500 - DIY Vehicle / A.D. 30 - DIY Religion / A.D. 1991 - DIY OS
Mindig csak a pornó :D
Nem rossz ötlet, de amennyire értem, ez asset generàlàs lesz valami captcha jellegū dologhoz.
"Maradt még 2 kB-om. Teszek bele egy TCP-IP stacket és egy bootlogót. "
A Kritához van Stable Diffusion plugin, én ezt használom. 1.5 és XL szóval nem a legújabb verziók de open source és local.
https://krita.org/en/
https://github.com/Acly/krita-ai-diffusion/
https://github.com/Acly/krita-ai-diffusion/wiki/Stable-Diffusion-Versions
Ez elmegy CPU-n is de iszonyat lassú (kivéve ha egy M* Mac-ről van szó), én RTX 4070 Ti-al használom ezzel elég gyors.
sub
Nagyon köszönöm, már tölti is lefelé a ComfyUI-t :)
Hogy lett ebből Comfy???
Szerk: már látom.
Azt nézem hogy egy legkisebb mac mini m2 újonnan is összevethető árban egy rtx 4070-el.
Teljesítményben vajon? Ha csak erre venném?
Gábriel Ákos
4070TI:
7680 Shading Units
240 TMUs
80 ROPs
240 Tensor Cores
Memory Bus 192 bit (Bandwidth 504.2 GB/s)
CUDA 8.9
FP16 (half) 40.09 TFLOPS (1:1)
FP32 (float) 40.09 TFLOPS
FP64 (double) 626.4 GFLOPS (1:64)
macmini:
"superfast XD"
Almát körtével avagy "keveset eszik, viszont nem megy".
Az M2 Mini (10 core GPU) papíron 3.55 TFLOPS (FP32).
igaz csak egy macbook pro m1 max, de azért nah egy rtx 3060 is elpicsázza...
Stable Diffusion - Mac vs RTX4090 vs RTX3060 vs Google Colab - how they perform.
ilyesmit kerestem thx
Gábriel Ákos
GPU memória méret és annak sávszélessége ami legjobban számít. Azaz egy 3060 12GB memóriával baromi jó, egy 4070 8GB pedig meglepő módon nem annyira.
Alma jó, de nem erre, konkrétan nagyságrendi különbség van. Bár van célzottan almára tuningolt modell, az is csak almás viszonylatban gyorsabb.
Szerk: a fenti állítás generálásra igaz, tanításra a GPU kerül nagyobb szerepbe.
És az új almák érdekessége, hogy a teljes rendszer memória elérhető az AI gyorsító számára, na ott már megfordulhat a helyzet, de m4-hez még nem volt szerencsém, így ez egyelőre csak érzés
Cuda (nvidia) hiánya mennyire húzza le az eredményeit?
régies szóhasználattal élve: kúrvára?!:D
https://youtu.be/cB07h-odLTY?si=xi2M0YO8tEZpcYz9
4070-ben 12GB GDDR6X 192bit 504.2GB/s van
https://www.techpowerup.com/gpu-specs/geforce-rtx-4070.c3924
3060-ban 12GB GDDR6 192bit 360.0GB/s van
https://www.techpowerup.com/gpu-specs/geforce-rtx-3060-12-gb.c3682
neked aztan fura humorod van...
sub
Run your own AI (but private)