Holografikus Kutatási Stratégia

Címkék

Magyar kutatók egy új optimumkeresési modellt dolgoztak ki. Ennek segítségével a jelenleg használt algoritmusoknál 80-100%-kal gyorsabban lehet sokdimenziós terekben az optimumot megtalálni.

A teljes fejlesztés linuxos környezetben történt.Az XHRS-csoport 2000-ben alakult magyarországi kutatókból és fejlesztő mérnökökből. A HRS módszerről röviden annyi mondható el, hogy segítségével könnyen tájékozódhatunk sokdimenziós terekben (Tejfalussy-elrendezés), illetve rendkívül könnyen és kis költséggel találhatunk meg különféle optimumkritériumoknak megfelelő pontokat. Tapasztalataink szerint ehhez a tér 2-12 ezrelékét kell megmérni, ami minden eddigi algoritmusnál 80-100 % -kal nagyobb hatékonyságot jelent.

A módszerről bővebben információk itt lehet találni.

Nagyon szívesen venném azokat a konkrét ötleteket, amelyek a módszer alkalmazhatóságára mutatnának rá.

Köszönöm a figyelmet: Végvári Lajos [meditor]

Hozzászólások

Jól sejtem, hogy ez a szimulált lehűtés módszer helyett van?

Ez nem valami helyett van. Ez van. Eddig azokban a témákban,

amelyekben alkalmazzák az un. genetikus algoritmust

használták. Ezt sikerült kiváltani. A genetikus algoritmus

kombinatorikus kutatási területeken a mainstream. Ezért írtam azt

róla, hogy az eddig leghatékonyabbnak tartott.

Konkrét példa: katalizátor összetétel, 8 komponens,

többszázezer potenciális mérési pont. 167 méréssel 2 hét alatt

sikerült olyan kombinációt találni, amelynek katalitikus aktivitása

több, mint 98 % (= gyakorlatilag az elérhető maximum). Ez

korábban sokkal tovább tartott, ráadásul az alkalmazott módszer

nem volt determinisztikus, keresés közben eltévedt, stb.

A Hologrfikus Kut.Strat. ezeket a hibákat kiküszöböli, óriási a

zajtűrése, ráadásul a szoftvert úgy írtam meg, hogy közbetlenül

felhasználható vezérlésre: így aztán egy kutatóautomata

sikeredett belőle.

Hmm. Sokdimenzios ter? Akkor lehetne operalni fazistereken is hatekonyabban, es mas kvantumfizikahoz kozeli temakorokrol is beszelhetnenk.

A szimulált hűtés kicsit más azért. Viszont nem látom, hogy mennyiben tér el ez az evolúciós algoritmusoktól. Vagy azok valamely változatától. Nekem egyelőre csak az tűnt fel, hogy más a tér elrendezése.

Ha vesszük mondjuk a genetikus algortimusokat, akkor csupán mutáció használatával azok is felfedezik egy-egy megoldás környezetét. Na most ahhoz, hogy több környezetet is felfedezzünk, használhatunk egy több egyedből álló populációt, illetve akár több elszigetelt populációt is.

Gondolom a megoldás a blackbox principle-t használja, azaz nem kell tudnia semmit a megoldásról. A módszer számára a megoldás nem más, mint egy n hosszú vektor (akár egész, akár valós számokból). Ami viszont kell, az az, hogy egy ilyen megoldást ki tudjon értékelni, azaz meg tudja mondani, hogy az mennyire jó (akár abszolút, akár relatív módon).

Az evolúciós algoritmussal való összehasonlításból hamarosan

tudományos publikáció fog megjelenni. Ebből nyomonkövethető

lesz, hogy a mi módszerünk sokkal célratörőbben és sokkal

gyorsabban találja meg az optimumot, az optimumcentrumok is

sokkal kompaktabbak. Ez azért van, mert a genetikus algoritmus

nem zárja ki a véletlent. Ennek további következménye, hogy

két egymásutáni futtatás csak ritkán hoz egyforma eredményt,

mig a HoKuStra esetében minden futás ugyanazt az eredményt

hozza.

Továbbá: a HoKuStra esetében nemcsak az érdekes, hogy mi

a megmért pontok értéke, hanem a pontok elhelyezkedése is

fontos információtartalommal bír. Ez lehetővé teszi a teljes

tér visszaállítását arra az elvre támaszkodva, hogy a gödör

feneke a nagy üres foltokban van, a dombtető pedig ott,

ahol a mérési adatok sűrűsödnek. Mivel a genetikus algoritmus

mintavételezése során kapott kép sokkal szétesőbb, ez az elv

sokkal nehezebben alkalmazható, illetve a tér sokkal nagyobb

hibával állítható vissza.

Egyébként való igaz, hogy különösebb újdonság nincs a

módszerben, az elrendezés egy 70-es évek közepén-végén

bejelentett szabadalmon alapul (Tejfalussy-elrendezés),

az, hogy egy gradiens mentén haladva keresed a neked

megfelelő pontot: nos a lepkehím is így találja meg a

nöstényt. Amit vektorforgatásnak neveztem a leírásban,

az egy Furier transzformáció (ha jól sejtem).

Az egyetlen nagy előnye, hogy következetesen végigvisz

egy gondolatot és hogy az egész gondolat egy jól használható

szoftverben megtestesül. A gyakorlatban kiállta a próbát,

azt hiszem, és ez akárhogy is nézzük nem kis dolog.

Valóban, az optimumkritériumot meg kell adni. További feltétel,

hogy a tér ne legyen homogén, illetve fehérzaj. Más szavakkal:

legyen információtartalma.

Itt jegyzem meg, hogy a módszer még fehérzajhoz közeli

állapotban is ugyanazokat az optimumcentrumokat találja

meg (a mintaszám drasztikus emelkedése nélkü!!), mint

zajmentesen. Erre találsz példát a hivatkozott oldalon, igaz

nem a fehérzaj-közlei állapotot hozva föl példának.

És mégegy: a vektorrendszernek és a térnek OK-OKOZATI

összefüggésben kell lennie! Például, ha a teret Magyarország

domborzati térképével helyettesíted, a kereső nem fogja

megtalálni Kékestetőt!

A publikáció mindenképp érdekelni fog. Mondjuk a módszer determinisztikussága az, ami kételyeket ébreszt bennem.

A keresési tér elrendezése evolúciós algoritmusoknál is nagyon fontos. Kiváncsi lennék, egy ilyen elrendezéssel mire jutna egy evolúciós algoritmus. Azt nem látom, hogy a módszerben mi biztosítja azt, hogy a gödör feneke a nagy üres foltokban van.

Az újdonságot persze nem úgy értettem, hogy a módszer minden eleme létezik, mert while programokkal is mindent ki lehet számítani, szóval semmi se új. ;) Csak első ránézésre nekem az ugrott be, hogy ez egy speckó keresési térben végrehajtott evolúciós algoritmus (ill, ha a környezet vizsgálata determinisztikus, akkor hegymászó).

A gyakorlati próba mindenképp fontos, és ha sikeres volt, akkor gratulálok! De azért kiváncsi lennék, hogy milyen problémaosztályokra alkalmazható, milyen terekben. Gondolom a "No free lunch" tételt ismered.

Én most kapásból nem tudnék olyan kutatási témát fölvetni,

ahol ne lenne használható, de én kevés vagyok ahhoz, hogy ezt átlássam.

Abban viszont biztos vagyok, hogy minden olyan problémában,

amelyben különféle független változók különféle értékeinek

a hatását kell vizsgálni, alkalmazható az eljárás.

Ez a hasonlat jutott eszembe egyébként:

Ha a genetikus algoritmus maga az evolúció,

akkor a HoKuStra a nemesítés.

A Tejfalussy-elrendezésről hol lehet bővebb információt találni?

A bevonható paraméterek száma nincs korlátozva. Lehet 200,

vagy akár 1000 is, csak hardver kérdése az egész. Ekkora

méretű rendszerre, már lehet, hogy clustert kéne használni,

de lehet, hogy nem.

Azt tapasztaltam, minél nagyobb a tér, annál kisebb hányadát

kell megmérni ahhoz, hogy megtaláljuk az optimumot. Ez azért van,

mert a bevont mérési pontok száma lineárisan, a tér pedig

mértani módon növekszik egy újabb paraméter bevonásának

a hatására.

Sokszázezres terekről vannak tapasztalataink, itt a genetikus

algoritmushoz képest elért hatékonyságnövekedés kb 100 %.

Sebesség tekintetében azt tudom mondani, hogy egy ilyen

paraméterű térben az optimumot egy nem túl erős PC-n,

grafikus felületen, folytonos kijelzéssel kb 2-3 másodperc.

Az idő javarészét a grafika teszi ki, a matekja szerintem

ekkora méretnél még pillanatszerű. A Program C-ben íródott.

Azt hiszem kimerítő választ adtam a kérdéseidre.

A válaszadásban most egy kis szünet következik, holnap este

folytatom. A kérdéseket természetesen továbbra is várom, akár

itt, akár levélben.

Mindenkinek jó éjszakát: meditor

1-2 kérdés

"a vektorrendszernek és a térnek OK-OKOZATI összefüggésben kell lennie"

ezt kicsit megvilágítanád? magyarán függvényszerű kapcsolat a paraméterek és a belőlük képzett függvényérték között? csupán annyi a feltétel, hogy a paraméterek megváltozása befolyásolja és konzekvensen befolyásolja a függvényértéket ?

- hogyan viszonyul ez hagyományos minimumkeresésekhez, ahol a függvényszerű kapcsolat pontosan ismert, és analitikus/numerikus deriváltak, esetleg magasabbrendű deriváltak számolhatóak?

- mennyire garantált a globális optimum? tudomásom szerint ilyen nincs.

- befolyásolja-e a keresést az, hogy a modell lineáris/nemlineáris?

köszi

Akkor Broven-el tudok egyet érteni: itt érvényesül a "No free lunch" tétel.

Az az ára a hatékonyabb keresésnek, hogy kikötjük az

ok-okozatiságot a keresési térre. Ha jól értem, akkor ott használható az evolúciós technikák kiváltására, ahol ez fennáll a keresési térre.

Ezek szerint nem: "Bármely kutatási feladat megfogalmazható és végrehajtható ezzel az eljárással." hanem bármely,

ahol ez az ok-okozatiság fennáll. így már sokkal inkább egy bizonyos helyzetben jó módszernek hangzik,

mint egy általános csodaszernek.

Gratulálok a megoldás kifejlesztéséhez, sok sikert a további publikációkhoz is!

> A teljes fejlsztés Linuxos környezetben történt.

Ilyeneket nem papiron szokas "fejleszteni"? Vagy linuxos gepek kozott
ultek, erre utal a "kornyezet" szo? ;)

> ami minden eddigi algoritmusnál 80-100 %-kal nagyobb hatékonyságot jelent.

Egy O(nlogn) lepesszamu algoritmusnal kit erdekel a konstans szorzo?

>Egyébként való igaz, hogy különösebb újdonság nincs a >módszerben, az

>elrendezés egy 70-es évek közepén-végén

>bejelentett szabadalmon

>alapul (Tejfalussy-elrendezés), az, hogy egy gradiens mentén >haladva keresed a

>neked megfelelő pontot.

Egyetertek, a modszer jol ismert egy halom free program/programcsomag is elerheto, ami ezt hasznalja.

Egyebkent a problemak nem a dimenzioszammal vannak, azt egesz jol kezben lehet tartani. Hanem a kulonbozo lokalis optimumokkal. Ugyanis ott a gradiens modszer befuccsol. Ha a tered tele van lokalis minimumokkal, akkor az igazi optimum megtalalasa meg akkor is nehez, ha az joval erosebb, mint a hamis optimumok. Ha pedig tobb hasonlo erossegu optimumbol kell megtalalni a legjobbat, akkor pedig vegkepp csodhelyzet van.

/1/

"csupán annyi a feltétel, hogy a paraméterek megváltozása befolyásolja és konzekvensen befolyásolja a függvényértéket"

Igen. Azt is megjegyzem, a módszer erősen támaszkodik arra,

hogy a Tejfalussy tér folytonos.

/2/

"- hogyan viszonyul ez hagyományos minimumkeresésekhez, ahol a függvényszerű kapcsolat pontosan ismert, és analitikus/numerikus deriváltak, esetleg magasabbrendű deriváltak számolhatóak?"

Erre precíz választ most nem tudok adni, utánanézek. Annyi

bizonyos, hogy ahol a függvénykapcsolat ismert, ott

semmi szükség erre a módszerre, hiszen a függvénykapcsolat

ismert (-:: Kifejezetten olyan helyekre való, ahol a

függvénykapcsolat NEM ismert.

/3/

"- mennyire garantált a globális optimum? tudomásom szerint ilyen nincs. "

Ha nem méred meg a teljes teret, sohasem lehetsz benne

biztos, hogy megtaláltad a globális optimumot. Azonban minden

eddigi szimulációs és (ez a fontos) gyakorlati próbája még

nagyon kisarkított helyzetekben (áloptimumok, kis effektusok

extrém kicsi keresőablakok) is biztosította a globális optimum

megtalálását. Ha pl egy katalizátor aktivitása közel 100 %,

akkor nemigazán érdemes tovább keresgélni.

Azaz csak valószínűsíteni lehet a sikert, de az a valószínűség

nagyon közel van az egyhez. Másképp fogalmazva: ha nem

találod meg a globális optimumot, akkor a megtalált technológia

kvázioptimális.

"befolyásolja-e a keresést az, hogy a modell lineáris/nemlineáris?"

nem befolyásolja. Még a polinómikus viselkedés sem kritérium.

Köszönöm a pontosítást, látod, nekem eszembe sem jutott,

hogy a vektorrendszer és az általa kifeszített tér nincs

ok-okozati összefüggésbe. Illetve csináltam ellenőrzést,

ahol nem volt, hát szépen el is tévedt a kereső. (Ezt egyébként

komoly eredménynek tartom, mert visszajelzi a kölcsönhatást)

Másfelül, nehezen tudnék olyan kutatási területet elképzelni,

ahol nem az történik, hogy megváltoztatnak valamit és

ennek hatását vizsgálják. Ezért talán megbocsájtható

a megfogalmazáson, mindenesetre kössz, hogy egy másik

aspektusra is felhívtad a figyelmemet.

Nagyon okosakat és nehezeket kérdeztél. A lokális optimumok

kérdésének kulcsa a vektorforgatásban van. Azaz: a

szomszédviszonyok olyanjellegű megváltozásában, hogy

a tér folytonossága megmarad. Amit látunk a képen sok-sok

paca formájában, két dimenzióban, az a sokdimenzios térben

valójában egyetlen hegycsúcs és környezete.

Egyébként saját meglátásom szerint nem hegycsúcsokban és

konkrét koordinátában kell gondolkodni, hanem optimum

centrumokban, amelyek alternativ és egymáshoz nagyon

hasonló technológiákat valósítanak meg. Ezt bizonyítja a nagy

zajban történt optimumkeresés esete is: sikerült megtalálni

ugyan a legjobb adatot, de annak koordinátái nem egyeztek

a zajmantes adathalmaz optimumának koordinátáival. !DE!

Mindkét esetben ugyanott voltak az optimumcentrumok.

Érdekelne továbbá, hogy melyek azok az általad említett

free-csomagok, szívesen megnézném őket. Kössz.

Nem érzem teljesen jóindulatunak a kérdést, de azért válaszolok

rá.

A környezetről:

Ha nincsen GNU, akkor bizony ez az egész fejlesztés elmaradt

volna. Az ingyenes fejelsztési környezet, amit a linux nyújt

rendkívül inspirálólag hat. Ugyanis 8 dimenziós térben elég

nehéz kockáspapiron Furier transzformációt csinálni. És

meg nehezebb elmagyarázni az embereknek, hogy ezt

és ezt látnád, ha nem papíron dolgoznék, hanem mondjuk

képernyőn. A környezet egyébként: GNU-C, openmotif, Xt,

SuSE linux 6.2-7.1 majd Slackware 10. Ezúton mondok

köszönetet a linuxos közösség minden tagjánok, hogy

munkájukkal segítettek egy probléma megoldásában.

A szorzó kérdése, konkrét példára lebontva:

1 mérés ára kb 12.000,- Namármost a 100 %-os

hatékonyságnövekedés azt jelenti, ugyanannyi információt

fele akkora összeggel állítasz elő. Ma néztem át az összehasonlító adatokat: egyrészt, 450 mérés helyett

(több, mint 500.000,-) mintegy 200 (kevesebb, mint 250.000,-) mérés elég volt egy jobb kombináció eléréséhez egyik

méréssorozatunknál, másrészt a dolog szervezettségéből

adódóan 1/3 annyi időt vett igénybe. Ez utóbbi pénzértéke

akkor, amikor pl egy szabadalmi bejelentésen dolgoznak,

megbecsülhetetlen. Azt hiszem ezt a kérdést nem tetted volna

föl, ha FIGYELMESEN olvastad volna el az anyagot.

[bocs...]

Az unidev-en már elég régen kint volt ugyanez cikk és arra nem reagáltak valami sokan... :(

Szerintetek miért nem látogatják az oldalt (unidev) annak megfelelően, mint amennyire szerették volna annó annak idején, hogy létrejöjjön?

jaj, bocs, most akartam írni. Ugyan pont ma jöttem Debrecenbe, de amikor hazaszóltam, (hogy megérkeztem,) akkor mondta Anyu, hogy kaptam levelet. (rá volt írva a Neved, így gondoltam, hogy tőled kaptam :) )

Majd pénteken megyek haza, akkor este írok, hogy milyen! :)

Addig unidev forum motor specifikációt írok, már amikor jut rá idő, mert álandóan rabolják... Hogy kik? A rokonok. Hirtelen most mindenkinek jó vagyok Win installra, cégeslogo készítésre, stb. Persze ez még nem lenne olyan sok idő, de persze ilyenekbe kötnek bele, hogy nem szép a színe, meg rakjak rá másik verziót, meg... legalább 8 (!!!) órát raktam a Win-t és a járulékait...

Mindegy, péntek este írok!

ha jól gondolom, erről a Tejfalussy-ról van szó... http://aquanet.fw.hu/
már egy ideje utána szerettem volna nézni ennek az egésznek, de a Tejfalussy-térről nem igazán lehet találni semmit, Tejfalussy-t meg inkább nem minősíteném, talán Egely György osztálytársa volt :-)

egyébként született már valamiféle publikáció a témában? ha igen, hol lehet elérni?

(---arról a Tejfalussyról van szó---)
Tejfalussynak tucatnyi bejelentett szabadalma van/volt
Mo-on, USA-ban, EU-ban. Zseni. Nem járt egy osztályba
Egelyvel. Dolgoztam vele 5 évet. Személyesés nem szakmai
okok miatt váltam ki csoportjából.

Publikációk születtek, 2 év alatt 4 vagy 5. A papíralapú
megvan nekem itthon, megpróbálok kitenni az ftp-re
elektronikusat is. Ha guglival rákeresel:
"Hologrphic research strategy"

http://www.google.hu/search?hl=hu&q=%22Holographic+research+strategy%22…

akkor bejön egy pár találat, ezek közt is lehet
csemegézni. Ha konkrét kérdésed van akkor:
research_kukac_meditor.hu (a _kukac_ helyére
természetesen '@'-ot kell rakni)

A témához tartozik még: http://www.meditor.hu/mindgames.php

> Sol omnibus lucet.