Webes szoftver ötlet

 ( friedmannt | 2015. április 13., hétfő - 14:31 )

Sziasztok.
Van egy szoftverötletem, amit szeretném, ha megköpködnétek. Beszéljetek rá, ha tetszik, vagy beszéljetek le róla ha nem tetszik.

A program (POC-ot csináltam még csak belőle):
Vannak hirdetési site-ok a világban, ahol keresel, és kapsz egy találati listát. De gyakran keresel olyasmit, amire épp nincs hirdetés, mert ritka dolgot keresel. Ilyenkor gyakran ellátogatsz az oldalra, és rákeresel, reménykedve, hogy valaki felrakta. Aztán ha találsz egyet, gyorsan megveszed, és lekerül a hirdetések közül. De az is lehet, hogy elfelejtesz egy nap rákeresni, pedig pont aznap kerül fel a site-ra. Az én programom azt csinálja, hogy megadod mit keresel, és naponta elvégzi a keresést helyetted, a találati listát pedig elküldi emailben.
Példa azoknak, akik a konkrétumokat szereti: Opel corsa-t akarsz venni, 2000 és 2010 között gyártottatt, de dízelt, ami ritka (tegyük fel). Az én oldalam nélkül naponta túrod a használtautó.hu-t, meg a mobile.de-t, és 30 nap után találsz egyet, felhívod, megveszed. Az én oldalammal annyi a dolgod, hogy felveszed a kereséseket, megadod hogy a használtauto.hu-n és a mobile.de-n akarsz keresni, és 30 nap után kapsz emailt, hogy találtam egyet, itt a link.

Technológia:
Itt kicsit nehéz a dolog. Minden honlaphoz saját wrappert kell írnom, HTML bogarászás a dolog.
El kell küldenem a query-t (vagy HTTP get, paramokkal ,vagy HTTP post és a bodyban vannak a paraméterek), ezt wireshark-kal, vagy böngészővel kielemzem, és utána a program szimulálja a keresést. A response-ban van egy találati lista, azt is site-specifikusan végig kell olvasnom és lapoznom, ami szintén egyedi HTML parse-olás. De megoldható. Egy site-ra csak egyszer kell megírnom, a szívás az, ha a cél hirdetési site-ot átdesignolják, akkor a wrappert is módosítanom kell. A találatokat (title, kép, description, link) emailben elküldöm.

Paraméterek:
- Hát, elsőre úgy gondoltam, hogy egy keresés max 90 napig él, hogy ne legyenek elárvult, örökös keresések.
- Ha túl tág keresési feltételeket adtál meg, akkor az első 30 találat után nem dolgozok fel többet, 30 találat lehet max a küldött emailben.
- Napi egy keresés, hogy ne terheljük a szervert, de te adhatod meg az óra/perc/másodpercet a napon belül.

POC:
A mobile.de-re elkészítettem a wrappert, 1 nap alatt bőven kész lett.
Jogi dolgok:
Na ebben bizonytalan vagyok.

Lehetőségek:
Nem csak autóra tudom elképzelni, de bármilyen használt, apróhirdetésekben hirdetett termékekre: autó, ingatlan, mobiltelefon, stb.

Kérlek írjátok le, leginkább a negatív észrevételeiteket, abből tanulok. (pl. van már 1000 ilyen, tilos ilyet csinálni, senki nem fog fizetni érte, nem érdekelne senkit)

Hozzászólás megjelenítési lehetőségek

A választott hozzászólás megjelenítési mód a „Beállítás” gombbal rögzíthető.

A jogi részben fogsz elhasalni, mivel a céloldalak (pl hasznaltauto.hu) nem fogják komálni, hogy a user nálunk csak 1 hirdetésre kattint közvetlenül (mert ugyebár a direkt linket kapja meg a tag e-mailben tőled). Igy elesnek a reklámbevételtől (bannerek, promozott cikkek, hirek) és jön a butthurt.
-------------------------
Dropbox refer - mert kell a hely: https://db.tt/V3RtXWLl
neut @ présház

Senki nem fog fizetni érte + már meg van oldva, igaz külön-külön minden oldalon.
Használtautón van hirdetésfigyelő, OLX-en mentett keresés, stb.

+1, sőt sok helyen még saját hirlevelet is össze tudsz állitani, amit heti vagy napi rendszerességgel megkapsz mailben.

Tanulásnak jó az ötlet, de pénzt keresni vele nem igazán lehet.

Kérdezd csak meg a hupos kollégát, aki ugyanezt tolja állásokkal. Nem jut eszembe a neve, se az oldala, de biztos belefutottál már. Közalkalmazotti állásokat szed össze állami portálokról.
-------------------------
Dropbox refer - mert kell a hely: https://db.tt/V3RtXWLl
neut @ présház

Az ötlet egyik része, hogy több site-on keres.
Ha van 20 ingatlanos oldal, akkor csak be kell pipálnod, és mindegyikben keresne...

Ilyesmit csinálnék, csak nem állásra.
Mesélsz kicsit a projektről? Userszám publikus?

Ez gondolom nekem szólt volna.
Nem én fejlesztem, csak tudtam a site nevét, gondoltam belinkelem.
Ellengen a Google tuti megmondja az itteni tag blogját, nevét. Még írt is valahol róla, hogy hogyan működik, keresd meg!
--
blogom

most éppen 151 egyedi ip, de ebből 25-öt az a link hozott, ami ebbe a cikkbe került bele (azokat követve jöttem én is)

hát ez nem nyereséges, elég vastagon bukóban vagyok, de egyelőre a fizetésemből fenn tudom tartani, és érdekel annyira hogy ezért ne zárjam be

a fő buktató, hogy az adsense nagyon keveset hoz, ez az oldal pl. napi 1000 egyedi ip körül lenne nullszaldó, és attól felfelé termelne nyereséget, valahol azt láttam, hogy a profession napi látogatottsága 65 ezer, tehát abból sem lehetne nagyon ugrálni

egy ilyen alkalmazásnál az első kérdés, hogy ez mi olyat tud, amit a google nem? nálad van értesítés küldése, de ezt technikailag nehéz lenne naprakésszé tenni

az a robot, amit a munkahelyem üzemeltet, akkor fut meg, amikor a kérést kiadják, ezért az biztosan friss infót ad, de az ami értesítéseket küld ki, az már megint csak naponta egyszer fut le, a nagyon gyakori futtatás + hogy reklámbevételt viszel el a céloldaltól azt fogja eredményezni, hogy a céloldalak bezárják a robotod előtt a kaput

Kár, hogy bukóban van, rossz ezt hallani, pedig szerintem jó ötlet.
Ahogy én számoltam (a saját munkámat nem számolva), kb havi 10000 ft költséggel megállok (technikai költség). Ennyiért bérelnék egy rackforest-es virtualizált szervert. Hogy marketingre mennyit költsek, azt nem tudom, még megbecsülni sem.
A legnagyobb félelmem, hogy pont mire sok felhasználóm lesz, a céloldalak pont akkor zárják ki a robotomat.

Elsőre nem érdemes túl sok pénzt áldozni rá.
Elég lehet egy kisebb szerver is. Akár OpenVZ-s.
Először egy minimál verzióval érdemes elindulni, hogy lásd egyáltalán mit szeretnének a felhasználók, egyáltalán szükségük van-e ilyesmire.

Adsense esetén ne jelentsd ki ilyen merészen, hogy ennyi és ennyi a minimum. Nagyon függ a site tematikájától, a célközönségtől, stb.
Mi üzemeltetünk pár olyan oldalt, ami kizárólag adsense-el szerzi a bevételt és oldalanként más a hatékonysága. Van olyan oldal, ami kevesebb látogatóval hatékonyabban értékesíti a hirdetéseket, mint a nagyobb látogatószámmal rendelkező testvére. S még az sem mindegy, hol helyezed el a hirdetést az oldalon belül (ez is oldalanként változik, nincs egyértelmű recept, max ajánlások). Egy oldalunk reklámbevételeit 1/3-al tudtuk növelni azzal, hogy egy blokkal lejjebb raktuk a bannert. Nem triviális témakör.

Köszönöm a tippet.

+1

Az ötlet szerintem jó.
Magyar piacot felejtsd el nincs akkora vásárló erő. Amerikai piacra kell fókuszálnod. Programozásilag ugyanakkora munka, több vásárló.
Buktató lehet:
- Ezek az oldalaknak a reklám hirdetésből származik az egyik bevételük. Ha az ötleted elterjed és elkezdik használni, szerintem meg fogják nehezíteni a munkádat, hacsak nem tudsz mindegyikkel megegyezni.
- Túl jó az ötlet és mindegyik kereső oldal saját megoldást kínál.

Kérdezősködjél sokat, lehetőleg olyanoktól akik nem ismernek. Kérdezni is meg kell tanulni, az nem jó ha azt kérdezed, fizetnél ezért? Az a jó ha azt kérdezed mennyit fizetnél ezért? És akkor beárazzák a szolgáltatást is.

üdv.
greyow

Üzletileg:
Ha csak egy témára ugrasz [autó] és nyomsz előfizetést az autókereskedőknek, akkor talán lehet bele életet lehelni. Talán.

Köszönöm.
Először usereket szeretnék, ami azt igazolja, hogy hasznos a szolgáltatás.
Utána tennék pénzzé prémium feature-öket(az ingyenes usereket nem akarom büntetni semmivel).
Ha nem találok olyan feature-t, amit szívesen elvennék a free userektől, akkor marad a google adwords.

Nemrég eladtam egy autót a használtauton. A következőképpen zajlott: Kitöltöttem a paramétereket; űrlap elküld; akarom a képeket feltölteni, de abban a pillanatban megszólalt a mobilom és már jelentkezett is az első érdeklődő [utána kb még 4 órán keresztül egyfolytában hívtak további érdeklődők]. Nyilván be volt nekik állítva egy automatikus értesítés az adott típusra.
Na most, az általad elképzelt rendszer ehhez képest akár egy napos késésben is lehet, ami pont azt jelenti, h teljesen használhatatlan lesz. Vagy nem látja a hirdetést [mert fel és lekerül mire benyalná] vagy ugyan látja, de mire feldolgozza értesít stb addigra lekerül, vagy ha még nem is kerül le, mire a Te ügyfeleid hívnák az eladót már csak holnap utánra kapnának időpontot.
Az oldal saját értesítési rendszeréhez képest mindig késésben leszel, és ez a késés olyan hendikep-et jelent, ami kizárja a vállalkozásod sikerét.
Élelmesebb lenne, h a Te rendszered fel tudna iratkozni az oldal saját értesítési rendszerére a megfelelő paraméterekkel. (De ez minden bizonnyal technikailag akadályozva van. Illetve ha kiderül, akkor minden további nélkül kivágnak az oldalról.)

A napi egy keresést csak kiindulópontként mondtam, igazából csak a szerverterhelésen múlik, lehet akár 3 óránként is a keresés (kérdés, hogy akkor mit adok a fizetősöknek, ha az ingyenes is ennyire gyors).
Magyarországon mindenki a használtatuó.hu-t használja autóra, de vannak olyan piacok, és olyan termékkategóriák, ahol egy országban több 10 site is lehet. Az én megoldásom mindegyikben keresne (mármint amire megcsináltam a wrappert.)

Állítólag általában kereskedők ugranak egyből (8.Feltöltés), akár ezt az információt is figyelembe lehet venni fejlesztésnél.

+ 1 az eddigi lehúzásokra, :) itthoni szájtok nem fogják hagyni, hogy robotot küldj rájuk. :)

> Technológia:

Rosszul ülted meg azt a lovat. Nem kell html-t bogarászni, hanem saját api kell. Pl. a partnernek kell json-ról gondoskodnia... Webshopal ez még működne is, de apróhirdetőkkel nem hiszem.

Igen, a saját API a legjobb, de megülöm a lovat anélkül is.

ezzel az a baj, hogy a partnernek esze ágában sem lesz egy induló céggel szóba állni, és a kedvéért api-t fejleszteni, sőt a robot gazdája örülhet ha nem tiltják ki

Igen, pont a kitiltás a legnagyobb félelmem, főleg akkor, ha elkezdenének jönni a userek hozzám.

Vond be a juzereidet a scrape-elesbe. Keszits egy telepitheto desktop alkalmazast ami leul a talcara es a hatterben tevekenykedik, persze csak olyan tempoban, hogy azt a juzer ne erezze meg. Cserebe meg nyujtanal neki valami extra szolgaltatast az oldaladon.

----------------------
"ONE OF THESE DAYS I'M GOING TO CUT YOU INTO LITTLE PIECES!!!$E$%#$#%^*^"
--> YouTube csatornám

Jaaa. Mert akkor nem az én ip címemről megy a keresés. Okos.
Viszont jó kérdés, hogy ki mennyire hajlandó desktop appot futtatni a gépén, ami állandóan fut.
Meg ugye akkor ugye előjön az a probléma, hogy ha módosítanom kell a szoftveren (merthogy módosult egy hirdetési oldal szerkezete, ami gyakori azért), akkor sokkal nehezebb a rollout (azaz a módosult szoftver userhez való eljuttatása). De az ötlet zseniális, megjegyzem.

"Viszont jó kérdés, hogy ki mennyire hajlandó desktop appot futtatni a gépén, ami állandóan fut. "

Egysegsugaru juzernek legalabb 3 toolbar van a gepen. Egyszer leokez valamit, aztan latszolag enni nem ker...

"akkor sokkal nehezebb a rollout "

Nativ alkalmazasba is sokfelekeppen megoldhato az auto update, de az oldalspecifikus reszt megvalosithatod valami szkript nyelven amit mindig frissen tolt be. Vagy a juzer gepen futo cucc lehet csak valami egyszeru proxy, megkapja a szerveredtol scrape-elendo cimet, leszedi a tartalmat (a juzer sajat IP-jevel), majd azt tovabbitja neked, mondjuk ez js-heavy oldalaknal nem mukodne...

----------------------
"ONE OF THESE DAYS I'M GOING TO CUT YOU INTO LITTLE PIECES!!!$E$%#$#%^*^"
--> YouTube csatornám

írd meg javascriptbe, majd amikor az oldaladon van az illető, akkor hozzájárul a kollektív scrapinghez, amit végül összegyűjt az oldalad :-) már csak el kell osztani a feladatokat egy chat program jellegűen a háttér JS processekhez, hogy ne csinálják ugyan azt.
Felteszel egy jó kis videót, hogy addig is lekösse őket valami... ha pedig senki nem nézi az oldaladat akkor indítasz néhány nodejs szervert valahol akár bérszerveren...

Így jogilag? gyakorlatilag olyan mintha a felhasználód menne az ő oldalukra csak nem Firefoxal parsolja az oldalt, hanem egy JS process a Firefoxon belül :-)

én ezt nem érezném nagyon etikus megoldásnak, főleg ha majd a felhasználóimat tiltják ki azokról az oldalakról, amik megtekintéséhez eredetileg használni akarta a programomat...

kicsit túl van lihegve a kitiltásos probléma, szerintem ez etikus crawler magatartással elkerülhető
illetve az üzleti modellt kell olyanná alakítani, hogy a céloldalnak megérje együttműködni

például eleve úgy pénzt kivenni ebből, hogy a céloldal gazdája fizet a látogatóért, mint egy adwords kattintásért
ez akkor fog működni, ha a céloldal nem reklámozni akar, hanem neki jutaléka van az eladásokból (vatera pl ilyen), akkor ebből a jutalékból leeshet az értesítő szolgáltatás üzemeltetőjének is

tulajdonképpen ilyenkor az történik, hogy létrehozol egy outsourcolt, és centralizált értesítő szolgáltatást, amihez mások tudnak integrálódni, és akkor nekik nem kell ezt kifejleszteni, esetleg a nagyobb választék miatt több látogató is esik be hozzájuk (ez már kérdőjeles)

amúgy én amazon spot instance-okon futtatom a robotokat, azoknak minden este más ip címe lesz, range alapján lehetne szűrni őket

"én ezt nem érezném nagyon etikus megoldásnak, főleg ha majd a felhasználóimat tiltják ki azokról az oldalakról, amik megtekintéséhez eredetileg használni akarta a programomat..."

Felhasznalo engedelyevel futtatnad a progit es nem kuldenel egy oldalra annyi kerest, hogy tiltashoz vezessen...

----------------------
"ONE OF THESE DAYS I'M GOING TO CUT YOU INTO LITTLE PIECES!!!$E$%#$#%^*^"
--> YouTube csatornám

hallottam egyszer egy olyan cegrol, akik egy rakat IP-cimet kertek volna az egyszem gepukhoz. Amikor szoba kerult a miert, akkor elmondta, hogy azert, mert ok (hogy is mondta?) datascraper-ek (kb. ugyanazt csinaljak, mint a topiknyito), es a nyilvanvalo csak ido kerdese kitiltast igy akartak megoldani. Azt mar nem tudni, mit valaszoltak arra, hogy ez belefer-e a ti uzleti etikatokba...

--
"el nem birom kepzelni, hogy valakinek keves az 1.7 GB-os kvota" (hrgy84)

Ti=Én. Egyedül csinálnám, de van pár dolog, ami elveszi a kedvemet. Pl az etikai kérdés. Szívem szerint csak azokra az oldalakra írnék bot-ot, amelyik tűri. Viszont ha nagyon kevés van, akkor értelmét veszti a szoftver. Ha meg leszarnám az etikát, meg a robots.txt-t, akkor ideig-óráig működne a dolog, de folyamatosan kitiltogatnának...

ja, a dilemma adott. Ha tisztan akarod csinalni, szerintem keresd meg az x oldal tulajat, es beszeld meg vele. Ha meggyozo az ajanlatod, akkor belemehet...

--
"el nem birom kepzelni, hogy valakinek keves az 1.7 GB-os kvota" (hrgy84)

A saját "2 cents"-emet szeretném hozzátenni ehhez a dologhoz, mégpedig a robot kapcsán.

Anno egy non-profit pályázatkeresőt programoztam és üzemeltettem (sansz.org) egy alapítvány hátterével. A portál egy agyonhackelt PHP-nuke, a gyűjtögető robotja pedig egy ingyenesen elérhető crawler motor köré C++-ban írt primitív szövegfelismerő volt, amely két dologot tudott - megtalálni azokat a weboldalakat a neten amin "nagy valószínűséggel" pályázatok, források, stb. vannak, amelyek nincsenek benne egy adatbázisban sem, majd ezt jelentette egy adminnak, aki egy kis finomhangolás után elintézte, hogy - ha csak az oldal formátuma nem változik érdemben, akkor - legközelebb ha az adott oldal kiír valamit, akkor már automatikus legyen a dolog (felkerüljön a pályázat), valamint az oldal felkerült egy "hot" "cold" vagy "warm" listára attól függően, hogy mekkora aktivitás van rajta... A tárhelyigény mitigálása végett kizárólag hash-eket tároltunk, My/SQL-InnoDB...

Eddig nagyon fasza volt.

Ott kezdődött a baj és ott is buktuk be az egészet, amikor bizonyos webhoszting szolgáltatók a robot fejlécébe épített infosite link ellenére is elkezdték tiltani az IP-jeinket. Hovanetovább, "bad bod" listára is kerültünk.

Ott lett vége, amikor a szolgáltatót is megkereste egy "nagy magyarországi tartalomszolgáltató" jogi képviselője.

És nem, nem záporoztak tőlünk a lekérések annyira, akkoriban még egy HP NetServer LH3000-esről nyomtuk kb. 3 query/sec-el de ezt sok oldalra elosztva. És mégsem tetszett...

Szóval erre a problémára én sem tudom a megoldást, de szerettem volna rá felhívni a figyelmet, mint buktatóra a robotozással kapcsolatban.

nekem ilyen problémám nem volt, a robots.txt-t illetve a robots meta tag-et be kell tartani, én ezt tartom jogilag is a védhető álláspontnak, hogy ha azon keresztül nem tiltották, akkor szabad a pálya

Én is attól félek, hogy szépen lassan, minél több userem lesz, lassan kitiltják a botomat mindenhonnan, és működésképtelen lesz a robotom.

Crawlerekről azt olvastam, és a nutch konfigjában is 3 (illetve 5) másodpercenként egy kérés szerepelt egy adott oldal ellenében, tehát egy oldalra 3 kérés per mp sok lenne. 10 vagy több oldalra elosztva már OK.
A másik fél persze annak függvényében fogja a dolgot megítélni, hogy megfosztja-e őt hirdetési bevételtől.

Én pl. nem vagyok túl barátságos a többi robottal, egyfelől hogy rövid maradjon a látogató útja a számára értékes tartalomhoz, tehát az én oldalaim már ne szerepeljenek más keresőkben - kivéve a google-t. A másik hogy ne lopják az általam kibányászott állásokat azzal a céllal hogy máshol közzétegyék őket, akkor inkább vegyék meg...

Egy hasonló cucc, kacat hirdető portálokra: o***kereso.hu (o*** = nem buta).

Közepes bevétel van belőle (nulla alkalmazott, egy fejlesztő), pedig 10Ft egy keresés -> Nem a pénzen múlik, hanem a hozzáálláson. Annyira lusták az emberek körülnézni a világban... csak, amit a facsé az arcukba tol. Ott bezzeg elhiszik, hogy valaki talált egy kulcsot a metrón... vicc.

Külföldi piacra fókuszálj, ott van hozzá tömeg.

//A portál nem az enyém, üzletileg semmi közöm hozzá, egy ismerős csinálta a cégnél, ahol dolgozik.

Ez az okoskereső tetszik, én is nagyon hasonlót csinálnék.
Amit máshogy csinálnék:
- Nem értem, miért csak magyar piacra csinálta meg
- Nem értem, hogy miért csak általános apróhirdetési site-okon keres, miért nem keres specifikus site-okon.
- Rossz ötlet alapfunkciókat fizetőssé tenni, sokkal magasabban húztam volna meg a fizetős funkciók határát. Nem az összeg a lényeg, ha valami ingyenes vagy 10 Ft-ba kerül, aközött igenis ég és föld a különbség.

> Annyira lusták az emberek körülnézni a világban... csak, amit a facsé az arcukba tol

"A sikernek ára van, nem titka." (Hobo: Bolondok hajója)

Egyébként igen. Én egy bringás térképet és útvonaltervezőt csináltam, néha ránézek a visszhangjára, érdekes a tapasztalat. Volt aki posztolta bringás FB-s csoportba, ott páran lájkolták, de a többség alapvetően meg sem hallotta, tovább pörgetik a Google gyalogos vagy autós módot (ami belevisz az összes tiltásba).
Nem gondolom, hogy a térképem annyira jó lett, de ezen kívül azért még van jópár bringás tervező ami határozottan alkalmasabb a feladatra mint a Gmaps, de csak azt ismerik, azt alkalmazzák mindenre. Ez a brand ereje.

nem csak azzal lesz probléma ha megváltoztatják a html-t

rengeteg oldal, és egyre több működik úgy, hogy ajaxon küldi el az oldalba épített javascript a tényleges adatokat lehozó query-t

ez tipikusan egy post request, amit csupa olyan paraméterrel pakol fel, amit a javascript számol ki, azt pedig nem tudod kívülről leutánozni, vagy az egész nagyon törékeny lesz, mert egy kis bugfix a túloldalon, és már nem azt a query-t generálja a programod amit az várna

én is csináltam ilyen egyedi letöltőket, ami nagyobb karrierportálokról lenyalja az állások linkjeit (pl tesco), aztán a linkeket már külön dolgozza fel egy másik, egységes folyamat, ajaxos oldalakkal bíbelődni óriási szívás volt

Az utóbbi időben olyan technológia is megjelent, mint amit az adsense is használ, hogy bekerül egy script tag a html kódba, ez behív a google js könyvtárába, ami document.write-al beleír egy iframe-et a html-be, de úgy hogy az iframe címe már a google oldalára mutat, és oda azt tölt be a google amit akar. Ezekhez egy szimpla http robot nem fog hozzáférni, mert ő nem tudja megfuttatni a letöltött oldalba ágyazott script-et.
Persze ezt is meg lehet oldani, seleniummal...

Hát, azért saját javascript engine-t nem írnék ezért. Ahol document.write-tal módosítják az oldalt, hogy megjelenjen a találati lista, ott hagyom a dolgot. Ha jól tudom a mostani Single Page Webapp elv pont erre megy. Meg a GWT is ilyen módon működik.

Egy viszonylag telített piacot néztél ki.

Kollaboráció nélkül exponenciálisan fog nőni az erőforrás költséged minél több site-ot támogatsz.

Üzleti modellről szót nem ejtettél, a "hé majd lesz pro feature!!!" az nem egy üzleti modell.

Tanulási célból jó ötlet, HTML bogarászás helyett guglizz, jsoup-ot ajánlom. Ha kész vagy valamilyen teszt eszközzel szimulálj 5000 konkurrens felhasználót :P

Telített a piac? Akkor nem csinálom meg. Tudsz példákat mutatni? Én nem vettem észre, hogy telített a piac, de több szem többet lát

Üzleti modell nincs még, csak egy POC-ot csináltam. Majd gondolkozom az üzleti modellen is, de előtte még azon gondolkozom, elkezdjem-e.

Ja, a HTML bogarászást nem kézzel értettem, a pom.xml-ből idézve:

< dependency >
< groupId >org.jsoup< / groupId >
< artifactId >jsoup< / artifactId >
< version >1.7.3< / version >
< / dependency >

Előző cégnél kolléga egy hasonlót üzemeltetett sajátként és inkább eladta mert nem nagyon hozott pénzt.

De attól függetlenül ha élvezed és nem szempont hogy mindenképp pénz legyen belőle ne hagyd abba.

5let: egy site, amin arra lehet fogadasokat kotni, hogy Google mikor kukaz egy szolgaltatast. A nyereseg egy szolgaltatas kukazasakor kerulne kifizetesre annak fuggvenyeben, hogy ki mekkora osszeggel fogadott es mennyire volt kozel a tenyleges datumhoz.

Szerk: mondjuk meg kene varni a kovetkezo, Google Reader-hez hasonlo nagyobb szolgaltatasuk megszunteteset, akkor a hirtelen nagyon felkapotta valhatna egy ilyen site. :D

----------------------
"ONE OF THESE DAYS I'M GOING TO CUT YOU INTO LITTLE PIECES!!!$E$%#$#%^*^"
--> YouTube csatornám

Hmm. Ez nem pont az, amit én csinálok.
Vagy csak én bénáztam, és nem tudtam jól beállítani benne egy amazonos keresést.
Amúgy, ha a google azt csinálja, amit én csinálnék, akkor azt hiszem átengedem nekik a piacot.

Hát, a konklúzió az, hogy jegelem a projektet.

gondolj ra abbol a szempontbol is, hogy tudsz-e belole tanulni, ami mas, kesobbi projektekben vagy a cv-dben jol mutat...

--
"el nem birom kepzelni, hogy valakinek keves az 1.7 GB-os kvota" (hrgy84)

+1

Szvsz amig a sajat szemeddel nem lattad, hogy nem mukodik (es foleg hogy pontosan miert nem mukodik), addig kar jegelni.
En a helyedben azt csinalnam, hogy kineznek egy specifikus celcsoportot (pl. hasznaltauto-nepperek vagy ingatlanosok), csinalnek egy fapad verziot, ami pl. a hasznalt autokkal elboldogul jol (extrem esetben csak egy tipusu hasznalt autoval, lehetoleg valami eros rajongotaborral rendelkezovel), minden mas out of scope, es bedobnam a hup (de inkabb a HN) autonepperes megfelelojere. Ha egy het csiszolgatas utan onnan nem lesz senki, aki egy pizza arat raszanna a havi subscription-re, na, akkor kell jegelni.

--
"You're NOT paranoid, we really are out to get you!"

+1, olvasgasd Kádas Péter írásait (startupdate.hu), ő is azt mondja, hogy amíg csak álmodozol, addig nincs miről beszélni. Ha belevágsz, akkor validáld az ötletet (kérdezz meg idegeneket, hogy ők használnák-e, milyen funkciókat látnának szívesen, megérne-e nekik havi 200 HUF-ot ez a szolgáltatás, stb. -> a HUP nem számít, elfogultak és informatikusok vagyunk javarészt, nem tudunk ügyfél fejjel gondolkodni, márpedig marinéni lesz az ügyfeled, s nem Mr. Programozó). Ha itt már összeszedtél 10 mail cíamet, akiket komolyan érdekel, akkor lehet fejleszteni egy MVP-t (egy korai prototípust, ami _csak_ a core funkciót tartalmazza, nincs csicsa, nem kell bele minden hókuszpókusz), s demózni annak a 10 usernek (amit lehetőleg 100-ra emelsz a fejlesztési időszak alatt, mert az ügyfélszerzés nem állhat le a fejlesztés alatt sem), hogy erre gondoltál. Na ők vagy elhajtanak a bánatba, vagy tetszeni fog nekik. Ha elhajtanak, akkor sincs gond, lehet pivot még belőle (azaz újragondolni a stratégiát, a visszajelzések alapján kitalálni a kedvező módosítást). Ha ez sem jött be, akkor roló le. Ennél a korai fázisnál ne áldozz bele még milliókat lehetőleg :)

én most a feleségemmel pont albérletet keresünk
meglehetősen szűkre vett paraméterekkel, és jó lenne egy olcsóbbat megszerezni, eléggé elszálltak mostanában az árak

viszont az történik, hogy amint megjelenik egy új hirdetés, mire én is megkapom a naponta egyszer lefutó hirdetésfigyelőből, valaki más már el is ment, megnézte és le is foglalta

nekem ez most konkrétan pénzt érne, ha be tudom előzni a többieket, és havi 10-el olcsóbb albit tudok szerezni manuális munka nélkül

én irtam már a mobile.de-re ilyent, de ott 5 percenként kellett pollozni, vagy még surubben, mert a ritka szekereket elkapkodják. tehát ez máshol is lehet, tehát akár nagy infrastruktura igénye is lehet a játéknak.

------------------------
Jézus reset téged

Nekem az kérdés, hogyan egységesíted az adatokat? Pl az egyik helyen szerepel a motor köbcenti, másiknál nem. Vagy akár valahol szerepel a klíma típus (gyártó), máshol hogy automata - kézi, megint máshol meg hogy kétzónás. Ha valaki automatát keres, hogyan kapcsolod össze, adott típus az-e? Mindegyikre rákeresni, megnézni sok időbe tellhet minden egyes ilyen különbségnél.