14. 10. 2008. | #91 | |
dinosaurus
Master
Datum učlanjenja: 29.12.2005
Lokacija: Nova Engleska
Poruke: 636
Hvala: 79
263 "Hvala" u 66 poruka
|
Citat:
U stvari mislim da vrlo mali broj desktop korisnika ima instaliranu Javu (ja je sigurno nemam ni na jednoj mašini) a i oni koji je imaju instaliranu imaju različite verzije. Međutim, glavni problem je što Java (i ostali GC jezici, da ne bude da sam nešto posebno protiv Jave) jede memoriju kao luda što je čini vrlo lošim "građaninom desktopa". Ako je glavna aplikacija na kojoj radiš u datom trenutku pisana u Javi (npr Eclipse) đene-đene, ali za servis koji treba da bude što je moguće više neprimetan, Java je jako loš izbor. |
|
14. 10. 2008. | #92 | |
troll mode
Wrote a book
|
Citat:
Yes 89.15% Ovo su korisnici Furke, a za ovo su mahom krivi chat klijenti poput pricaonice na krstarici koja zahteva Javu, dakle Java nije toliko nezastupljena tehnologija koliko ljudi nisu svesni cinjenice da je imaju na racunaru Ali slazem se sa tobom da Java mozda nije najbolje resenje za ovako nesto, em je ona zahtevna em sami zahvtevi za edgios (1gb prostora, 512 ram) se mogu porediti sa zahtevima za neku relativno noviju igricu Kao logicno postavlja se pitanje, da li cu i zbog browsera morati da kupujem jachi rachunar XD |
|
14. 10. 2008. | #93 | |
novi član
Datum učlanjenja: 14.10.2008
Poruke: 2
Hvala: 0
0 "Hvala" u 0 poruka
|
Citat:
Takodje ukoliko pogledamo konkurenciju na gornjoj listi, Yahoo je u veoma losem polozaju, a njihov pristup je od pocetka bio suboptimalan, MSN pokusava ali nikako da krene, Ask manje vise izlazi iz igre tako da se konkurencija smanjuje tj. nagrada u slucaju uspeha povecava.Baidu i Yandex su kompanije u usponu koje jasno pokazuju vrednost uspesnog ucestvovanja u ovj igri. Polje u kojem smo mi (i Faroo, definitivno) su distribuisani pretrazivaci, i mi (i investitori) milsimo da je tu potencijal ogroman kao i sansa za ulazak u gornji specijalni klub Inace u vezi riskantnih invsticija, enormni sadasnji problemi na svetskim finansijskim trzistima su primarno uzrokovani ne riskantnim investicijama (rizik uvek postoji u bilo kakvoj investiciji) nego kladjenjem na dug ("leverage") tj pozajmljivanje para za kladjenje tako da su gubici u slucaju neuspeha 20, 50 pa cak i 100 puta veci od uloga. U VC investicijama dug ne postoji, ukoliko kompanija ne uspe sve sto je izgubljeno je ta investicija i nista vise. Time naravno investitori nece biti odusevljeni, ali to je deo njihovog biznisa i naseg ugovora sa njima. U vezi kupovine servera na kilo (tonu ) mislim da je najbolji primer Skype, oni su dostigli kriticnu masu prakticno bez ikakvih investicija u servere. To su dostigli neverovatno brzo (produkat lansiran leto 2003, prodat eBay za $2.6 mlrd jesen 2005) i to je mislim odlicna ilustracija prednosti distribuisanih pristupa. Naravno, druga veoma velika prednost je vrednost korisnika u procesu rankiranja. Tu cinjenicu search industrija odlicno zna, to vam mogu potvrditi iz njihovih usta (off the record) Manuelno skaliranje jeste uvek problem, ali nas pristup se zasniva na wisdom-of-crowds tj zajednickom menadzovanju tih aspekta. Inace, i Google i ostali imaju dosta stvari koje su manuelne, ali o kojime ne pricaju iz ociglednih razloga, narocito u oblasti rankiranja, spama kao i svezine rezultata. Sto se tice razloga zasto se stvari stavljaju u robots.txt, ne mislimo da su svi stavili robots.tx samo iz jednog razloga, ima ih gomila. U svakom slucaju deljenje informacija o necemu sto ste videli je apsolutno vase pravo, npr. da li iko moze da vam zabrani da kazete nekome recimo pismom, ili telefonom, sta ste videli interesantno na Internetu? Ocigledno ne, zasto da vam zabrani da tu informaciju podelite kompjuterom. To spada pod tzv "fair use" doktrinu u Americi. Naravno postavlja se interesantno pitanje komercijalnog koriscebja toga, sto jeste druga stvar, medjutim tu je upravo Google onaj koji koristi ceo Internet u njihove komercijalne svrhe - ove cinjenice je veoma svesna svetska izdavacka industrija i pokusavaju godinama da urade nesto po tom pitanju , do sada neuspesno. U vezi riskantnih stvari, ono sto je interesantno (meni) je da je najgora stvar sto moze da vam se desi da projekat ne uspe, s tim sto cak i u tom slucaju cete nauciti mnogo stvari, raditi na necemu sto vam se svidja i u sta verujete, kontrolisati svoju sudbinu. Naravno u slucaju uspeha, prica je potpuno druga. Poenta, sa moje tacke gledista, je da nemate sta da izgubite. Pozdrav, Bora |
|
14. 10. 2008. | #94 |
profesionalac
Professional
Datum učlanjenja: 11.01.2008
Poruke: 272
Hvala: 14
29 "Hvala" u 21 poruka
|
Boro, hvala na tvojim dosadasnjim odgovorima. Najpre da razjasnim: moja pitanja su sa stanovista obicnog korisnika tj. predstavnika te buduce kriticne mase od koje na kraju sve zavisi - dakle, marketinga. Vecina njih, naravno, nece biti sa Stanforda ali, pretpostavljam da cete na kraju imati sav moguc tehnicko-pravni large & fine print. Ono sto korisnike najpre zanima su odgovori na zdravorazumska pitanja o samom konceptu, o ideji iza projekta, radije nego o detaljima.
Koliko sam shvatila, a vi me molim vas ispravite ako negde gresim, vi polazite od pretpostavke da su klasicne crawler/bot/whatever-based search engines nepouzdane zato sto poseduju absolutnu kontrolu i monopol, kako nad obimom i vrstom indexa, tako i nad rezultatima pretrage i prikupljenim podacima. Vas p2p nacin pretrage direktno povezuje korisnike kroz volontersku mrezu zaobilazeci informacione centre. Jednom recju, demokratizacija search-a. Pri tom je svaki korisnik i dalje prikljucen na velike indexe i odatle kopa po katalogu po svom nahodjenju. Uspeh projekta zavisi od broja ucesnika ali i od kolicine i vrste materijala koju ovi “data miners” iskopaju. Ako znamo da “people go where bots don’t”, realno je kao rezultat ocekivati sveobuhvatniju i dublju pretragu. Prikupljeni podaci nece biti smesteni po centrima vec ce biti rasuti po nekoj vrsti “self-generating” mreze. A net around a net (wrap-around?), if you wish. Kad su u pitanju vlasnistvo nad i pristup informacijama, korisnici imaju opciju filtriranja podataka pre pustanja u mrezu cime se dobija veca kontrola i bolja zastita licnih podataka. Sa druge strane, content providers prirodno nastoje da sacuvaju tajnost podataka. Eliminacijom search engine middle man-a, povecava se privatnost. Prikljucenje na mrezu zahteva instaliranje aplikacije koja je besplatna. Evo neliko pitanja: 1. Da li mene kao korisnika obavezuje privacy policy u odnosu na search engines i kompanije sa kojima saradjujem? Ako ja sa svojih ekspedicija donesem i dalje pustim u promet neciji private and protected information, da li mogu da me tuze zbog toga? 2. Koji je ovde business model? Kako se planira komercijalizacija podataka prikupljenih od strane samih korisnika i sta korisnik dobija zauzvrat? Sponsored search profit sharing? Social networking utilities? Da li cemo zauzvrat imati Nick and Norah’s Infinite Search Lists? Any other benefits? 3. Koje su mogucnosti zloupotrebe? Tu ne mislim samo na security leaks nego i na manipulaciju rezultata pretrage. Da li cemo imati worldwide data mining sweatshops? Poslednja izmena od Lalaland : 14. 10. 2008. u 22:00. |
14. 10. 2008. | #95 |
Vladan Zirojević
Grand Master
|
Boro, hvala na pojasnjenjima i iskustvima.
Imam jos dva pitanja, oba o pravilima indeksiranja: 1. Ako je jedna od ideja da se (kako je navedeno gore) otvori mogucnost indeksiranja stranica koje inace nisu indeksirane (popularni oglasnici npr.) koji to ne dozvoljavaju standardnim metodama, zar nije realno da cete ubrzo dobiti pismo od njihovih advokata da ih stavite na globalnu blacklistu i da ih vise ne indeksirate? 2. Sto se tice robots.txt, jasno je da ima onih sto ih ne postuju. Da li vas slucaj ipak nije toliko drugaciji od ostalih ukoliko se stvari gledaju iz drugog ugla (ukoliko sam ja razumio pojasnjenja sa prethodnih strana?): Posmatrajmo racunar sa Edgios-om koji indeksira neku stranu (dakle, ne originalni posjetilac, vec racunar u mrezi koji ce stranu ubaciti u indeks) i njegovu aktivnost. To je u sustini softver koji programirano obilazi zadatu/e adresu/e u cilju indeksiranja. Pitanje je: uopsteno gledano, zasto je to drugacije o botova drugih pretrazivaca i zasto za njega ne bi trebala da veze pravila kao i za prave botove? Hvala unaprijed i puno uspjeha Poslednja izmena od zira : 14. 10. 2008. u 22:50. |
15. 10. 2008. | #96 |
majstor
Wrote a book
|
Ne odgovaram u Borino ime, ali kontam da je to jos neka 'siva zona' buduci da primjer sa google-om itekako ooslikava trenutnu situaciju, kad novinske kuce pokusavaju da zabrane da google indeksira njihove clanke i publikuje ih ali mu ipak ne mogu nista tj jos nisu dobili zabranu na to. Tako da mislim da jos nema pravne osnove da im to neko moze zabraniti.
|
15. 10. 2008. | #97 |
expert
Grand Master
|
^ problem sa robots.txt se resava lako
stavite na vashem sajtu info kako da sajt zabrani vasem botu (pardon, softwaru) da siri info o tom sajtu kao: posto smo mi razliciti, mi ne citamo standardne direktive u robots.txt ali, posto smo fini i kulturni, evo kako mozete da nam ukazete sta da radimo s vasim sadrzajem (i onda ide red koji trebaju dodati u robots.txt) ovo bi bilo neko srednje resenje licno mislim da nepostovanje robots.txt-a nije lepo, iako ima tu i toga da ovo nije klasicni 'dodatni' bot inace, interesantna ideja, ima dosta stvari koje treba izjasniti - privacy, kako cete privuci kriticnu masu itd u svakom slucaju ocekujem da ce se indeks puniti segment po segment recimo, ako ovo pocnu da koriste IT people onda ce takvi sajtov biti dobro indeksirani te ce za tu oblast edgios biti relevantan. praticu s interesovanjem razvoj srecno |
15. 10. 2008. | #98 | |
Moderator
Wrote a book
Datum učlanjenja: 09.06.2005
Lokacija: Beograd
Poruke: 1.165
Hvala: 71
175 "Hvala" u 58 poruka
|
Zanimljivo je krenuti na ovo polje, mogucnosti su zaista velike, slazem se, ali i jos veca ocekivanja korisnika koje necim boljim treba navesti da ne koriste pretrazivac koji vec koriste.
Citat:
Ne bih se bas slozio "da se sve vise siri u javnosti svest da je tzv "user attention data" npr. istorija vasih pretraga i klikova koju cuvaju pretrazivaci veoma bitna i moze da bude osnova za veliko poboljsanje kvaliteta." Pre bih rekao da su pretrazivacke kompanije sve vise na udaru zbog tih istih istorija pretraga kao i kompanije koje se bave behaviour advertajzingom. Slazem se da to moze da bude korisno za korisnike da dobiju relevatnije rezultate pretrage nego sada ali ko im moze garantovati da informacije o njihovim aktivnostima nece biti iskoriscnei u druge svrhe. Mnoge stvari kada zele da se uvedu se predstavljaju u smislu "to je u najboljem interesu korisnika", ali znate i sami kako ide ona izreka gde se spominje poplocani put i najbolje namere. To je isto kao kada bi se promovisalo u svetu da je RFID cipovanje ljudi jako dobro i u njihovom najboljem interesu zbog njihove bezbednosti. Takodje, problem je u tome sto je potrebno instalirati softver da bi se vrsila pretraga. Mislim da su idealna ciljna grupa za ovakve pretrazivace korisnici koji vole da koriste i druge P2P mreze ali iako sam na Internetu vise od 10 godina i nikad nisam koristio njednu P2P mrezu za skidanje programa, takva stvar je ok za razmenu fajlova ali mislim da instaliranje softvera zbog pretrage i insistiranje na Javi nije bas najbolje za osobe koje bas nisu web savvy. Ne treba se bas pravity hype oko ovoga, i Cuil je predstavljen kao the next Google killer i pre nego sto je lansiran samo zato sto su ga osnovali XGooglersi pa nisam siguran da je praksa pokazala to. Isti slucaj i sa Mahalom. Sustina: Da li mislim da ce ovaj sajt biti the next big thing? Ne mislim. Da li mislim da ce se vremenom ovaj sajt zbog necega dobro prodati? Vrlo moguce. Ali kada kazem "dobro prodati" ne mislim na cifre koje se spominju za Yandex i druge iz heavyweight kategorije. Btw. ime za sajt je moglo biti znatno bolje od ovog, barem je neko postojece ime moglo biti otkupljeno kada vec postoje investicije. Ovako jako lici na propali projekat Michael Arringtona Edgeio.
__________________
Flirtic.rs - social dating baziran na testovima i anketama | Karike.com - upoznaj nove osobe Poslednja izmena od Dejan Bizinger : 15. 10. 2008. u 18:15. |
|
15. 10. 2008. | #99 |
Goran Pilipović
Sir Write-a-Lot
|
Slazem se sa Bizingerom, plasim se da ovo nikada nece postati "everyday app", ko god hoce da pretrazuje verovatno ce uvek koristiti google ili yahoo (tradicionalne search engine), a bojim se da ce edgios i slicni alternativni search engine ostati samo za slucajeve kada pozelis 'malo da se igras". Nije pretraga samo "da li postoji" vec i koliko je relevantno, a ako sam ja dobro shvatio ceo koncept, relevantnost pronadjenih podataka preko edgios jako zavisi od subjektivnih elemenata.
Veliki problem je i to instaliranje, mora odmah da se oduzme deo populacije koji to ne zna da uradi i deo koji to ne zeli. Eto odmah velikog problema sa subejtivnoscu. Zar nije Alexa imao isti problem iz istih razloga (alexa toolbar). Da sam ja na vasem mestu, verovatno mi ne bih palo na pamet da se promovisem kao konkurencija tradicionalnim pretrazivacima, pre bih isao na nesto geek-ish.
__________________
Goran Pilipović a.k.a. Ugly Fingers Bradley f.k.a. bluesman I don't always know what I'm talking about but I know I'm right! |
15. 10. 2008. | #100 |
profesionalac
Professional
Datum učlanjenja: 11.01.2008
Poruke: 272
Hvala: 14
29 "Hvala" u 21 poruka
|
Meni licno najvise smeta sto je ceo koncept, ovako kako je dosad predstavljen, u sustini parazitski (loaded word, I know...): zivi na tudjem hardware-u, hrani se vec postojecim indexom koji mu donose pcele radilice a da za uzvrat ne dobijaju nista (osim mozda liability). Tough sell. Al' to smo sad vec svi rekli, da ne davim dalje.
|
|
|
Slične teme | ||||
Tema | Početna poruka teme | Forum | Odgovori | Poslednja poruka |
Digitalna svetska elita u Minhenu - DLD 07 | Dejan Bizinger | Opušteno | 3 | 28. 01. 2007. 23:12 |