Citat:
Originalno napisao ivanhoe
pa cak i ako ces svaki podatak da drzis kao zaseban fajl opet imas problem jer na linuxu na ext2 i ext 3 veliki broj fajlova u istom dir-u smanjuje (prilicno) perfomanse..
a najcesce se kes ne pravi tako, nego se koristi neka vrsta indexirane strukture tipa DBM baze ili se koristi deljena memorija ili se cak koristi optimizovana tabela u obicnoj bazi (ima smisla za keshiranje podataka nastalih komplikovanim upitima)
Kako god da bilo, sto imas vise podataka teze ces pronaci onaj koji ti treba, i jos znacajnije sporije ce ti biti sve operacije odrzavanja tog kesa (ubacivanje novih, brisanje expired podataka i sl..)....to je naprosto neminovno...
|
Žao mi je, ali ništa od ovoga nije tačno.
- broj fajlova nema veze sa performansama ako gađaš fajl tačno po imenu; kod svih normalnih sistema, u pitanju je binarno stablo ili slična struktura, tako da se do fajla vrlo brzo dolazi
- indeksiranje keš strukture se uvek bira tako da nije linearno (sekvencijalno) jer onda naprosto ne bi imalo smisla
- sve operacije rada sa kešom se prave tako da otprilike imaju isto koštanje, odnosno da ne zavise (malo zavise) od veličine keša.
Primer:
Binary Tree: pretraga je reda O(log n) što znači:
-za 100 itema: 5
- za 1000 itema: 7
- za 1,000,000 itema: 14
Tačno je da može i da ode na n ali se algoritmi tako prave da se stablo prilikom add/delete uvek balansira i održava u što boljem stanju.