"A. Høegh" <hoegh@click2find.dk> wrote in message
news:9ck79a$4il$1@news.inet.tele.dk...
> > Hvad får dig til at tro at det bliver hevet direkte ud fra en database?
> > Jeg vil da tro, at det er html-filer, som bliver opdateret engang
> > imellem (f.eks. hver nat).
> >
http://www.kvasir.dk/l/Computer/index.shtml
>
> Tror du at de gider side og holde 500-1000 kategorier ved lige manuelt? Og
> forklar mig evt. hvordan de så kan søge deres sider og finde links..
Jeg tror du misforstår, når du tolker det til at de "gør det manuelt". Hvis
du har en applikation med store krav til performance, kan du ofte med fordel
generere output med et bestemt tidsinterval, f.eks. en gang i timen, og så
spytte det ud til klienterne som statiske sider - princippet har også et
navn, nemlig "caching". Det skal ses som modsætning til det traditionelle
princip, hvor man genererer indholdet dynamisk on-the-fly for hvert eneste
request. Med caching er du næsten have fjernet følsomheden overfor
trafikmængden - så længe netkort, webserversoftware og diske kan følge med
kan din applikation følge med, og det betyder altså at der skal et
usandsynligt stort pres til for at bringe applikationen i knæ.
Caching kan implementeres på mange forskellige måder, i det aktuelle
tilfælde ser det ud til at de skriver outputet som statiske HTML-filer til
filsystemet. En anden fremgangsmåde er at bruge RAM til at gemme cachen i,
en metode der bruges i næste generation af ASP, ASP.NET. Her findes der
virkelig nogle lækre metoder til nemt og effektivt at styre caching af
applikationer, sider eller endda delelementer på en side.
Mht. til dit sidste spørgsmål, så fungerer Kvasir's søgning noget anderledes
end indekssiderne - her er de nødt til generere outputet dynamiske hver
gang. Jeg kan også med rimelig sikkerhed afsløre at de bruger noget mere
effektivt end søgning via LIKE i en Access database
De bruger formentlig
et fritekstindekseringssystem, som du bl.a. også kan finde i SQL Server.
Mvh. Hendrik