Hej søren,
jeg går udfra at du snakker om søgemaskiner som Google og lign., hvis
ja, så er løsningen her:
Lav et dokument og kald det robots.txt, og indsæt dette i dokumentet:
User-Agent: *
Allow: /
Disallow: /Mappen_som_ikke_skal_søges_i
og lig det i roden af din side. F.eks.
www.DitDomæne.dk/robots.txt
Du kan også gøre så deres søgebotter hopper over hele siden, så
bare fjern Allow og sæt Disallow til /.
Et "real life" eksempel kunne være dette..
Jeg har domænet,
www.Mit-Domæne.dk.
Der har jeg noget hemmeligt i mappen, hemmeligt.
Det må søgemaskinen på ingen måde finde!
Jeg laver så en tekstfil, robots.txt, med indholdet:
User-Agent: *
Allow: /
Disallow: /hemmeligt
og ligger i roden af mit domæne (
www.Mit-Domæne.dk/robots.txt)
og nu kan de ikke finde mit stuff.
Men nu har jeg lavet hele min side hemmelig, hvad så nu?
Jo, jeg indsætter bare:
User-Agent: *
Disallow: /
i min robots.txt.
Men hvad nu hvis alt dette ikke virker?
Så indsætter man bare META-tagget:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
på alle de sider der ikke på blive søgt i.
Hvad med enkelt-filer, som skal beskyttes fra robots.txt?
User-Agent: *
Allow: /
Disallow: /hemmeligt/hemmeligFil.html
Så alt ialt, alle de sider der er sat til Disallow, vil søgebotterne
bare hoppe over.