On 21 Nov., 11:50, "Leif Neland" <l...@neland.dk> wrote:
> Kan man mon ikke regne med, at hvis man frasorterer de, hvor user_agent
> indeholder 'spider','crawler' eller 'bot', så går det ikke ud over nogen
> brower brugt af et menneske?
>
> Det er for at frasortere botter til en hitcounter, så det skal ikke være
> 110% præcist.
Jeg har kørt med en sådan igennem flere år:
if inUserAgent("
http://", "bot") then isBot=True
110% sikker er den ikke. Har oplevet én, som jeg er ret sikker på, er
efterligning af GoogleBot via Firefox extension (pga. surfing-
mønsteret).
Du kan så frasortere, hvis referer andet end din side (eller tom), for
ingen af de søgebotter vil have en referer, som ikke refererer til
den, de gennemsøger.
Men dette tager også kun de godartede botter. Du er vel nødt til at
have de ondartede med også.
isEvilBot = inUserAgent("Firefox 2.0","IE 6.0","JAVA") AND
GZIPNotSupported.
Du kan yderligere kende de onde fra de gode, fordi mange onde henter i
nøjagtigt ens rækkefølge, samt de overholder ikke god skik om et vist
tidsrum imellem nedhentninger. Man kan lave lidt "real time"
evalueringer over hastigheden på en bestemt bruger, men så langt kom
jeg aldrig selv, at jeg fik lavet et brugbart (analyse)script.
MVH
Rune Jensen