A webrobotok torzítják a statisztikákat

Zsadányi Pál, 2001. szeptember 23. 10:51
A WebSideStory Inc. média-tanácsadó és intelligens e-üzleti távszolgáltató (outsourcing, ASP) cég szerint a webrobotok (web crawlers, robots, spiders) meghamisítják a látogatási statisztikákat, mert az automata igények kiszolgálása lényegesen különbözik a valódi látogatók igényeitől.
Kérdés, hogy mekkora az ebből származó hiba. Sajnos ez nagyon változó. Az ABC Interactive (ABCi) webelemző cég szerint ez 3 százaléktól akár 30 százalékig is terjedhet, az átlag pedig 7 százaléknyi. A logállományok riportjaiból nehéz kiszűrni az automata szolgálatok forgalmát. Ez meghamisítja azt az információt, amit a hirdető cégek kapnak a weblapok látogatottságáról.

A PenWell cég elemzőinek rengeteg idejét rabolja rendszeresen, hogy kivadásszák a logállományok inkonzisztens adatait a hónapról honapra készülő statisztikai jelentéseikből. Most a PenWell áttért a WebSideStrory HitBox Enterprise szoftverének a használatára, és azóta sokkal nyugodtabbak. Most már ki merik jelenteni, hogy tényleg hirdetési eredményeket tudnak megadni, nem pedig becsült forgalmat. A HitBox ugyanis sikeresen tudja szűrni a webrobotok torzításait. A helyzet pedig az, hogy már vagy 750 robot kószál a weben, és a számuk folyton nő, amint azt az ABCi állítja. A szűrés tehát elég kemény feladat.

A webrobotok olyan szoftverek, amelyek a web objektumairól gyűjtenek különféle, lényegében hasznos információkat. Ilyen például az, hogy milyen operációs rendszerrel vagy milyen hardverek használatával üzemel a felkeresett csomóponti gép.