HomeKontaktImpressum
Sie sind hier: Home

Unnötiger Website Traffic

Normalerweise ist der anfallende Website Traffic durch den Seitenbetreiber gewünscht und ein erfreuliches Zeichen für den Erfolg einer Homepage. Doch nicht jeder anfragende Client wird auch durch einen „echten” Besucher bedient. Damit der Webserver nicht unnötig ausgebremst wird, sollten überflüssige Anfragen an den Server vermieden werden.

Eigentlich sind Anfragen, die an den Webserver gestellt werden, für den Website Anbieter ein erfreuliches Zeichen. Schließlich bedeutet dies, dass ein Angebot genutzt und durch andere wahrgenommen wird und genau das ist es, was der Seitenbetreiber normalerweise erreichen will. Allerdings wird nicht jede Seitenanfrage auch durch einen Seitenbesucher, also eine Person, die sich die Seite auch anschaut bzw. durchliest, initiiert.

Ein nicht unerheblicher Teil der Anfragen an einen Webserver wird durch Scripte generiert. Hier handelt es sich eben nicht um eine natürliche Person sondern ein Programm, welches das Internet mit den verschiedensten Beweggründen durchforstet. Hierzu zählen beispielsweise auch die Crawler der Suchmaschinenbetreiber, die Inhalte für die durch sie angebotene Suche abfragen und aufbereiten. Derartige – auch Bots genannte – Abfragen erzeugen natürlich ebenfalls Website Traffic, allerdings ist der Besuch dieser Crawler normalerweise auch ausdrücklich erwünscht. Aber nicht jeder durch Crawler generierte Zugriff auf eine Internetseite ist für den Homepage Betreiber von Vorteil.

Es gibt zahlreiche Bots, die das Internet rund um die Uhr nach den unterschiedlichsten Informationen durchforsten. So gibt es etwa spezialiserte Portale, die im Netz nach Stellenanzeigen suchen, die sie wiederum auf ihrem Portal sammeln und entsprechend darstellen. Wenn nun der Betreiber einer komplexen Homepage mit sehr vielen Einzelseiten keine Jobangebote vorhält oder diese nur in einem bestimmten Bereich seines Internetauftritts sammelt, dann ist es nicht sinnvoll, dass der Crawler die gesamten Seiten abruft und nach Stellenangeboten durchsucht. Letztlich entsteht durch den Crawler überflüssiger Traffic, der – aufgrund der durch den Bot gebundenen Webserver-Resourcen – dazu führt, dass der „normale” Seitenbesucher länger auf die durch ihn abgerufenen Internetseiten wartet.

Neben solchen Portalen existieren viele andere Anbieter, welche die Aggregation von Inhalten jeweils mit einem anderen Ziel betreiben. Viele Unternehmen haben sich beispielsweise darauf spezialisiert, Inhalte speziell nach Bedarf ihrer Kunden zusammenzustellen und mit individuellen Rahmenbedingungen einem betriebsinternen Data-Mining zuzuführen. Dabei werden spezielle Suchverfahren implementiert, die auf die durch ihre Kunden gewünschten Nutzungsprofile abgestimmt sind.

Zwar fragen die Betreiber derartiger Dienstleistungen einzelne Seiten nicht gerade im Sekundentakt ab, da die Seiteninhalte sich nicht ständig ändern und sie die Anbieter der durchforsteten Homepages nicht unnötig vergrätzen wollen. Dafür gibt es aber mittlerweile einige dieser Content-Aggregatoren, die – gerade bei umfangreichen Internetauftritten – mit ihren Anfragen eine Webserver durchaus beschäftigen und dabei erhebliche Datenmengen abrufen. Als Betreiber einer Homepage sollte man allerdings nicht gleich jedem unbekannten Bot den Zugriff auf ein Homepage Angebot verweigern. Dabei sollte man sorgfältig abwägen, ob man den Website Traffic sparen und einen Bot ausschließen sollte oder nicht. Im Grunde ist eine gründliche Analyse der Log-Dateien des Webservers und die darauf basierende Recherche im Hinblick auf die Beweggründe der Bot-Betreiber die einzige Möglichkeit zu einer vernünftigen Entscheidung zu gelangen.

Seite 1 von 2 | « [1] • [2] »












  
© 2009-2017 Möglichkeiten zur Steigerung von Geschwindigkeit und Usability Ihrer eigenen Website