HomeKontaktImpressum
Sie sind hier: Home

Homepage Traffic als Werbung

Crawler von Suchmaschinen und Anbieter von Content-Aggregatoren sind nicht die Einzigen, die automatisierten Homepage Traffic erzeugen. Neben diesen Betreibern gibt es einige Dienstleister, die es als eine besonders gute Idee erachten, über die Penetration von fremden Webserver Aufmerksamkeit zu erlangen und letztlich Kunden zu gewinnen.

Suchmaschinen und auch einige Aggregatoren von Seiteninhalten haben sicher hier und da einen triftigen Grund den Content einer Internetseite abzurufen. Werden die Inhalte zum Zwecke des Aufbaus eines Suchindexes durch eine Suchmaschine benötigt, so profitiert der Seitenbetreiber am Ende durch die von der Suchmaschine vermittelten Seitenbesucher. Demnach ist es im Interesse eines Seitenbetreibers Suchmaschinen – bzw. deren Crawler – den Zugriff auf die eigenen Inhalte möglichst zu vereinfachen und dafür zu sorgen, dass neuer Content so schnell wie eben möglich durch deren Bots registriert wird. Umso schneller landen dann auch die Seiten in den Suchergebnissen und liefern potenzielle Interessenten oder gar Käufer.

Einige Anbieter diverser Dienstleistungen – insbesondere aus Bereichen rund um das Thema Internet-Services – haben allerdings einen ganz anderen Grund bei einem anderen Seitenbetreiber Homepage Traffic zu generieren. Dabei handelt es sich normalerweise um Aufmerksamkeit heischende Anbieter, die ihre eigenen Angebote an den Kunden bringen möchten und potenzielle Interessenten quasi über ihre Webserver-Logdateien ansprechen möchten. Auch wenn die Idee nicht gerade neu ist, wird dieser Mechanismus nach wie vor durch zahlreiche Service-Anbieter genutzt. Da die meisten Statistik-Tools auch eine Zusammenstellung der durch Besucher genutzten User-Agenten auflisten, fallen häufig genannte Vertreter mit einer enthaltenen URL, die auf den Betrieber hinweisen, ins Auge. Einige der so angesprochenen Seitenbetreiber werden sich über dessen Internetseite nach dem Urheber des Bots erkundigen, wodurch eventuell der Ein oder Andere Kontakt zustande kommt.

Darüber hinaus gibt es Crawler, deren „Auftraggeber” mit dem durch sie angeforderten Homepage Traffic anderes im Sinn haben: Diese Vertreter versuchen sich mittels entsprechender Angabe zum Referer im HTTP-Request-Header in den ggf. öffentlich zugänglichen Webserver-Statistiken einer fremden Website zu verewigen. Dort tauchen dann Verweise zu ihrem eigenen Internetangebot auf, welche von Suchmaschinen als Hinweis auf ihr Angebot – quasi als Empfehlung – gewertet werden. Ein schöner Nebeneffekt ist auch hier der, dass zumindest einige der auf diese Weise angegangene Seitenbetreiber sich die Seite, durch die so viele Besucher auf ihre eigene Website verwiesen wurden, anschauen. Für den Bot-Betreiber immerhin ein Besucher, der sonst eventuell nie auf seine Seite gelangt wäre. Zu erkennen sind diese Versuche ebenfalls im Logfile des Webservers bzw. in dem statistischen Auswertungen des Website Traffics.

Die meisten dieser künstlichen Besucher lassen sich durch gewisse Techniken von der eigenen Homepage fern halten. Nachdem die „unnötigen” Besucher als solche erkannt wurden, lässt sich der ungewollte Homepage Traffic entweder über die Datei Robots.txt oder mittels entsprechender Angaben in der .htaccess-Datei vermeiden. Während die in der Robots.txt-Datei angegebenen Vorgaben zum Ausschluss von Crawlern durch diese nicht unbedingt beachtet werden müssen, können bestimmte Clients über letzteren Weg komplett ausgesperrt werden. Dabei kann eine Sperrung sowohl auf Basis von IP-Adressen als auch aufgrund bestimmter Angaben im Referer oder User-Agent realisiert werden.

Seite 2 von 2 | « [1] • [2] »













  
© 2009-2020 Möglichkeiten zur Steigerung von Geschwindigkeit und Usability Ihrer eigenen Website