Leistungen

Suchmaschinenoptimierung
Suchmaschinenmarketing

Grundlagen zur Suchmaschinenoptimierung


Unzulässige Maßnahmen

Diese Definition wird nach Google vorgenommen. Viele Suchmaschinenoptimierer verwenden Optimierungsmaßnahmen, die unerwünschte Manipulationen sind. Wir distanzieren uns ausdrücklich davon. Ganz abgesehen davon kann es passieren, dass diese Maßnahmen als Spam gewertet und zum Verlust Ihrer Indexierung bei Google führen können.
Damit Sie wissen, was wir meinen, zeigen wir Ihnen her eine kleine Übersicht dieser manipulativen Maßnahmen. Wir freuen uns über jede E-Mail die diese Übersicht ein wenig vervollständigt.

Google Bomb
Eintrag einer Seite in möglichst vielen Foren mit Texten, die einen Suchbegriff enthalten. Berühmtestes Beispiel ist der Begriff "failure", der durch eine Google-Bomb zur Homepage von George W. Bush führte. Dies gelang, obwohl der Begriff "miserablefailure" (engl. für „elender Versager“) auf dessen Seite nicht einmal vorkam. Nach Ändern der Bewertungsregeln bei Google kann dies eigentlich nicht mehr vorkommen. Dies blieb so, bis zu dem Tag, an dem ein Mitarbeiter den Begriff in einem anderen Kontext verwendet und online gestellt hat. Dies konnte übrigens deshalb so gut realisiert werden, weil offizielle Regierungsseiten generell einen sehr guten Pagerank besitzen und somit leicht mit bestimmten Begriffen nach oben gebracht werden können.

Linkfarm
Eine Seite bzw. viele Seiten, die immer wieder zu einer bestimmten Seite führen und die rein virtuell erstellt werden. Teilweise auch Kataloge, in denen jede eingetragene Person eine eigene Unterseite erhält, in der dann wieder ein Link zum Farmer steht. Zum Teil werden diese Seiten automatisch immer wieder neu zusammengestellt. Dabei ändern sich die verzeichneten Links und Texte ständig.

Kommentarlinks
Beliebte Methode einiger Suchmaschinenoptimierer, in dem Quellcode der Kunden einen Link zu sich selbst zu verstecken. In der Regel haben diese Links auch dann noch Bestand, wenn der Kunde die Zusammenarbeit aufgrund massiver Unzufriedenheit aufgibt. Der Kunde wirbt unbeabsichtigt weiter für den Suchmaschinenoptimierer. Wer dann entsprechend lange am Markt ist, hat so viele Links zur eigenen Seite, dass seine Position kaum angreifbar wird.

Klickroboter
Früher eine relativ einfache Methode, eine Seite bei Google nach oben zu bringen. Ein PC verwendet immer wieder die gleichen Suchbegriffe und wählt dann die zu puschende Seite aus und klickt diese bei Google an. Eine sehr häufige Realisation solcher Fake-Klicks lässt Google glauben, diese Seite sei besonders interessant. Ein Nachteil an dieser Methode ist, dass der Kunde nicht erkennt, wie viele echte Besucher er hat. Gerne werden bei den Optimierern diese Methoden verwendet, um dem Kunden ein Anwachsen der Besuche zu vermitteln.
Diese Methode ist mittlerweile etwas schwieriger geworden, da Google verschiedene Informationen zu den Besuchern, die die Klicks ausführen, sammelt.
Google erkennt mindestens diese Informationen auf Ihrem PC:
  • Browser
  • Vorhandene Cookies
  • alte Suchen
  • Letzte Suchen, wenn Google im Browser integriert wurde
  • Monitoreinstellung
  • Betriebssystem
  • Regionale Herkunft
  • Userverhalten bei den letzten Seitenaufrufen
  • Einstellungen zu Cookie und ähnliches
  • Natürliche Uhrzeit der Anfrage
Sofern diese Daten bei den Seitenaufrufen eines bestimmten Unternehmens von einem Durchschnittswert zu sehr abweicht, wird dies als Spam gewertet.
Mit entsprechenden Maßnahmen lässt sich Google jedoch noch immer austricksen.

Ein erfolgreicher Klickroboter ist möglich
(Achtung: wir lehnen dieses Vorgehen ab und praktizieren es auch nicht!)
Über Proxyserver lassen sich unterschiedliche Einwahlknoten realisieren. Damit werden Anfragen scheinbar aus allen Regionen gesendet.
Über das natürliche Userverhalten (Zeit, Suchbegriffe etc.) der echten Besucher lassen sich die für die Simulation des Klickroboters wichtigen Daten sammeln und tagesaktuell wieder verwerten. Das macht insbesondere für die Suchmaschinenoptimierer selbst Sinn, ist zum Teil aber auch mit Daten aus Trackingtools zu realisieren.
Weiterhin ist es möglich, den Suchmaschinen einen simulierten PC zu liefern. Hierzu muss zunächst das Übergabeprotokoll des Rechners an die andere Seite ausgelesen werden. Die Datenstruktur und Reihenfolge der Informationen, die ein Besucherrechner an den Webserver sendet, kann ausgelesen und mittels Softwaretool gespeichert werden. Erstellt man nun ein Simulationsprogramm, welches beim Einwählen eine ausgewählte Rechnerkonfiguration darstellt, so kann Google diesen Unterschied nicht mehr feststellen.
Perfekt wird dieses Vorgehen, wenn immer die Daten eines natürlichen Besuchers genommen werden, der nicht über Google zur Webseite kommt.
Zu diesen Rechnerdaten fügt man seine Ortsdaten für die Einwahl über den Proxsyserver hinzu.
Sofern dann noch ein Abbild der Cookies aus seinem PC geschaffen wird, ist die Simulation fast perfekt.
Bleibt das Problem der Historie. Theoretisch kann dieses Vorgehen bei jedem Einwählen eines natürlichen Users durchgeführt werden. In dem Augenblick, in dem ein User auf direktem Wege (nicht über eine Suchmaschine) zu Ihrem Server kommt, startet das Programm und simuliert zugleich den Rechner Ihres Besuchers bei Google. Die Protokollanfragen inkl. Codierung, die von Google kommen, werden dann an den Kundenrechner weitergeleitet und die zusätzlichen Daten über die zuletzt besuchten Seiten können so herausgelesen und wieder zurück an Google gesendet werden.

Für dieses Vorgehen einiges an Fachwissen erforderlich. Vor allem aber: es ist unmoralisch. Weiterhin sehen wir bei diesem Vorgehen einige Grundregeln des Datenschutzes mißachtet. Inwieweit dieses Vorgehen strafbar ist, wissen wir nicht. In jedem Fall lehnen wir dieses Vorgehen ab. Aufgrund dessen haben wir in der Beschreibung einige kleine aber wesentliche Punkte weggelassen oder so vereinfacht dargestellt, dass eine Verwertung dieser Information unwahrscheinlich bleibt.

« Weitere Begriffe


 
Agentur Frankfurt Stuttgart