Suchmaschinen und die Gefahr aus dem Index zu fliegen, dafür gibt es Hilfe und nur einen Begriff der alles zusammenfasst „BlackHat Seo“. Viele nutzen es und es gibt unzählige verschiedene Ansichten und Aussagen dazu. Ist es denn überhaupt SEO also die Suchmaschinen Optimierung? Grundsätzlich geht es um das Ausstechen und die Umgehung einiger Richtlinien der Suchmaschinen. Doch reden wir mal über die bekanntesten Praktiken wie Cloaking, Invisible Texten, Keyword Spamming oder Doorway-Pages.
Dazu fällt mir auf, das es kein Gegenteil zum Wort Optimierung gibt komisch oder? Ich sage einfach mal Zerstörung dazu denn nichts anderes kommt heraus wenn man anfängt mit den folgenden Praktiken zu arbeiten.
Das Cloaking: Hier wird versucht von einem Robot eine Seite so aufzubauen, dass die Suchmaschinen einen ganz anderen Inhalt übermitteln bekommen wie denn der Besucher. Sehr oft sind es voll geladenen Keyword Seiten mit massivem Inhalt. Es werden Seiten mit Texten erstellt die genau die hohen Suchbegriffe beinhalten. Der Besucher wird diese Seite nicht sehen und direkt auf eine andere umgeleitet. Das Ranking ist leider von solchen Seiten oft sehr gut und wird nicht immer von den SUMA’s direkt erkannt. Ist es aber einmal bekannt wird diese Seite aus dem Index verschwinden.
Der Invisible Text: Ist eine komplexe Praktik und wird sehr oft von Anfängern genutzt. Durch Feinheiten im CSS werden Wörter und ganze Artikel mit z.B. der gleichen Hintergrundfarbe in die Seite eingebunden. Da Content King ist nutzt man diesen Vorteil aus und packt uninteressanten Text für den Besucher unsichtbar in die Seite. Hier wird den SUMA’s andere Inhalte vorgeschummelt und genauso wird es dann bei erkennen abgestraft. Habt ihr mal bei einigen Seiten die oben nur Banner haben geschaut? Scrollt weiter runter, dort steht meist eine Menge an Müll. Wenn Ihr mit CTRL+A mal alles markiert seht ihr die versteckten texte auch meist.
Das Keyword Spamming: Eine nicht ganz uninteressante Sache, denn wir bewegen uns immer auf Messers schneide, sollten wir ein Keyword zu häufig im Text nutzen. Eine Aussage, dass das Vorkommen eines Keywords um die 3% im Text nicht überschreiten soll ist meiner Meinung nach nicht mehr relevant. Dieses Stuffing also Vollstopfen und zigfach wiederholen der Keywords lest sich meist auch nicht so besonders im Text. Klar der einmal Effekt ist dann sicher da und man bekommt Besucher. Doch ist es das Wert? Ich glaube das ein guter Text auch mehrfach Keywords enthalten kann wenn es passt und einem dadurch keine Nachteile entstehen.
Die Doorway Pages: Hatte eine große Zukunft bis sie dann ausgenutzt wurde und von den BlackHat Nutzern in den verkehrten Reigen eingebunden wurde. Die Brückenseite als Klassiker leitet auf die zu bewerbende Seite um. Hiergegen ist nichts zu sagen, denn eine Landing oder Jump Page zu bauen hat ja auch seinen Grund. In Shopping Systemen hat man sehr oft nicht die Möglichkeit Texte oder Artikel einzubinden. Diese sind aber, wie ihr wisst ein wichtiger Bestandteil. Also bauen wir eine Seite und füllen sie bestenfalls mit Informationen und Links zu unserem Shop. Wird dieses ordentlich gemacht spricht nichts dagegen. Sollte dies aber ausgenutzt werden (die großen Suchmaschinen erkennen es sehr oft) wird auch dieses zum Ausschluss aus dem Index führen. Leider leiden sehr oft die wirklich guten Spiegelseiten darunter und werden mit abgestraft.
Solltet ihr also vorhaben eure Seiten schlecht gelistet zu sehen oder aus dem Index verschwinden zu lassen. Nutzt diese Beispiele ruhig. Haut eure Keywords bis zum Abwinken schon direkt in den Titel. Wenn ihr dann schon mal dabei seit zusätzlich einen kopierten Text in der Hintergrundfarbe oben in den Head. Solltet ihr es dennoch nicht schaffen aus dem Index zu fliegen oder euer Ranking zu verschlechtern gibt es im Bereich BlackHat noch so einige Dinge die euch helfen können. Also probiert es aus und ihr werdet erstaunt sein wie schnell es geht. Ich glaube nur nicht das ihr es wollt und das einzige was gegen alles hilft ist Geduld und guter Content. Je mehr User sauber arbeiten desto einfacher ist es für die SUMA’s die anderen zu identifizieren.
Bewegt ihr euch am Rande der Nutzung oder habt ihr schon einmal unbewußt die Grenze überschritten? Kennt ihr den Effekt aus dem Index zu fliegen und vielleicht auch unbegründet? Was sind eure Richtlinien für die Anzahl der Keywords?
In dem Sinne eine White SEO Time und immer ein Keyword weniger im Sinn.
3% maximal Keyworddichte? Also bisher hab ich die Erfahrung gemacht, das 7-8% Keyworddichte optimal ist, gegebenfalls wenn man sich nicht sicher ist benutzt man halt Sinonyme.
@Youth FM
OK 7% Keyworddichte sind ja schon einige mehr. Ich bin bis jetzt mit den 3% gut ausgekommen.
Berechnest du sie vorher oder schreibst du sie einfach in den Text und schaust dann nach wie stark sie vertreten sind
und optimierst dann nach? Sinomye sind sehr oft gut wenn ein Keyword wie z.B. E-Mail etc. zu viele Mitbewerber hat.
Damit steuerst du dann ganz genau die suchende Leserschaft zu dir.
Ich kenne einige Seiten die sich z.Z. mit Keyword Spamming auf Top Position halten und dies schon seit einigen Monaten! Google scheint mit der Erkennung noch einige Probleme zuhaben. Mir ist gerade aufgefallen das du ein Thema vergessen hast … Linktausch Spamming. Es gibt etliche Seiten die tausende von E-Mails täglich versenden und im Anschluss durch Spam Reports abgestraft werden.
Ich habe bisher noch nie so wirklich auf die Nutzung meiner Keywords in meinen Berichten geachtet, also könnten es bei mir mal mehr mal weniger sein. Ausserdem sollte man auch nicht aus den Augen verlieren, das ihr eure Posts für die Besucher schreibt, nicht für die Suchmaschine.
@crsystem
Oh ja vielen Dank für den Hinweis mit dem Linkspamming. Ich bekomme Gott sei dank nicht mehr soviel davon mit.
Meine Plugins halten das was sie versprechen 😉 Doch diese Feed Programme die sich überall eintragen usw. haben den absoluten
negativen Effekt. Solche Seite können sich auch die paar Minuten sparen und sollten Sinnvoll agieren.
Einen solchen Fund mit dem Spamming auf Keywords kann man bei Google™ ja auch melden und man sollte sich
nicht zu Fein sein es bei einem berechtigten Verdacht auch zu tun. Nur so können wir uns schützen, denn Google™ scheint
doch nicht Allmächtig zu sein.
@Thomas4
Sorry zu viele Thomas hier im Blog habe mir mal erlaubt eine 4 dahinter zu schreiben.
Es gibt einige die sich keine Gedanken machen und damit viel mehr Erfolg haben wie
User, die alles berechnen. Wenn es so klappt und läuft einfach weiter machen.
Den Leser sollte man nie aus den AUgen verlieren, denn er entscheidet allein
über Sinn und Wichtigkeit dieser Informationen
Wo gerade soviel Thomas `e da sind wollte ich mal auf unseren Artikel Thema LSI latent semantische Indexierung hinweisen.
Wir haben hier jetzt sicher eine hohe Keyword Dichte zu „Thomas“ , dafür aber in vielen semantischen Abwandlungen. ^^
Bin zwar kein Profi, aber ich denke in Zukunft sind Keywords nur noch dafür da den Sinn des Textes für die SM abzustecken und die semantik entscheidet ober er für die Suchmaschinen wertvoll ist, oder wird ..
[…] Read more: BlackHat SEO – Der sichere Weg aus dem Index […]
Versteh ich das nun richtig? Ich pflanze die Keywords immer mit bei mir in die Überschriften, bzw. Seitentitel. Ist das kontraproduktiv?
@Thom
Es wird sicher immer mehr zu dem Inhalt der Artikel gehen. Nur dürfen wir auch nicht vergessen, das ohne Inhalt das beste Plugin
sowie die Aufteilung der Titel und Keywords eh nutzlos sind. Ein Hauptbegriff für meinen Blog ist „Ihr Seit“ also allein deshalb sehe
ich noch nicht, das es nach Inhalt gewertet wird. Jetzt noch nicht 😉
@Luigi
Nein alles OK bei dir. Der Titel ist mit sehr wichtig. Die Diskussion wird sich demnächst nur noch über den Nutzen
von Keywords drehen. Das Auslesen der Artikel und der sich darin befindlichen Wörter wird bald immer mehr
dem Nutzer vorgeben welche Informationen wichtig sind oder nicht. Also je informativer und besser der Inhalt
desto besseres Ranking. Der Titel und die Seite unterstützt nur deine Ausführung und bleibt relevant.
HEy Thomas zu „Der Invisible Text“ gehört auch die Schriftgröße. Diesbezüglich hat G***** mich für 8 Wochen aus dem imdex entfernt.
D.h. auch solche Kleinigkeiten werden von den SUMAS schnell entdeckt und entsprechend reagiert.
@chris
Was davon habe ich noch nicht gehört. Wie klein hattest du es denn?
Ich habe die H1 und H2 angegliechen, damit es besser in den Artikel passt.
Doch sowas finde ich echt schlecht. Hast du es prüfen lassen? Oder wie bist du darauf gekommen.
Wenn ich dann teilweise die Richtigen BlackSeo Seiten sehe und die dann auch noch vorn stehen,
glaube ich es ist alles absichtlich.
Was die Keywords angeht so habe ich festgestellt, dass ich inzwischen bei nicht optimierten Texten dennoch auf eine Dichte von zwei bis drei Prozent komme,was ja angeblich sehr gut sein soll. Ich denke, wenn man sich mit einem Thema wirklich auseinander setzt, dann sind die Keywords meist von alleine in passender Zahl enthalten. Auf Tricks, wie sie in dem Beitrag beschrieben sind, verzichte ich bisher und werde auch nicht damit anfangen, wenn ich habe absolut keine Lust, aus dem Index zu fliegen.
@David K.
Ich habe mir mal deine Text angeschaut. Sie sind informativ und genau ansprechend für den Suchenden.
Also alles vollkommen OK. Du hast aber auch gesehen und gemerkt, dass der Content sich durchsetzt. Das ist genau das was Thom meinte.
Die Semantik wird immer mehr entscheident werden und sich durchsetzen.
Einfach aneinader geklbte Sätze werden siche rauch bald erkannt und dementsprechent gehandelt. Wennd u weiter so einen Content
schreibst sehe ich keinen Grund aus dem Index zu fliegen.
@Thomas:
Die normalen Artikel werden von unseren Redakteuren ohne Beachtung der Keyworddichte geschrieben. Bei Bedarf wird es dann von mir etwas abgeändert.
Wir haben dann noch Interpreten-Steckbriefe da kommt meistens so eine hohe Keyworddichte zustande weil nicht besonders viel Text vorhanden ist (tabellarischer Steckbrief). Diese Ranken jedoch sehr gut, fast alle auf der ersten Seite bei Google mit Suchphrase: „Steckbrief Interpret“ und „Information Interpret“
@Youth FM
OK das hört sich aber so an, das Google™ weiss das es sich um Interpreten handelt und deine Seite dazu einen Bezug hat.
Ich meine die URL sowie deine ganze Seite sprechen ja dafür, doch wie weit es jetzt anerkannt wird ist schwer zu sagen.
Es könnte ja auch möglich sein, das solche Seiten dann nochmal manuell geprüft werden?
Zu sagen wie Google™ da handelt ist schwierig zu sagen, für mich hat deine Keyword Dichte aber in den Steckbriefen natürlich eine
informative Relevanz und zählt nicht zum Spamming.
Diesen Artikel sollte jeder unbedingt gelesen haben bevor er sich überlegt wie er seine Webseite erstellen bzw. optimieren will. Es kommt allzu häufig vor das unseriöse „SEO-Spezialisten“ ihren Kunden gerade zu solchen Methoden raten und diese darauf auch noch hereinfallen. Bei dem Punkt mit der Keyworddichte bin ich persönlich aber der Meinung das man das gar nicht so pauschal in Prozent angeben kann. Sicherlich wird Google bei der Dichte auch Unterschiede machen um welche Arten von Webseiten es sich handelt. Bei einer Seite mit sehr wissenschaftlichem Inhalt wie etwa beispielsweise einer Uni wird Google bestimmt auch eine wesentlich höhere Dichte an Schlüsselwörtern akzeptieren als bei einer Shopseite oder einer Firmenhomepage. Außerdem wird es sicherlich auch eine Rolle spielen wie viele verschiedene Wörter im gesamten Text überhaupt vorhanden sind.