Häufige Fehler der Google-Optimierung

Google-Optimierung: Fehler, Lügen, Mythen

10.06.2008 von Matthias Sternkopf
Um die Google-Optimierung von Internet-Seiten ranken sich viele Mythen und Halbwahrheiten. Und tatsächlich tappen in vielen Bereichen der Google-Optimierung selbst die Experten im Halbdunkeln – schließlich will Google seinen streng geheimen Ranking-Algorithmus nicht verraten. TecChannel zeigt im ersten Teil der Serie zur Google-Optimierung die schlimmsten Fehler und dicksten Lügen.

Google ist aus der Internet-Landschaft, wie wir sie heute kennen, kaum noch wegzudenken. Der Erfolg von fast jeder öffentlichen Internet-Seite ist abhängig von der Platzierung in den Suchergebnissen von Google. Deswegen sollte sich jeder Webmaster vor Augen halten, dass es gefährlich sein kann, den falschen Tipps zu folgen. Werden gewisse von Google vorgegebene Regeln nicht beachtet, droht eine Verbannung aus dem Index und damit aus der Liste der Suchergebnisse. Sollte dies passieren, ist das oft gleichbedeutend mit dem Scheitern des Internet-Projekts.

Alternative deutsche Suchmaschinen finden Sie in unserer Bildergalerie:

Bildergalerie: Alternative deutsche Suchmaschinen.
Abacho - Bietet neben der allgemeinen Suche auch thematische Suchen mit speziell darauf zugeschnittenen Suchformularen.
Acoon - Deutschsprachige Suchmaschine mit Katalog.
Ask.com Deutschland - Deutschsprachige Version der Suchmaschine Ask. Die Daten umfassen Website-, Bilder-, Blog- und Produktsuche sowie Software Downloads.
DeutscheSeiten.de - Suchmaschine und Webkatalog mit einem Schwerpunkt auf deutschsprachige Seiten.
Exalead - Suchmaschine mit einem sehr umfangreichen Index.
fastbot - Suchmaschine mit der Möglichkeit, Ergebnisse anonym zu öffnen.
Fireball - Neben einer Volltextsuche im Internet werden ein nach Rubriken sortiertes Katalogverzeichnis, spezielle Zeitungs- und Produktsuchen sowie eine Bildersuche geboten.
Insitor - Datenbestand mit redaktioneller Überprüfung.
Live.com - Suchmaschine von Microsoft.
Lycos Suche - Mit der Suchfunktion des Portals findet man Bilder, PDF-Dokumente, Multimedia-Dateien und Lycos-Inhalte. Die Suchergebnisse lassen sich mit einem Familienfilter belegen und anhand verschiedener Optionen näher eingrenzen.
Meteora - Die Reise-Suchmaschine Meteora ist spezialisiert auf die Suche nach deutschsprachigen Seiten zum Thema Reisen in Europa.
netluchs.de - Suchmaschine für deutschsprachige Websites mit automatischer Cluster-Funktion.
Qualigo - Pay per Click Suchmaschine mit eigenem Index. Positionen werden auch bei anderen Deutschen Suchmaschinen eingeblendet.
Searchcode.de - Dieses Verzeichnis hat die Besonderheit für jede in der Datenbank befindliche Suchmaschine den entsprechenden Abfrage-HTML-Code bereit zu halten. Des Weiteren kann sich jeder User eine persönliche Übersichtsseite mit individuell ausgesuchten Such-Formularen erstellen.
Seekport - Deutsche Suchmaschine mit automatischer Zuordnung von Themengebieten.
Semager - Deutsche Suchmaschine mit semantischen Keywords.
Softlook - Suchergebnisse werden als zusätzlich als Screenshot angezeigt.
Spiderjack - SpiderJack ist eine Suchmaschine mit einem Webkatalog.
suchen.de - Suchen.de ist eine lokale Suchmaschine für Deutschland, die aus dem Auskunftsportal der Deutschen Telekom hervorgegangen ist.
Suchmaschinen.tv - Ergänzend zum dem thematisch und regional sortierten Suchmaschinenverzeichnis werden aktuelle Nachrichten aus dem Suchmaschinenbereich und ein Positions-Check angeboten.
UmkreisFinder - Die Suchmaschine bietet eine Volltext-Umkreissuche über deutsche Webseiten an. Auf Stadtportalen für alle deutschen Städte und Gemeinden wird eine Umkreissuche um den jeweiligen Ort angeboten.
Webrover - Suchmaschine mit eigenem Index und Volltextsuche.
Witch - Nebem einem Zugriff auf den deutschsprachigen Teil des ODP werden eine normale Suchfunktion und eine Bildersuche geboten.
Yahoo Suche - Die Suchmaschine bietet neben einer Volltextsuche die Suche nach Bildern, Videos, Nachrichten und Produkten, sowie eine Suche im Verzeichnis und nach lokalen Gesichtspunkten an.

Häufig stoßen interessierte Anfänger der Google-Optimierung im Internet auf Halbwahrheiten. Dort wird teilweise hartnäckig behauptet, dass ausgehende Links die eigene Seite schwächen, Linklisten grundsätzlich gut sind, oder es werden noch abstrusere Halbwahrheiten verbreitet. Der erste Teil der TecChannel-Reihe zur Google-Optimierung räumt mit den häufigsten Fehlinformationen auf.

Im nachfolgenden Artikel ist stellvertretend für einen Großteil der Suchmaschinen meist nur vom Marktführer Google die Rede. Jedoch sind die Unterschiede der Optimierung für Google zu denen für alternative Suchmaschinen nur gering -– sie alle basieren auf einem ähnlichen Algorithmus.

Sollten Sie sich für brauchbare aber ungern gesehen Tricks der Google-Optimierung interessieren, zeigt Ihnen der Artikel „Google-Optimierung: Die schmutzigen Tricks“ weiter. Die absolut illegalen Tricks finden Sie im Artikel „Die verbotenen Spam-Methoden“.

Behauptung: Links vermieten oder tauschen ist böse!

Wahrheit: Nein. Wenn gewisse Regeln beachtet werden, ist es sogar sehr gut (für den PageRank).

Ende Oktober 2007 ging ein Aufschrei durch das Internet: Google senkte den PageRank von unzähligen Seiten zum Teil erheblich. Was war passiert? Google machte eine längst bekannte Drohung wahr: Sie straften Seiten ab, die offensichtlich Links mit dem Ziel verkauft haben, den PageRank der verlinkten Seite zu verbessern.

Das heißt zum Beispiel, dass ein IT-Online-Magazin mit einem hohen PageRank von ihrer Homepage gegen eine monatliche Miete auf ein Erotikunternehmen verlinkt. Durch diesen starken Link wird Google eine nicht vorhandene Wichtigkeit der Erotikseite vorgegaukelt und deren Platzierung bei den Suchergebnissen künstlich verbessert.

Prominente deutschsprachige Opfer dieser Abstrafung waren golem.de, chip.de, pcwelt.de und viele andere. Der Spiegel schrieb damals: „Das PageRank-Schreckgespenst geht um. Es hat eine Spur der Verwüstung hinterlassen. Webseitenbetreiber in Deutschland und anderswo sind bestürzt.“

Empört: Der bekannte amerikanische Blog TechCrunch sieht in Googles Abmahnwelle einen „Heiligen Krieg“.

Dennoch gingen die Meinungen der professionellen Suchmaschinenoptimierer über die endgültigen Auswirkungen der Reduzierung des PageRanks stark auseinander. Während die eine Hälfte panisch ihre Seiten bereinigte, blickte die andere den Konsequenzen eher gelassen entgegen. Schließlich habe Google kein Interesse daran, Webseiten mit hochwertigem Inhalt aus dem Index zu verbannen.

Und tatsächlich: Ganz so schlimm, wie von einigen befürchtet, waren die Konsequenzen der Abstrafung nicht. Zum einen hatte Google ein Nachsehen und setzte bei Betreibern, die den Link zeitnah entfernten oder auf „NoFollow“ setzten (der Link wird dann von Google ignoriert), den PageRank wieder hoch. Zum anderen wurde nach der Abstrafung kaum einer besser oder schlechter von Google gerankt. Dennoch zeigt Google mit dieser Aktion ganz deutlich, welchen Einfluss der Internet-Gigant auf die Medienlandschaft hat und wie abhängig kommerzielle Internetseiten vom Ranking in Google sind.

Welche Links sind sinnvoll und welche nicht

Themenrelevante Links sind grundsätzlich gut. Denn im Internet geht es primär um das Verlinken und verlinkt werden. Egal, ob man nun weiterführende Informationen, Quellangaben oder Partnerseiten verlinkt – Ziel ist es, dem Lesenden einen weiteren Weg durchs Web anzubieten. Wichtig beim Link vermieten oder Link tauschen ist aber immer die Themenrelevanz. Offene Links (ohne „NoFollow“) auf themenfremde Seiten sind unbedingt zu vermeiden.

So bringt es nichts für die Bedeutung einer medizinische Fachpublikation, von einem Feinkostvertrieb verlinkt zu werden. Hier sieht auch Google, dass dieser Link nur zum Vortäuschen einer nicht vorhandenen Wichtigkeit und damit zum Steigern des PageRanks angelegt wurde. Denn kaum ein Besucher, der gezielt Feinkost kaufen möchte, würde auf einen Linktext wie „Informationen rund um Krankheiten, Therapien, Diagnoseverfahren und Gesundheit“ klicken. Deshalb wertet Google auch aus, wer von wo mit welchem Text auf wen verlinkt und was sonst noch in der unmittelbaren Umgebung des Links steht.

Perfekt für die medizinische Fachpublikation wäre ein Link von einer themennahen Seite wie einer Apotheke, ohne zurückzuverlinken. Denn verlinken sich zwei Seiten gegenseitig, oft auch Crosslinking oder reziproke Verlinkung genannt, schwächt sich nach Meinung vieler Experten der stärkende Effekt merklich ab. Somit geht Google davon aus, dass es sich um einen direkten Linktausch handelt und wertet die Bedeutung dieser Verlinkung und den Einfluss auf den PageRank durch diese Links ab.

Wie lassen sich sinnvolle Links finden?

Geschickter als die direkte gegenseitige Verlinkung ist die indirekte Variante – das Erschaffen eines Link-Netzwerkes. Das heißt im einfachsten Fall, dass die medizinische Fachpublikation auf den Onlineauftritt der Apotheke verlinkt, die Apotheke verlinkt auf den Online-Versand für Medikamente, und der wiederum verweist auf die medizinische Fachpublikation. Dadurch entsteht ein einfaches Link-Netzwerk.

Je größer ein Link-Netzwerk ist, also je mehr themennahe Seiten sich auf diese Weise verlinken, desto effizienter ist es auch. Viele SEO-Experten gehen mittlerweile davon aus, dass Google schon weit über die Erkennung und Abwertung von Crosslinking hinaus Algorithmen verwendet, die auch einfache Link-Netzwerke erkennen und dementsprechend abwerten.

Dennoch wird durch geschickt geplante Link-Netzwerke ein nachhaltiges Linkbuilding aufgebaut und der Verdacht auf künstliche Stärkung des PageRanks verringert. Mittel- bis langfristig sollte mit dieser Methode das Ranking bei Google deutlich steigen. Jeder Webmaster sollte immer die Augen offen halten und nach Online-Auftritten in themennahen Bereichen suchen, die für einen eventuellen Linktausch infrage kommen. Man sollte jedoch unbedingt auf die Integrität der potenziellen Partner-Website achten – ein Link von einer nicht vertrauenswürdigen Seite kann das Ranking negativ beeinflussen.

Zur Beruhigung aller Link-Käufer: bisher wurden nur die Link-Verkäufer bestraft, die Käufer blieben alle unbehelligt. Die Betonung liegt hier auf bisher. In den USA sollen in den letzten Tagen (Stand: 10.06.08) auch vermehrt Link-Käufer von Google bestraft worden sein.

Woher Internet-Seiten wirklich gute Links bekommen, erklärt TecChannel in einem folgenden Teil seiner Reihe zur Google-Optimierung.

Behauptung: Ausgehende Links vermeiden, sie schwächen die Internetseite

Wahrheit: Zum Glück falsch.

Es gab Zeiten, da wurde tatsächlich behauptet, Verlinkungen auf externe Seiten würden die Bedeutung der eigenen Seite schwächen. Praktisch ein regulierendes Element zur stärkenden Eigenschaft eines eingehenden Links. Heute sind sich die meisten SEO-Experten einig: ausgehende Links schaden nicht – im Gegenteil, auch sie wirken sich positiv auf das Google-Ranking aus.

Also keine Scheu vor dem Link auf die Konkurrenz. Schließlich lebt das Internet durch seine Verknüpfung. Das weiß auch Google und lässt diesen Aspekt deshalb positiv in seinen Algorithmus einfließen. Dennoch gibt es auch hier wieder einiges zu beachten.

Ebenso wie der eingehende Link einer Seite mit einem hohen PageRank wichtiger ist als die Verlinkung von einer Seite mit einem niedrigen PageRank, verhält es sich auch bei ausgehenden Links. Hat man die Wahl zwischen einer schwachen und einer starken Seite, sollte der Link unbedingt auf die starke Seite verweisen.

Das ist besonders für Artikel und Blog-Einträge relevant. Verlinkungen auf weitere Informationen oder zur Quellenangabe sollten möglichst nicht nur als Deep-Link direkt in den Artikel führen, sondern zusätzlich auf die Homepage des Online-Auftrittes. Wird ein Zitat von Spiegel benutzt, sollte dementsprechend Spiegel.de verlinkt werden und der Artikel. Damit werden Google und der Leser bedient.

Behauptung: Je öfter ein Link auf einer Seite auftaucht, desto besser

Wahrheit: Falsch.

Auch hier gilt wie so oft der Grundsatz: Klasse statt Masse. Denn nur der erste Link auf die identische Seite zählt für Google, alle nachfolgenden werden konsequent ignoriert. Das ist besonders für die interne Verlinkung von Webseiten relevant.

Angenommen auf der Homepage einer Nachrichtenseite mit einem hohen PageRank befinden sich Teaser zu verschiedenen Artikeln, die auf den Unterseiten liegen. In den Teasern sind drei zu den jeweiligen Artikeln führende Links: Ein kleines Bild, die Überschrift und das Wort „mehr…“.

Hier: An erster Stelle bei dem Suchbegriff „hier“ landet die Downloadseite des Adobe Readers.

Hier sollte darauf geachtet werden, dass nicht das Bild oder das Wort „mehr…“ als erster Link in die Artikel führt, sondern die Überschrift. Das Problem: Google gewichtet die verlinkten Wörter sehr hoch und die Überschrift enthält meist Keywords, die zu dem Artikel passen. Für den verlinkten Artikel steigt also die Wahrscheinlichkeit, mit den Keyword, der Überschrift bei Google direkt gefunden zu werden.

Das beste Beispiel für die Bedeutsamkeit der verlinkten Begriffe ist das Wörtchen „hier“. Gibt man die vier Buchstaben in die Suchleiste von Google ein, kommt an erster Stellen die Downloadseite des Adobe Readers – obwohl das Wort „hier“ auf der Adobe-Seite kein einiges Mal vorkommt. Der Grund ist einfach. Auf unzähligen Internet-Seiten befindet sich folgender Satz inklusive Link: „Den Adobe Reader finden Sie hier.“

Behauptung: Eine gute Internet-Seite sollte in möglichst vielen Linklisten auftauchen

Wahrheit: Auf keinen Fall, hier ist Vorsicht geboten.

Früher war es so einfach. Mit geringem Aufwand die eigene Internetseite in Dutzende, meist kostenlose und automatisierte Linklisten eingetragen – schon dachte Google: „Hey, so viele Links auf eine Seite? Die muss wichtig sein, die bekommt eine Top-Platzierung.“ Dadurch konnten mit einfachen Mitteln minderwertige Inhalte in Google nach oben gespült werden.

Heute ist das anders. Bereits im November 2003 erweiterte Google seinen Bewertungsalgorithmus um eine für die Qualität der gefundenen Ergebnisse elementare Eigenschaft: Google erkennt „Bad Neighborhood“ (schlechte Nachbarschaft). Damit sind Seiten gemeint, die gezielt zur Manipulation von Suchergebnisseiten erstellt wurden. Dazu gehören oben erwähnte Linklisten, auch Linkfarms genannt. Dort werden meist mit wenig Aufwand automatisierte Seiten für die zu optimierenden Keywords produziert, die wiederum untereinander vielfach verlinkt sind.

Über den genauen Einfluss von Links aus einer „Bad Neighborhood“ sind sich die SEO-Experten nicht ganz einig. Doch viele sind sich sicher, dass Links von Linkfarmen und Linklisten keinen positiven Einfluss mehr auf die Bewertung und Platzierung der eigenen Internetseite haben.

Also Finger weg von automatisierten Linklisten. Auch wenn Google diese im Moment noch ignoriert, unter Umständen könnten sie bald negativ bewertet werden. Allerdings gibt es auch einige richtig gute Webkataloge. Sich hier einzutragen, schlägt sich nach den Erfahrungen vieler Google-Optimierer nach wie vor positiv auf das Ranking in Google aus. Diese Webkataloge werden allesamt redaktionell geführt. Außerdem sind sie üblicherweise kostenpflichtig – eine Ausnahme bildet DMOZ.

Behauptung: Google ist die Aktualität der Inhalte egal

Wahrheit: So nicht richtig.

Dieses Thema wird in vielen SEO-Foren heiß diskutiert. Führt eine häufige Aktualisierung der Internet-Seite wirklich zu einem besseren Ranking? Einige Experten gehen fest davon aus, dass Google durchaus aktuellere Dokumente besser bewertet als ältere. Andere wiederum sind davon überzeugt, dass die Aktualität für Google keine größere Rolle spielt.

Eines ist sicher: Google registriert die Aktualisierungsfrequenzen von Webseiten und richtet danach seinen Index-Rhythmus. Damit vermeidet Google, dass Websites, die sich nur alle zwei Jahre verändern, täglich indiziert werden. Das bedeutet jedoch nicht, dass ältere Dokumente grundsätzlich schlechter gelistet werden. Das wird vor allem am Beispiel Wikipedia deutlich. Viele Artikel, die bei Google an höchst prominenter Stelle auftauchen, wurden mehrere Monate lang nicht aktualisiert.

Folgender Erklärungsansatz könnte die Problematik klären: Bei Google spielt die Linkpopularität bekanntermaßen eine große Rolle, und in der Regel besitzen ältere Dokumente eine größere Linkbasis als frische Dokumente. Aber die Erfahrung hat gezeigt, dass aktuelle Webseiten, obwohl sie weniger eingehende Links besitzen, nicht automatisch schlechteren Inhalt bieten.

Einige SEO-Experten sind deshalb sicher: Diesem Grundsatz folgt auch Google. Die Experten gehen davon aus, dass aktuelle Dokumente besser gerankt werden als ältere, um den Nachteil fehlender Linkpopularität auszugleichen.

Behauptung: Reine Flash-Seiten erzeugen Aufmerksamkeit

Wahrheit: Von Google werden die hübschen Flash-Animationen leider ignoriert

Viele hippe Seiten wie die von diversen Werbeagenturen oder Handy-Shops setzen voll auf Flash. Das Problem: Google kann Text und Links in Flash-Seiten (noch) nicht lesen. Ganz besonders suchmaschinenunfreundlich ist es, wenn die Flash-Seite keine HTML-Alternative bietet.

Aber Flash-Seiten sind nicht das einzige Problem. Noch viel verbreiteter ist es, Texte in Bilder und Grafiken zu setzten. Optisch mag dies ein probates und viel versprechendes Mittel sein, aber keine Suchmaschine, auch nicht Google, kann den Text aus Bildern und Grafiken lesen und dementsprechend indexieren. Dieser Fehler ist leider sehr weit verbreitet.

Deshalb sollte stets so viel normaler Text wie nur möglich auf Internet-Seiten integriert werden. Mit CSS gelingt es, für Google sichtbaren Text und auswertbare Links schön zu gestalten. Eine weitere Möglichkeit besteht darin, Flash-Objekte mit Text zu umgeben. Seiten, die aus reinem Flash bestehen, sollten aus Gründen der Sichtbarkeit für Suchmaschinen dringend vermieden werden.

Sollte es sich nicht umgehen lassen, dass eine Seite nur aus Flash besteht, gibt es dennoch eine Handvoll Tricks, das Ranking zu steigern. Wie das funktioniert, wird TecChannel in einem der folgenden Teile zur Google-Optimierung genauer erläutern.

Behauptung: Je mehr Keywords, desto besser!

Wahrheit: Falsch, es zählt mal wieder Klasse statt Masse.

Die Überfüllung der Homepage mit verschiedenen Keywords ist einer der häufigsten Fehler von SEO-Anfängern. Sie versuchen damit, einen möglichst großen Bereich abzudecken, bedenken dabei allerdings nicht, dass sich zu viele Keywords gegenseitig schwächen. Das ist im Sinne der Suchmaschinenoptimierung höchst gefährlich.

Elementar für eine hohe Platzierung der Keywords in Google ist die Keyword-Dichte, also die Anzahl der Wiederholungen eines einzelnen Keywords auf der Seite. Wenn sich auf einer Seite zu viele verschiedene Keywords tummeln, wird keines die nötige Dichte erreichen, um von Google als wichtig eingestuft zu werden. Dies gilt ganz besonders für sehr häufige und beliebte Wörter.

In wettbewerbsstarken Segmenten sollten sich Webmaster auf ein bis zwei Keywords beschränken. In Nischenmärkten ist es auch möglich, sich auf fünf bis sechs Keywords zu konzentrieren. Diese sollten dann im Title-Tag vorkommen (Achtung: hier erfahrungsgemäß nicht mehr als sieben Wörter) und im Fließtext der Seite verteilt werden.

So nicht: Alle Links haben das gleiche Ziel, aber der Google-Bot wertet nur die Keywords des ersten Links.

Der Überschrift (h1-Tag) wird von Google eine besonders hohe Bedeutung zugemessen. Das wichtigste Keyword sollte in der Überschrift und gleich am Anfang des Textes erscheinen. Alle ausgewählten Keywords sollten im Text mindestens drei Mal wiederholt werden. Mit den zum Teil sehr guten Tools zur Analyse der Relevanz von Keywords und der Keyword-Dichte beschäftigt sich ein folgender Teil der TecChannel-Reihe zur Google-Optimierung.

Wenn der Webauftritt auf mehr Keywords optimiert werden soll, als auf der Startseite untergebracht werden können, sollten sie auf weitere Seiten, sogenannten Landing Pages, verteilt werden. Für Google ist jede Seite eine potenzielle Einstiegsseite. Es müssen also nicht alle für die Website relevanten Keywords auf der Startseite untergebracht werden.

Fazit

Die Google-Optimierung ist ein weites Feld mit vielen Unbekannten. Dennoch haben sich einige Aspekte der drei Säulen bewährt, auf denen der Google-Algorithmus basiert. Zu den drei Säulen gehört ein starkes Linkbuilding mit den richtigen, themenverwandten Seiten, eine On-Site-Optimierung mit der passenden Keyword-Dichte und ein übersichtlicher und logisch strukturierter HTML-Code.

Dennoch können gerade die Kleinigkeiten entscheidend für das Ranking in Google sein. Schließlich optimieren mittlerweile fast alle kommerzielle Seiten für Suchmaschinen, und das SEO-Spezialwissen kann das berühmte Zünglein an der Waage sein und den Unterschied zwischen dem Ausschluss aus dem Index und einer Top-Ten-Platzierung ausmachen.

Dass bei der Google-Optimierung Kreativität im Vordergrund steht und man auf keinen Fall alles glauben sollte, was im Internet darüber steht, beweist Google selber. In einem selbstironischen 1.-April-Scherz erklärt der Internet-Gigant, wie sich sein PR errechnet.

PigeonRank: Geniale Tauben bestimmen das Suchergebnis von Google.

Dort behauptet Google, der PR, das Herzstück der Google-Suche, stehe nicht für PageRank, sondern für den sagenumwobenen PigeonRank. Google erklärt, dass sorgsam konditionierte Tauben die Relevanz von Internet-Seiten wesentlich schneller erkennen als Redakteure oder maschinelle Algorithmen. In Bruchteilen von Sekunden findet eine Taube aus Tausenden von Seiten die relevanteste.

Ausblick auf die folgenden TecChannel-Teile der Google-Optimierung

Gerade die halblegalen Tricks und Kniffe der Suchmaschinen-Optimierung können sich zu einem gefährlichen Bumerang verwandeln. TecChannel zeigt Ihnen im Nachfolgeartikel „Google-Optimierung: Die Schmutzigen Tricks“ Tipps und Techniken, die Google nicht gern sieht.

Mit diesen Mitteln steigern Sie kurzfristig Ihre Webseite im Google-Ranking deutlich. Aber Vorsicht! Einige Tricks, die heute noch funktionieren, können morgen schon zu einer empfindlichen Strafe seitens Google führen. Im Artikel „Google-Optimierung: Die Schmutzigen Tricks“ zeigen wir Ihnen Techniken, die Sie nur mit Vorsicht einsetzen sollten, um Abstrafungen zu vermeiden. Die absolut illegalen Tricks finden Sie im Artikel „Die verbotenen Spam-Methoden".

Google: Der Suchmaschinengigant hat das Internet fest im Griff.

In den darauf folgenden Teilen beschäftigen wir uns unter anderem mit den besten SEO-Tools, der grundlegenden Funktionsweise von Suchmaschinen, wie man ein anständiges Linkbuilding ohne illegale Tricks erzeugt, gehen intensiv auf die On-Site-Optimierung ein, zeigen, wie Medien optimal eingebunden werden und, ganz besonders wichtig, wie die richtigen Keywords gefunden werden.