Knapp 2 Wochen ist es her, dass Google über seine Webmaster-Zentrale Warn-Nachrichten an tausende deutsche Domains schickte. Der Inhalt war einigen Experten schon bekannt – bereits vor einigen Monaten fanden sich diese Zeilen im Nachrichteneingang einiger Domains.
Die Folge damals: Binnen einiger Wochen verloren die Websites einen großen Teil ihrer Rankings und damit auch einen großen Teil vom SEO-Traffic.
Getroffen hatte es damals eher Domains mit großem Fokus auf Offpage-Maßnahmen: Linkaufbau, Linkkauf, Linkmiete.
In der aktuellen Episode jedoch wurden viele Webmaster von Domains alarmiert, welche deutlich linientreuer gegenüber den Google Webmaster-Guidelines agieren oder teilweise sogar nur in extrem homöopathischer Menge der Offpage-Optimierung gefrönt haben.
Inzwischen hat Google weitere Updates zu der Aktion veröffentlicht – im Grunde wolle man nur warnen, hat die Meldung erneut angepasst und will darauf hinweisen, dass teilweise unnatürliche Links gefunden wurden, die zur Domain zeigen. Klarheit sieht anders aus – Webmaster haben allen Grund, verunsichert zu sein. Ich wage hier 9 mögliche Prognosen zur Entwicklung des aktuellen Themas:
1. Google verteilt gerade Gelbe Karten:
Im ersten Anlauf hatte Google sofort Rote Karten vergeben. Wer die Meldung in seiner Zentrale hatte, wurde nach kurzer Zeit hart bestraft. Wohlgemerkt: wahrscheinlich nicht zu Unrecht. Dennoch: Dieses Mal könnte Google erst einmal Warnmeldungen verteilen. In einigen Wochen oder Monaten – falls keine Besserung erkennbar – kommt dann die nächste Meldung. Und bei der 3., 4. oder 5. Warnung schlägt dann der Ranking-Filter zu. Ich halte dies für ziemlich plausibel. Google hätte ein Qualitätsproblem, alle Domains von den vorderen Plätzen zu verweisen, wenn diese in der Vergangenheit Linkaufbau betrieben haben. Google hat aber auch ein Qualitätsproblem, wenn diese Domains unbehelligt nach alten Methoden weiteroptimieren können.
2. Linknetzwerke im deutschen Markt werden in den nächsten 12 Monaten überwiegend sinnlos:
Man hört es hinter vorgehaltener Hand schon seit einiger Zeit: Links aus den künstlich hochgezogenen Linknetzwerken der letzten Jahre haben ihre Wirkung verloren. Betroffen sind große und kleine Netzwerke. Auch die elaboriertesten Muster-Vermeidungs-Strategien sind für Google ziemlich zuverlässig zu enttarnen. „Organisch“ skaliert eben kaum. Das Ergebnis: Ein wachsender Prozentsatz von Links, welche über diese Netzwerke aufgebaut wurden, sind ergebnislos. Ein weiterer Teil sogar gefährlich. Und der kleine Teil, der vllt. noch einige Zeit einen positiven Ranking-Boost bringt, wiegt die beiden anderen Teile nicht mehr auf.
3. Hand aufs Herz:
Das ist keine Überraschung. Je nach Markt, Keyword und Wettbewerb wird die Halbwertzeit variieren – wir müssen 2012 jedoch in Deutschland feststellen, dass Google 2012 nach den Qualitäts-Updates der letzten beiden Jahre mehr künstliche Links pro Tag entwertet als jemals zuvor. Der Ton wird rauer werden. Linkaufbau ist ein ein Geschäft mit Millionenumsätzen. Allein in Deutschland. Wenn hier von Google mehr Druck aufgebaut wird, werden wir sicher in den nächsten Monaten noch viele Brandbriefe lesen, Monopol-Vorwürfe hören und verrückte Werbeversprechen über uns ergehen lassen.
4. Unkenntnis wird teurer:
Nur eine drei bis maximal vierstellige Zahl deutscher Online-Marketeers kennt sich mit dem Thema Link-Qualität und aktuelle Google-Strategien aus. Und selbst hier gibt es große Know-How-Unterschiede. Doch es gibt abertausende von Webauftritten kleiner und mittelständischer Unternehmen ohne SEO-Wissen in den eigenen Reihen. Strukturierte Vertriebler werden diesen Unternehmen in den nächsten Monaten weiter sinnlose Links verkaufen und der Anteil wirkungsloser Verweise wird steigen. Schlimmer noch: Trotz Werbeversprechen wie „Qualitative Links aus relevantem Content“ werden die Gefahren einer Ranking-Abwertung unkalkulierbar wachsen.
5. Viele unnatürliche Links sind bereits wertlos:
Wir beobachten in unterschiedlichen Märkten einen Rückbau der gekauften Links und ein paralleles Wachstum der Rankings. Die Angst, Links zu verlieren ist groß. Es wird jedoch nicht selten zutreffen, dass ein Rückbau gekaufter Links nicht nur den Geldbeutel, sondern die Nerven schonen kann.
6. Früher an später denken:
Wer diesen Beitrag liest, hat vielleicht eigene „Aktien“ an dem Thema Linkaufbau. Egal ob bereits von Google gewarnt oder noch einmal davongekommen – jetzt wird man sich sein Inventar ansehen, um genau informiert zu sein. Es kann passieren, dass man in kürzester Zeit reagieren muss und dafür muss eine genaue Übersicht vorliegen: Was wurde wann gekauft, wo liegen die Links, wie schätze ich (mit Hilfe von Tools) die Qualität dieser Links ein, können diese Links evtl. deaktiviert werden.
7. Deutsche Linkdienstleister werden internationaler:
Es gibt noch genügend Märkte, in denen erstens Geld steckt und zweitens das Link-Thema noch nicht so stark überwacht wird wie hier in Deutschland.
8. Die Qualität von Websites wird sich verbessern:
Google hatte es in den letzten Jahren schon relativ gut hinbekommen dass keine Seite dauerhaft zu Keywords in den Top-3 stand, wenn sie nicht eine gewisse Relevanz zum Thema hat. Dennoch: Gerade in sehr umkämpften Branchen ging (und geht) nichts ohne ständig neue Keyword-Links. Seit 10 Jahren heißt es „Links sind tot“ und sie sind es nicht und werden es nicht so schnell werden. Aber Links werden in größerem Maße „verdient“ werden müssen. Dafür wird der Fokus wieder stärker auf die eigene Seite gelenkt werden: Struktur, Technik, Formate, Inhalte – wenn es Offpage komplizierter wird, wird Onpage wieder kreativer bearbeitet werden. Es werden Alternativen gesucht.
9. Enttäuschungen bei Reinclusion-Requests:
In den nächsten Wochen werden sich viele Websites zu einem Reinclusion-Request entscheiden. Einige zu Recht, viele zu Unrecht. Google wird in den nächsten Monaten ein starkes Wachstum an Requests bearbeiten müssen. Die Wartezeit könnte steigen und falls nach dem First-In-First-Out-Prinzip bearbeitet wird kann dies zu einiger (gefühlter) Ungerechtigkeit führen. After all: Die Ressourcen beim Qualitäts-Team sind begrenzt. Und nicht selten wird man feststellen dass dadurch gleiche Optimierungs-Methoden unterschiedlich von Google behandelt werden.
SEO hat viel mit Erfahrung zu tun. Gleiche Maßnahmen wirken von Website zu Website unterschiedlich. Ein Google Ranking lässt sich nicht herbei diskutieren. Und für jedes Beispiel gibt es ein Gegenbeispiel. Ich denke dennoch, dass ein paar der Prognosen nicht komplett falsch sind und bin gespannt auf die nächsten Monate und lasse mich auch gern von gegenteiliger Entwicklung überzeugen. Was meint Ihr? Welche Prognose fehlt? Welche gefällt euch (überhaupt nicht)?
Ich bin „interessanterweise“ extrem abgestraft worden ohne jemals einen Hinweis von Google bekommen zu haben. Auch kann ich mich nicht erinnern, Links gekauft oder aus unseriösen Quellen erhalten zu haben.
Aus meiner Sich wurde zumindest in einigen hochpreisigen Nischen mit dem Holzhammer draufgehauen. Ob das jetzt gerechtfertigt und vor allem der Qualität in den SERPs zuträglich ist, ist eine andere Frage. Als einziger Trost bleibt, dass es die Mitstreiter fast ausnahmslos auch erwischt hat.
Wenn Links einen „+x“-Effekt auf das Ranking haben, wäre es denkbar, dass Google einen „-x“-Effekt für „schlechte“ Links eingeführt hat. Im besten Fall sind die Links nichts wert, im schlimmsten Fall schwächen die „-x“-Links die „guten“ Links ab.
Leider wird man es wohl nie genau wissen und sollte vom schlimmsten ausgehen. Dabei sollte man natürlich möglichst strategisch vorgehen und vor allem nicht auf dem Radar von Google erscheinen.
Cool wäre aber, wenn man Geld zusammenlegen könnte, um 3 gute (und große) Projekt aufzubauen. Alle Projekt versorgt man mit genau den selben Links, „+x“-Links und „-x“-Links. Bei Projekt A baut man einige „-x“-Links nach und nach ab, bei Projekt B baut man alle „-x“-Links mittelfristig aus und bei Projekt C belässt man jene einfach. Die Ergebnisse und die Erkenntnisse daraus wären echt interessant…
Guter Artikel. Danke dafür. Eine Frage habe ich. Diese Aussage:
„In der aktuellen Episode jedoch wurden viele Webmaster von Domains alarmiert, welche deutlich linientreuer gegenüber den Google Webmaster-Guidelines agieren oder teilweise sogar nur in extrem homöopathischer Menge der Offpage-Optimierung gefrönt haben.“
Beruht die auf eigener Erfahrung oder gibts dazu eine Quelle. Würde mich wirklich interessieren!
Grüße
Micha
[…] Viele unnatürliche Links sind bereits wertlos var szu=encodeURIComponent(location.href); var […]
Also deine Aussage „Nur eine drei bis maximal vierstellige Zahl deutscher Online-Marketeers kennt sich mit dem Thema Link-Qualität und aktuelle Google-Strategien aus“ finde ich zu hoch gegriffen. Die meisten versuchen doch nur das nachzumachen, was sie irgendwo aufgeschnappt haben. Eigene echte Tests oder Analysen machen doch die wenigsten.
@Michael
Wir haben Überblick in die GWTs einiger größerer Seiten und darunter finden sich tatsächlich Domains die einerseits eine Google-Warnung bekommen haben aber andererseits weniger als 0,5% ihrer externen Links „gekauft“ haben – also eher mal testweise vor einem halben Jahr 50 Links aufgebaut haben und davor und danach kein Linkbuilding betrieben haben.
LG C
Deine Wertung
Zitat „Google hatte es in den letzten Jahren schon relativ gut hinbekommen dass keine Seite dauerhaft zu Keywords in den Top-3 stand, wenn sie nicht eine gewisse Relevanz zum Thema hat.“ Zitatende
ist einfach falsch.
Google hatte es in den letzten Jahren schon relativ gut hinbekommen, das Unrelevantes vorn rankt und Relevantes nur über Anzeigen gezeigt wird.
Die Frage ist natürlich auch, wie viele der Google Nachrichten wirklich real sind. Man hat ja schon was von Nebelbomben gelesen und das könnt ich mir sogar gut vorstellen. Du schreibst ja auch, dass die Kapazitäten bei Google gering sind, deshalb wäre es doch denkbar, dass bei einigen gar nichts passiert 😉
Punkt 4 sehe ich eher positiv. Ich hoffe dies führt endlich dazu, dass sich unter den SEO-Dienstleistern die Spreu vom Weizen trennt.
Im Prinzip ist es doch echt wurscht, wo man seine Links herbekommt – einen natürlichen Linkaufbau gibt es sowieso nicht (ist ja ein Widerspruch in sich selbst). Auch gekaufte Links sind vollkommen OK und auch wichtig und sie werden es auch in Zukunft bleiben. Man sollte sich die Quelle bzw. die Werte der Quelle genau anschauen. Wenn die Seite schon 30 externe Links hat – selbst Schuld wer hier zuschlägt. Google kann nach wie vor nicht erkennen, ob ein Link „gekauft“ ist und wird es auch zukünftig nicht können (außer natürlich der VK schreibt „Sponsoren“ oder ähnliches darüber).
Die Herkunft der Links (kostenlos, gekauft) ist letztlich egal, wichtig ist mit Hirn und Verstand die Quell-Seiten auszusuchen. Daran hat sich nichts geändert und wird sich auch in Zukunft nicht ändern… 🙂
Hallo ,
guter Artikel. Eine Anmerkung meinerseits noch zu Punkt 4. Es gibt doch tatsächlich noch Dienstleister im WWW, die massenweise Social Bookmarks und Webkatalogeinträge an unwissende Kunden verkaufen. Und die sind dann paradoxerweise bei Google für entsprechende Keywords, wie z. B. „Backlinks kaufen“, auch noch ganz gut gerankt.
Wenn ich mir das auf und ab bei Rankingveränderungen um zweistellige Werte bei Keywords in den letzten Wochen ansehe, bin ich mir nicht sicher ob Google schon zufrieden mit den bisherigen Updates ist. Wer bemerken besonders in den letzten Wochen sehr viel Unruhe was Rankings angeht. Nach unten und nach oben. Da hauts ein keyword um 20 oder mehr Plätze runter und ein paar Tage später ist alles wieder bei Alten. Zudem ranken immer noch URLs mit einem Anteil an Ankertexten von über 70% auf Top Positionen. Das verunsichert die SEO Szene, weil keine pauschalen Aussagen über mögliche Ursachen abgeleitet werden können, da man für fast jedes Beispiel ein Gegenbeispiel finden kann.
Joe hat voellig recht! Es wurde einfach einmal reingehalten und alles grundlos abgestraft. Google bekommt es einfach nicht gebacken Spam zuerkennen – Ja weiss wollen Sie es euch machen! Sonst steckt aber nicht wirklich viel dahinter…schaut euch die Seolytics Gewinner einmal an, da gibt es Sichtbarkeitsschub von bis zu 1000% und im Footer werden Links verkauft – demnach auch gekauft..sieht man sich die Rankings bei einigen Keys einmal an ..tut mir der Benutzer leid – der aber muss fressen was ihm vorgesetzt wird. Google ist sich dessen bewusst und fördert eigentlich nur Adwords – denn was willst du machen ohne Traffic? Du und ich brauchen Ihn! Dieser SEO Schnickschnack Glaskugel Kram ist voll Lustig , denn auch dieser Artikel hat nicht wirklich eine Aussage!
@M. Hermann: Ich kann mir vorstellen dass Du den Eindruck hast aber neben meinem persönlichen Eindruck können wir auch feststellen, dass in den letzten 24 Monaten immer weniger Traffic von den SERPs 2,3,4,5… kommt. Das zeigt imho auch dass Google-Nutzer schon ziemlich zufrieden sind mit den Ergebnissen, die sie auf Seite 1 finden. Natürlich ist Google nicht perfekt aber ich denke inzwischen kann man für jedes „Negativ-Beispiel“ mindestens 5x mehr Positivbeispiele finden – und das war auch schon einmal anders.
@Sabrina: Nachrichten in der Webmaster-Zentrale halte ich für ziemlich real. Allen die Folgen können stark unterschiedlich sein.
@Martin S: Wenn ich Google wäre dann würde ich die Seiten zu „Links kaufen“ ranken lassen, deren Methoden ich am besten rausfiltern kann 🙂 Dann gibt der Markt viel Geld für nix aus. Ist aber reine Spekulation.
@Ronald: Mit Googles Spambekämpfung ist es wie mit Kindern, die Zähneputzen. Die ersten Jahre putzen sie ineffektiv und schlecht und irgendwann klappt es immer besser. Und auch wenn man sicherlich nie bakterienfrei wird – für Karius und Baktus wird es immer ungemütlicher. 🙂
dieses ganze SEO-ich-gugg-mal-in-die-Glaskugel und sauge mir mal neun Porgnosen aus dem Finger, nervt einfach!
Was will uns der Verfasser denn mit dem Artikel sagen oder mitteilen? Dass er sich erfolgreich 9 sinnleere Prognosen ausdenken kann?
Das ist doch kein konstruktiver Beitrag!
Das hat Google bereits erfolgreich geschafft… Es gibt kaum noch sinnvolle Blogbeiträge zum Thema SEO!
@ Christoph
Deine Aussage an M. Hermann kann ich nicht nachvollziehen.
Wieso denkst du, dass die Serps besser geworden sind nur weil Position 1 in der organischen Suche aktuell weniger Traffic hat als Position 1 von vor 24 Monaten? Ich kann da keinerlei Zusammenhang zwischen diesen beiden Aussagen sehen.
Google hat in den letzten Monaten die Serps so dermaßen optisch verändert, dass es logisch ist, dass der Seotraffic auf den Top-Positionen durch z.B. mehr und auffälliger Adwords, Google Places, Anpassung Universal Search, Rich Snippet Einführung usw nachgelassen hat. Dies spricht imho nicht für die Qualität der Serps sondern eher für die Verwässerung durch Google-Anpassungen.
Also alle Leute, die ich bis jetzt bzgl. der Serp-Qualität befragt habe (keine Seos, sondern normale Internetnutzer), haben mir ausnahmslos bestätigt, dass die Qualität der Ergebnisse aktuell nicht höher ist als damals. Viele Leute fühlen sich sogar massivst gestört durch die „Bevormundung“, die Google mit Places, Venice, Instant usw eingeführt hat.
@Kai: Ich hatte geschrieben dass immer weniger Traffic von den Google ErgbenisSEITEN 2,3,4,5… kommt. Die Leute klicken also immer weniger auf Seite 2, Seite 3,.. Das spricht eher dafür dass Sie bereits auf der ersten Ergebnisseite mit Ergebnissen bedient werden, die sie zufrieden machen. Nach jedem Google-Layout-Update schreien SEO-interessierte dass die Qualität schlechter wird aber die anderen 99,9% (nämlich die „normalen“ Google-Nutzer) scheinen das anders zu sehen.
@seba: Im Kommentarfeld ist genügend Platz für Deinen sinnvollen Beitrag, wenn Du mit keinem SEO-Blogbeitrag zufrieden bist.
Aus meiner Sicht ein konstruktiver Beitrag zur Diskussion, Christoph. Ich persönlich bin allerdings – als User, nicht als SEO – in den letzten Wochen und Monaten immer unzufriedener mit den Google SERPs, weshalb ich immer öfter „fremdgehe“.
Leider fehlt die Zeit, um mit meinen Google-Bashing Artikeln so weiter zu machen wie geplant.
@ Christoph … wenn man eine derartige Warnmeldung in den Google Webmaster Tools über unnatürliche Links erhalten hat, dann kann man davon ausgehen, das nach fast exakt 4 Wochen eine spürbarer Ranking Verlust eintritt.
Die 4 Wochen sind ein angemessener Zeitraum, um herauszufinden, was die schlechten Links sind und diese zu entfernen. Das Problem beim entfernen ist jedoch, das nur ganz wenige Webmaster zu 100% wissen, welche Links das Problem darstellen und in 8 von 10 Fällen mehr Links abbauen, wie es nötig gewesen ist. Hat man die schlechten Links erwischt, so dauert es meist keine 24 Stunden und man steigt wieder, entsprechend der verbliebenen Links und der daraus resultierenden Linkpower, im Bereich der Suchmaschinenergebnisse ein, wo man vor der Abstrafung gewesen ist.
Die durchschnittliche Antwortzeit bei Reinclusion Requests liegt aktuell im Schnitt bei ca. 4 Tagen und maximal 2 Wochen. Hat man in dieser Zeit keine Antwort erhalten, kann ich empfehlen den gleichen Reinclusion Request erneut zu stellen.
Ich würde mir wünschen, das es von Google klarere Aussagen zu bestimmten Algoänderungen gibt. Nicht wie diese funktionieren, sondern welche zeitlichen Zyklen für gewisse Aktualisierungsintervalle existieren (Beispiel: Panda, Penguin etc.). Ich kann mir nicht vorstellen, das ein Webmaster zwingend sich mit SEO beschäftigen muss, um an Informationen über existierende Suchmaschinen Filter zu gelangen, nur damit eventuelle Fehler erkannt werden. Weiterhin würde ich es begrüßen, wenn Google die Möglichkeiten von NegativeSEO in den Griff bekommt.
Ansonsten ein lesenswerter Beitrag!
Gruss
André
@ Christoph
Okay, das hatte ich falsch verstanden, ich dachte du meinst die Plätze. Wobei ich die Beobachtung bei meinen Projekten nicht teilen kann. Aber auch wenn es so wäre, spricht es wieder nicht unbedingt für die Qualität der Serps, sondern kann auch z.B. dadurch begründet sein, dass der User mittlerweile gelernt hat, dass Seite 2, 3 etc. eh nur noch schlechte oder immer wieder gleiche Ergebnisse kommen wie auf Seite 1.
Ich glaube die Qualität der Serps ist wirklich eine Geschmacksfrage und kann so pauschal nicht beantwortet werden. Fakt ist nur, dass die Quali nicht grottenschlecht geworden sein kann, denn dann hätte Google bereits einiges Nutzern verloren.
@ Christoph Burseg: Wenn ich sehe, dass unter machen Keywords (egal ob Moneykey oder nicht) in den Top 100 plötzlich zu teilweise mehr als 50% die selbe Domain auftaucht, dann frage ich mich eher, ob Google seinen Algo inzwischen nicht kaputtgespielt hat. Sorry, aber sowas geht einfach garnicht – nicht nur aus SEO-Sicht:
http://www.google.de/#q=bauernhof+kaufen&start=10
http://www.google.de/#q=übersetzung+deutsch+englisch&start=30 (scroll mal weiter!)
Mit einer Verbesserung der Qualität hat sowas IMHO irgendwie nichts mehr zutun, oder?
@Disco Dieter, uneingeloggt bekomme ich bei Deinen Beispiel-Abfragen maximal 2x dieselbe Domain in den Top-10. Eingeloggt tatsächlich 5x – aber ich bin auch häufig auf der Domain unterwegs. Ich glaube Mehrfachnennungen einer Domain sind nicht immer ein Zeichen für „kaputtgespielt“. Schau Dir mal unterschiedlichste „Besten-Listen“ an – z.B. die besten deutschen Krimis (http://www.krimi-forum.de/Seiten/top100/top100.html) – da findet man auch auf den ersten 10 Plätzen 3x Bücher von Dürrenmatt. Schlecht finden wir SEOs es immer, wenn wir drunter leidern – gut wenn wir davon profitieren. Wenn es ein Trend von Google ist, Mehrfachplatzierungen zuzulassen, dann sollten wir SEOs das System dahinter erkennen und zum Nutzen unserer Projekte einsetzen. So war SEO immer: Ride the Bubble!
@ Christoph Burseg: Ich bin auch nicht eingeloggt und habe es sowohl unter Deutschland oder Städten probiert. Das Ergebnis unter dem ersten Link: 4x immonet.de und 6x kleinanzeigen.ebay.de. Und wenn ich local (z.B. Hamburg) nach „Bauernhof kaufen“ suche, will ich schon gar nicht einen Bauernhof in Krefeld, Dresden, Thüringen, etc. vorgeschlagen bekommen (auch wenn es in HH eher weniger Bauernhöfe gibt ^^), oder? Das rockt weder für den Nutzer noch noch für den SEO.
Bei dem zweiten Link (ebenfalls nicht eingeloggt) kommt ab Seite 3 nur noch dict.cc – klar, passt zwar zum Thema, aber mal Hand aufs Herz: Macht es Sinn das ganze Wörtbuch durch die SERPs zu peitschen bei einem allgemeinen „übersetzung deutsch englisch“? Nicht aus Nutzersicht. Selbst wenn er die Anfrage noch konkretisiert (z.B. „übersetzung deutsch englisch $suchbegriff“) macht nur ein Ergebnis von dict.cc – nämlich die richtige Übersetzung – Sinn. Schau dir das mal an…
http://www.google.de/#hl=de&sclient=psy-ab&q=übersetzung+deutsch+englisch+hund
Findest du das schön (aus Nutzersicht)? 😉
@Disco Dieter: Schöne Beispiele! Bei dem Übersetzungs-Link sehe ich 6x dict.cc. Finde ich auch nur sehr bedingt sinnvoll und wird sicherlich kein Dauerzustand werden. Aber aus Nutzersicht lieber ein Dict.cc Treffer auf den Plätzen mit 1-2 Werbeblöcken im sichtbaren Bereich als ein Adsense-Only-Projekt wo man erst mal scrollen muss um an die gewünschte Übersetzung zu kommen und das Verhältnis Werbung zu Content 8 zu 2 sind – oder schlimmer. Perfekt ist sicherlich anders aber die Richtung von Google wird auch an den Beispielen von Dir deutlich, finde ich.
Die fehlende Vielfalt in den Ergebnisslisten kann ich nur bestätigen.
Beispiel: Meine Top100 zu „bäcker feihl“ gibt mir gerade mal 11 verschieden Domains zurück?? wobei 7 Domains die Top 100 bis Platz 96 dominieren!!
Klar, das ganze hängt natürlich von den Sucheinstellungen ab, lass ich mir nur 10 Treffer anzeigen ist das Verhältnis ein anderes, aber mit 25% unterschiedliche Domains immer noch irgendwie unbefriedigend.
Was sollte denn das ganze Dublicated Content Gewäsch insbesondere im Bereich Title Optimierung, wenn für eine Suchanfrage dann doch 2-20 Seiten einer Domain ranken? Ich dachte jede Seite ist unique uns soll auch auf ein unique Keyword/Kombination optimiert werden, so dass Google genau eine Seite einer Domain für eine Suchanfrage bringen kann. Gerade die vor mir genannten Beispiele widersprechen dieser Regel total..
Hallo,
ich würde sagen, nicht nur wertlos, sondern sehr riskant, wohl auch bei kleiner Dosis. Was ich aber beobachten kann, daß sich einige Sites nach der Penalty wieder erholen können.
Viele Grüße aus Hamburg
@olaf: Können wir leider nur bestätigen. Die extremen Achterbahnfahrten in den Google-SERPS sorgen langsam echt für Magenschmerzen. Jetzt wo der Sommer für ein paar Tage gekommen ist, wäre es besser Eis zu verkaufen als den ganzen Tag die Kunden beruhigen zu müssen… Schwitz, schwitz…
[…] Serie bleibt Julia Pilz noch allgemein – aber baut Interesse an den nächsten Teilen auf.Und TRG-Scheffe Christoph Burseg stellt glatte 9 Prognosen zur Entwicklung im Linkbu… äh Link-Geschäft auf. […]
[…] Canonical-Tag – SEO Grundlagen Autorenstatistiken zurück in den Google Webmaster-Tools Viele unnatürliche Links sind bereits wertlos Linkbuilding für die Lokale Suche SEO Trainee – Kennst du deinen Klout […]
Meine Erfahrung zeigen, dass einige Webseiten mit nur hochqualitativen Links genauso betroffen sind wie qualitativ niedrige Seiten.
Jedoch unsere Scheiß-Seiten, die noch Blog-Roll Links und Site-Wide Footer Links haben, sind größtenteils gestiegen.
Daher komme ich mittlerweile zu dem Entschluss, dass nicht die Qualität der Links entscheidend ist, sondern nur wie viele Links auf Money-Keywords mit hohen Adwords-Preisen verlinken.
viele Grüße aus München, Sebastian
Man hat aber auch leider das Gefühl, dass die Leute auch nicht lesen können. Man kann als Agentur seinen Kunden noch so oft sagen, dass das Linkprofil absolut natürlich und langsam wachsen muss…. Sie verstehen es einfach nicht und sind beratungsresistent.
Ja das mit der Bestrafung von google ist so eine Sache! Das kann doch nicht sein, dasss Google alle paar Monate/jahre was neues bringt keine Vorwarnung erstellt und direkt loslegt Seiten abzustrafen???
[…] Christoph Burseg in einem aktuellen Artikel auf reachblog.de. In dem Beitrag greift er das nach wie vor aktuelle Thema der Warnmeldungen in den Google Webmaster […]
Hallo Olaf,
in der letzten Website Boosting #14 war zum Pinguin Update ein interessanter Artikel zum Thema algorithmische Spameinstufung. An Hand dieser Vorgehensweise (Gewichtung von Spamindikatoren etc.) wird ersichtlich warum es völlig normal ist, dass es auch noch immer Seiten gibt, die nicht betroffen sind. Nur weil es Seiten aus deinem Beispiel auf Top Positionen schaffen, ist das also kein Grund nicht anzunehmen, dass es sich hierbei um einen mittlerweile noch stärker gewichteten Spamindikator handelt.
VG Dominik
[…] Viele unnatürliche Links sind bereits wertlos – Knapp zwei Wochen ist es her, dass Google Warn-Nachrichten an tausende deutsche Domains schickte. Bereits vor einigen Monaten fanden sich diese Zeilen im Nachrichteneingang einiger Domains. Weiter… […]
Lieber spät als nie: Finde deine Ideen und Prognosen recht spannend!
Allerdings empfinde ich eine Menge Abstrafungen als absolut gerechtfertigt. Wenn ein Linkprofil zu 80% den einen, wichtigen Moneykey enthält bei einer DomPop von 5-6 k, ist man selbst schuld.
Langsam begreifen die Leute, dass ein Linkprofil natürlich wirken soll, wissen aber gar nicht mehr, was „natürlich“ überhaupt bedeutet.
In diesem Sinne: Sonnigen Sonntag euch 🙂
Demnach also doch: Für 15 Euro 1000 billige Keyword-Links beim Discount-Linker für die Konkurrenzseite kaufen und die dann für billig Geld aus den SERPs schiessen!?
Oder hab ich da was falsch verstanden?
@Uwe: für kleinere Domains sicherlich eine Gefahr.
Das wird doch dann auch in der Zukunft ein noch besserer Markt. Umso strenger Google gekaufte Links kontrolliert, um so einfacher hat es eine negative SEO Kampagne.
Ich finde das Google da einen Weg beschreitet der einige „Bauernopfer“ fordern wird.
Interessanter Beitrag. In meinen Augen ist das einzig Wahre nach wie vor der ganz normale Linkaufbau mit Themenrelevanten Seiten.
[…] unter Umständen alle Anstrengungen zum eigenen „Brand“-Building wieder zunichte. Außerdem: „viele unnatürliche Links sind (evtl.) bereits wertlos“. Was also […]
[…] von Stephan Walcher am 22. August 2012 Als Google vor einigen Wochen damit begonnen hatte, Webmaster darüber zu informieren, das ungewöhnliche Links gefunden worden sind, gab es viel Verwirrung, denn die Nachrichten […]
Viele Seiten mit ausschließlich gekauften oder billigen Links wurden ja bereits ab gestraft. Meiner Meinung wurde das ganze aber nicht konsequent von Google durchgeführt. Schaut man sich manche Bereiche an, so fällt einem auf, dass dort immer noch die üblichen Verdächtigen ranken.
Mittlerweile ist es die traurige Realität, dass es Anbieter gibt, die negative SEO anbieten. Das muss Google in den Griff bekommen.