Teil 1 – Wo bin ich und was kann ich hier anstellen?
Hätte man mich vor einem halben Jahr gefragt, ob ich eine Rezension für ein weiteres SEO-Tool schreiben möchte, hätte ich sicher dankend abgelehnt, denn als langjähriger Handwerker in der edlen SEO-Zunft hat auch mein Werkzeugkasten sich über die Jahre ausreichend gefüllt, um all meine Wünsche abzudecken. Warum also einen weiteren Schraubendreher zu den anderen legen wenn ich doch immer meinen abgewetzten Lieblingsschrauber benutze? In der letzten Woche überredete mich dann die liebe Irina, doch mal das Tool ihrer neuen Wirkungsstätte auszuprobieren und was soll ich sagen… ich bin schwach geworden! Nicht zuletzt wegen Irina, die ich in Punkto SEO sehr schätze, sondern vor allem weil dieses Tool aus der Schmiede des Altmeisters Marcus Tandler stammt, der insbesondere in meinen Anfangsjahren als SEO mit einem seiner auch damals schon energiegeladenen Vorträge sowie den Webmasters On The Roof Inspiration und finaler Kick zum endgültigen Wechsel ins SEO Profilager für mich bedeutete.
Doch genug der Lobpreisungen… jetzt gibt’s Backenfutter meine Rezension zum neuen SEO Tool OnPage.org
Passend zum Titel habe ich mich in meiner 1-Domain-Testbox für die Domain praktiker.de entschieden. Auf der Suche nach einem vernünftigen Akkuschrauber hatte ich einige Wochen zuvor diverse Baumarkt Sites abgesurft und war von der bestehenden „Optimierung“ insbesondere bei praktiker.de spontan erschrocken. Ich hatte mir zu diesem Zeitpunkt schon ausgemalt, dass man hier sicher viel machen könnte. Eine passend große Nuss für das neue Tool also.
An die Damen und Herren von Praktiker – ich kaufe total gerne bei Euch ein und liebe Eure Einkaufswägen mit dem praktischen Gangplan (Hämmer = Gang 3), aber über Euren Internetauftritt sollten wir mal sprechen! Nutzt und implementiert bitte diese Erkenntnisse im Sinne Eurer User. Ich komme gerne persönlich vorbei und stelle die Ergebnisse und Maßnahmen vor!
Voller Tatendrang geht’s also los… direkt nach dem Login in die optisch wirklich ansprechende Oberfläche von OnPage.org und gebe die Domain praktiker.de zur Analyse ein. Da ich vorab schon wusste, dass das Tool sich nun die Seite detailliert anschauen wird, war mir klar, dass ich etwas Zeit mitnehmen musste bzw. zunächst das komplette Crawling abwarten musste.
An dieser Stelle hat das OnPage.org Team gut mitgedacht. Die Zeit des Crawlings lässt sich sinnvoll nutzen, z.B. mit dem Upload von Daten aus den Google Webmastertools (die ich ja leider nicht habe – daher Spiele ich im zweiten Teil der Rezension mit genau diesen Daten auf einer anderen Domain rum) oder mit einem Blick in das SEO Wiki.
Den Screenshot von einem Wiki erspare ich Euch an dieser Stelle, aber wer schon einmal Wikipedia (Hurra, ein Ablenklink!) geöffnet hat, ahnt was einen hier erwartet. Die Inhalte vereinfachen die Nutzung und Interpretation der Ergebnisse für unerfahrene Nutzer oder als SEO-Nachschlagewerk. In dieser Wartephase ebenfalls sinnvoll ist es, dem Tool meine Lieblingskeywords mitzuteilen, damit sie regelmäßig überwacht werden können. Man möchte schließlich wissen, ob der ganze Aufwand der Optimierung sich auch auf die Rankings der Keywords niederschlägt und mir konversionsstarken relevanten Extratraffic auf die Seite schaufelt. Wer schlau ist überwacht hier auch die Keywords seiner Mitbewerber (bzw. den zukünftig eigenen Rankings). Als fauler Tester entscheide ich mich zunächst für nur ein Keyword und zwar „Akkuschrauber“.
Gestartet hatte ich das Tool um ca. 15:45 Uhr und bereits um 16:10 Uhr hatte ich erste Post von „Captain OnPage“. Sehr cool und userfreundlich! So hätte ich direkt starten können und WOW – nach bummelig einer halben Stunde hatte ich Meldung über 328 gecrawlte Seiten mit bereits 615 Warnungen und 266 Fehlern – outch!
Wie immer hatte ich an diesem Tag keine lange Weile und noch genug auf dem Schreibtisch und beschloss auf das endgültige Crawling-Resultat zu warten. Jenes war dann um 23:40 Uhr in meinem Postkasten.
Cool, ein kompletter Crawl inklusive Auswertung in 5 Stunden macht irgendwie Spaß und hoppla… aus 266 Fehlern sind stolze 12.776 Fehler geworden – von den knapp 16.000 Warnungen ganz zu Schweigen – doppeloutch!
Aus der Mail gelange ich per Klick direkt in das OnPage.org Dashboard. Im oberen Teil findet sich eine Auswertung der gecrawlten HTML-Seiten, Bilder, Downloads und externen Links sowie einer Zusammenfassung aller identifizierten Fehler, die wir uns gleich im Detail ansehen. Rechts gibt es zudem noch die „Server-Beobachtungen“ um etwaige Serverausfälle direkt beobachten zu können. OnPage.org ruft dazu die Startseite alle 5 Minuten auf und misst die Response-Time, die bei praktiker.de auf den ersten Blick recht konstant und im akzeptablen Zeitbereich ist.
Wer keinen guten Draht zur IT hat, als 1000ster Kunde auf einem Shared-Server unterwegs ist und/oder nicht auf Advanced Servermonitoring Tools wie z.B. Nagios zurückgreifen kann ist hier in Punkto SEO zumindest grob abgesichert. Durch die fortlaufende Beobachtung kann man Serverauslastungsspitzen rückwirkend betrachten und nachhaltig Gegenmaßnahmen einleiten, denn warum sollte eine Suchmaschine noch mehr User auf eine Seite lassen, wenn diese schon die aktuelle Last nicht aushält. Ein Wunsch an OnPage.org und eine Empfehlung für alle an dieser Stelle.
Wunsch: Nicht nur die Response-Time sondern gerne auch die Ladezeit im Verlauf messen.
Empfehlung: Never ever shout at your JBoss ☺
Ebenfalls direkt im Blickfeld finde ich meinen „Akkuschrauber“ im Keywordmonitoring wieder. OnPage.org hat mir bereits das Ranking für dieses Keyword herausgesucht. Da ich noch keine weiteren Tools an OnPage.org angedockt habe, erhalte ich an dieser Stelle keine Informationen zu CTR, Impressionen oder CPC. (kommt dann in Teil 2)
Im unteren Teil meines Dashboards erhalte ich dann einen Überblick über den Optimierungsstand. Alle Punkte sind einzeln anklickbar und die Veränderungen von Crawl zu Crawl lassen sich prozentual gut beobachten. Die größten Potentiale stehen in der Tabelle oben. Da ich in meinem Test aber gerne ALLE Berichte beschreiben möchte, verzichte ich an dieser Stelle auf das Rosinenpicken und gehe fleißig jeden Menüpunkt in der Navigation auf der Linken Seite einzeln durch.
Status Codes
Im ersten Bericht erhalte ich einen Überblick über die Statuscodes, die praktiker.de zum Zeitpunkt des Crawls ausgegeben hat. An dieser Stelle der Hinweis: Server sind oft so eingestellt, dass Crawler ab einer bestimmten Anzahl an untersuchten Dateien sprichwörtlich „den Hahn zudrehen“. Die Folge können unerwartete Status-Codes sein, die das Ergebnis verfälschen. Für eigene Crawler oder Software wie OnPage.org mag das ja sinnvoll sein, aber zumindest Google sollte zu jeder Tages- und Nachtzeit Tür und Tor offen stehen. Für valide Ergebnisse also vorher die Leitung auf „nimm was Du kriegen kannst“ schalten lassen.
Der Aufbau der Analyse Seiten gestaltet sich sehr übersichtlich. Oben habe ich den direkten Überblick über den jeweiligen Optimierungsgrad sowie einen motivierenden Spruch vom OnPage.org Maskottchen Captain OnPage. Persönlich finde ich das ganz lustig, würde mir aber zum Sharen von Screenshots mit Vorgesetzten oder für Meetings mit kritischer Allgemeinstimmung eine Ausblendeoption wünschen. Sämtliche Fehler und Warnungen lassen sich detailliert betrachten, d. h. alle fehlerhaften URLs sind direkt einsehbar. Praktiker verwendet z. B. fehlerhafter Weise den Status Code 302 anstelle des 301 Redirects. Ein einfacher Hebel und somit viele Fehler, die sich auf einen Schlag abschalten lassen. Bei den 4xx Fehlern bin ich dann etwas stutzig geworden, denn eine solch hohe Anzahl von Fehlern mit dem Code 400 (Bad Request) sind ungewöhnlich und meistens eher ein Crawl-Problem als ein Fehler auf der Seite.
Hier greift mein Hinweis bezüglich der Servereinstellungen in Bezug auf Crawler. Eine erneute Betrachtung über den Button „Refresh Data (Live Crawl)“ brachte mir dann wie erwartet einen Status 200 (ok).
Für Menschen, die der IT nicht sagen können: „bitte lasst doch mal den OnPage.org Crawler zu“ könnte man an dieser Stelle evtl. über ein optional langsameres Crawling nachdenken. Praktischer Weise lassen sich alle Daten direkt als CSV oder Excel-File exportieren bzw. sogar direkt per Mail zustellen lassen. Im unteren Seitenbereich gibt es für jeden Bereich eine hilfreiche Erklärung warum die Optimierung der aufgezeigten Fehler sinnvoll ist. Neben Verweisen auf das Wiki verweist ein weiterer Comic Held, Prof. Mario Serpino (die Ähnlichkeit zu Prof. Dr. Mario Fischer – Herausgeber der Website Boosting – ist verblüffend), auf Links zu relevanten Youtube-Videos sowie einen FAQ Bereich in einem Mix aus englischen und deutschen Erklärungen. Für den SEO-Einsteiger super!
Redirect Ziele
Hier erhalte ich ein Lob von Captain OnPage – 100% Optimierungsgrad. Sofern praktiker.de also Weiterleitungen auf den gecrawlten Seiten eingesetzt hat, erreichen diese immer ein Ziel mit dem Status Code 200 (ok).
Antwortzeiten
Jap, jetzt verstehe ich ein bisschen warum auf der Startseite im Servermonitor noch keine Aussage zu den Antwortzeiten zu finden war. OnPage.org misst jede gecrawlte Seite in Punkto Ladezeit durch und kategorisiert in langsam, sehr langsam und Timeout. Sehr hilfreich, allerdings ist bei der Optimierung von Ladezeit und Performance m. E. viel Know-how gefragt. Einsteiger sollten sich hier genau beraten lassen bevor sie dem Serveradmin gutgemeinte Vorschläge machen. Battles zwischen Marketing und IT können sehr hart und sehr unangenehm sein.
Verfügbarkeit
Hier gibt es die Detailansicht des Servermonitorings vom Dashboard.
Wie bereits angekündigt, gehe an dieser Stelle die Berichte nicht der Reihenfolge nach durch, sondern spare mir auch noch etwas Futter für den zweiten Teil…
Links
Status Codes
In diesem Bericht werden die ausgehenden Links von praktiker.de bewertet, um sicherzustellen, dass auch alle Verlinkungen (wenn man so will: Empfehlungen) auch funktionieren. Wer seinen Usern kaputte Links bzw. Links zu nicht mehr existenten oder gar falschen Inhalten anbietet bietet Suchmaschinen ein weiteres Negativkriterium, dass sich wirklich vermeiden lassen sollte.
Anzahl
HTML, die Hyper Text Markup Language bedeutet frei übersetzt Über Text Auszeichnungssprache. Nun geht es dabei aber nicht um etwa übermäßig viel Text sondern um die „Extrafeatures“ in digitaler Form. Was in der Büchereikarteikarte der Querverweis zu einem anderen Werk ist wird im Web einfach direkt mit einem Link versehen und dann auch ausgezeichnet, d. h. schick formatiert, bunt gemacht, mit Bildern und diversen Schriftarten- und Größen versehen. Bleiben wir bei der Büchereikarteikarte und stellen uns vor, dass jedes zweite Wort in der Beschreibung ein Querverweis wäre. Davon wäre sicher keiner begeistert bzw. wäre man sehr verwirrt und würde direkt um Hilfe beim Personal (der fleischgewordenen Suchmaschine) bitten.
Die Anzahl der Links pro Seite gibt einem genau diese Auskunft und kategorisiert nach internen und externen Links. Die aus OnPage.org Sicht bevorzugte Anzahl an Links wird übersichtlich in ampelfarbenen Balkendiagrammen dargestellt.
Domains
Keiner mag Klüngeleien, auch Suchmaschinen bewerten ob einige Domains mehr Links abbekommen als andere. Ist das Verhältnis nicht ausgewogen könnten die Algorithmen einer Suchmaschine auf die Idee kommen sich diesen Sachverhalt genauer anzusehen bzw. zusätzlich mal einen Menschen zu Rate hinzuzuziehen. Bei Google nennen sich diese Mitarbeiter Search Quality Rater. Noch schlimmer ist natürlich die Verlinkung auf für User schädliche Seiten, sogenannte Malware Seiten.
Zusätzlich gibt es eine Weltkarten-Heatmapansicht, um die Verteilung der Links nach Ländern sortiert bewerten zu können.
Linktexte
Googlet man heute nach dem Wort „hier“ findet man auf den ersten Plätzchen den weltweit vielverwendeten Adobe Acrobat Reader. Grund dafür ist dieser Hinweis auf tausenden von Websites für User, die diese Software noch nicht installiert haben:
In einer Standardmeldung ist die Software häufig u.a. mit dem Wort „hier“ verlinkt und zeigt uns recht deutlich wie wichtig der Klickbare Text innerhalb eines Linkes ist. Der Linktextbericht gibt interessante Einblicke über häufig verwendete Linktexte, die man sich wirklich genau anschauen sollte. Dabei stellen sich u. a. diese Fragen:
- Passen die Linktexte zu den Zielseiten
- Werden gleiche Linktexte für unterschiedliche Seiten genutzt – wenn ja… welche soll eigentlich für diesen Begriff ranken?
- Auf welchen Seiten werden Linktexte verwendet, die evtl. nicht zielführend sind wie z. B. „klicken Sie hier“, „weiter“, „details“ usw.
Nofollow
Im wundervollen Film „The wizard of Oz“ heißt es: „Folge dem gelben Steinweg“, in Grimms bekannten Märchen: „Komm nicht vom Weg ab, kleines Rotkäppchen“. Damit eine Suchmaschine nicht vom Weg abkommt wurde das Nofollow Attribut für Links eingeführt, welches eine Zeit lang ziemlich intensiv durch SEOs genutzt wurde, um themenorientierte Cluster auf einer Seite zu Bilden. Das Ganze nannte sich Pagerank Sculpting und war natürlich nicht im Sinne der Suchmaschinenbetreiber, daher funktioniert das so auch nicht mehr. Für interne Links sollte man daher auf das Nofollow-Attribut verzichten und es nur noch für externe Verlinkungen für Seiten einrichten, denen man nicht „trauen kann“. Das beste Beispiel sind Links, die durch User z. B. in Foren oder Kommentaren generiert werden. Auch Links zu etwaigen Mitbewerbern können so für Suchmaschinen „entwertet“ werden.
Praktischerweise kann man hier auf einen Blick auch alle externen DoFollow Verlinkungen einsehen, also die Stellen an denen man selbst kostbare Linksignale, den Linkjuice, abgibt. Hier gilt es zu prüfen, ob man das wirklich möchte.
Verwaiste Seiten
Um sich Karteileichen, ungewollten Duplikaten aufgrund technischer Schwachstellen des CMS oder falsch gesetzter Canonicals oder Links zu entledigen hilft der „Verwaiste Seiten“ Bericht bei dem mein praktiker.de mit 90% Optimierungsgrad offenbar nicht ganz so schlecht darsteht.
Relative Pfade
An dieser Stelle zitiere ich Dr. Mario Serpino:
Verständlicher geht es nicht.
Bilder Status Codes
Nicht vorhandene Bilder sind ein Ärgernis für User und deuten auf ein ungepflegtes Portal hin, praktiker.de räumt hier glatte 100% ab. Die bestehenden Probleme sind also überwiegend technischer Natur und nicht aufgrund mangelnden Pflegeeinsatzes entstanden. Praktiker, wir schaffen das!
Lokale Bilder / Externe Bilder
In diesen beiden Berichten geht es um die Antwortszeiten von Bildern. Prof. Serpino schlägt zudem ein kostspieliges CDN vor. In diesem Bericht fehlt mir persönlich noch ein bisschen mehr Magic. Ich hätte gerne die Möglichkeit alle Links zu den Bildern einsehen zu können und sie evtl. noch nach vorhandenen eigenen Hosts einzugrenzen, z. B. wenn ich aus Performance-Gründen bereits images.meinedomain.de etc. einsetze. Insbesondere bei den externen Bildern wäre eine Liste hilfreich um diese ggf. lokal umzuziehen. Toll wäre auch wenn das Tool mir Möglichkeiten zur verlustfreien Komprimierung inkl. Bulk-Download oder zum automatischen erstellen von Spritemaps für häufig verwendete Grafiken anböte.
ALT-Attribute
Neben der Möglichkeit in HTML Text zu verlinken kann man natürlich auch Bilder als Klickobjekt nutzen. „Bilder sagen mehr als tausend Worte“, leider trifft das noch nicht vollständig für Maschinen zu. Es ist daher sinnvoll ein Bild mit zusätzlichen Informationen auf die Reise durchs Netz zu schicken. Jedes Bild sollte daher mit dem ALT-Attribut ausgezeichnet sein, welches alternative Informationen ausgibt wenn das Bild nicht geladen werden kann (z. B. Bilderserver kaputt) oder schlicht nicht gesehen werden kann. Hierbei bitte nicht nur an Maschinen denken, sondern vor Allem auch an sehbehinderte User, die mit Braille-Displays oder Screenreadern unterwegs sind.
Die Information dsc003123.jpg ist genauso wenig hilfreich wie ponybilder23.jpg. Bei letzterem bekommt man zumindest eine Ahnung von dem was auf dem Bild zu sehen ist. Steht im ALT-Tag aber beispielsweise „Pony Bernd futtert ein Zuckerstückchen“ dann ist alles klar. An dieser Stelle sollte mit Möglichst wenig Worten beschrieben werden, was auf dem Bild zu sehen ist. Bitte also nicht lyrisch werden.
Phew – knapp 2500 Worte später beende ich hiermit Teil 1 meiner Rezension zum neuen Tool OnPage.org und verbleibe schon mal mit einem
Zwischenfazit
Ein sinnvolles Tool für Einsteiger und super für Leute, die nur eine oder wenige Domains zu optimieren haben. Schon jetzt bin ich gespannt auf die verbleibenden Möglichkeiten, die ich mir in Teil 2 genauer ansehen werde. Stay tuned!
99 Euro pro Domain im Monat sind aber happig. Nutze ich das Tool nicht lieber nur einen Monat und bin dann wieder weg sobald die Onpage-Hausaufgaben erledigt sind? Gibt ja viele andere Toolanbieter die günstiger sind oder weitere Tools beinhalten wie Sistrix oder Searchmetrics?!?
[…] OnPage.org: Praktisches Tool für Praktiker – Hätte man mich vor einem halben Jahr gefragt, ob ich eine Rezension für ein SEO-Tool schreiben möchte, hätte ich abgelehnt, denn als lang-jähriger SEO ist auch mein Werkzeugkasten ausreichend gefüllt. Weiter… […]
Hallo,
schöner und ausführlicher Testbericht von Dir. Kompliment!!
Dein Zwischenfazit trifft es. Es ist ein tool für Anfänger, die gerne mal in vielen bunten Farben schauen wollen, wie man die Webseite aus Sicht eines Tools betrachten kann.
Aber geht es darum? Welcher ANfänger gibt 99 Euro im Monat dafür aus, dass man ihm sagt, „es fehlt die meta description auf en seiten 9 und 10. sie ist nicht wichtig für das ranking, aber doch wichtig für den nutzer“??
Braucht niemand solch eine Aussage.
Das gleiche gilt für sonstige Bereiche. Jeden Punkt kann man online kostenlos mit einem Tool testen und hat da den großen Vorteil, dass man jede Veränderung direkt neu testen kann. Bei onpage.org hat man nur ein gewisses Buget von Crawals pro Monat, zahlt 99 Euro und fragt sich…ist dieses Projekt Comedy oder doch ernst gemeint?! Eine ANtwort habe ich bislang nicht.
Aus meiner persönlichen Sicht überteuert und verglichen mit anderen SEO-Softwareprodukten ein „Witz“
Gruss