Am 23.11.2012 fand zum dritten Mal die SEOkomm in Salzburg statt und wurde wieder von Christoph und Oliver veranstaltet. Ich war zusammen mit meinen Kollegen Florian, Florian und Anita vor Ort. Über was dort gesprochen wurde, wie das Event organisiert war und ob ich im nächsten Jahr wieder hingehe erfahrt ihr im folgenden Recap.

SEOkomm-Logo

SEOkomm 2012 – Unser Recap zur Salzburger SEO Konferenz

Hallo Salzburg, hallo SEOkomm

Wir sind am 22.11.2012 um etwa 12:30 Uhr in Salzburg gelandet (der einzig sinnvolle Flug von Hamburg aus, obwohl wir mehrere Monate im Voraus gebucht hatten…) und haben uns zum Meet & Greet auf der WarmUp-Party mit dem restlichen SEO-Volk getroffen. Das große Toolbattle haben wir also nicht mitgenommen.

Am nächsten Tag waren wir pünktlich zur Keynote in der Brandboxx (dem Veranstaltungsort der SEOkomm) und haben 428 Slides in 30 Minuten zum „Next BIG Thing“ von Marcus Tandler gehört. Bottom Line: Google sammelt immer mehr Daten auf deren Basis sie Algorithmen entwickeln können, die die Suche immer weiter verbessern wird. Darunter zum Beispiel Nutzungsmuster von Google Chrome, Besucherstromanalysen durch Google Analytics, den +1 Button und AdSense oder gar die Kenntnis über den kompletten Netzverkehr durch Projekte wie Google Fiber. Und was ist das Next BIG Thing? Leider kein ultimativer Geheimtipp: Sei einfach das BESTE Ergebnis für den User – dann arbeitet Google nämlich für und nicht gegen dich.

Im Anschluss ging es dann los mit den Sessions.

Mariano Glas und Tobias Schwarz: Big Data – Von Twitter Realtime-Analysen bis Strukturdaten für SEO

Mariano ist Gründer und Chefredakteur von Serienjunkies.de (nicht zu verwechseln mit dem .org Namensvetter…) und hat ein System vorgestellt, das mittels der Twitter API „quasi-realtime“ Analysen (mit ca. 30 Minuten Verspätung) zu bestimmten Themen ermöglicht. Konkret hat er das am Beispiel von serienradar.de gezeigt. Die Seite zeigt an, welche Serien gerade „hot“ sind, also wie viele Leute darüber reden und sogar wie die „Stimmung“ dabei ist (Stichwort Sentiment-Detection, extrem spannendes Thema). Grobe Daten zum System:

  • Analyse von 10.000 Tweets/s
  • tägliche Snapshots (ermöglichen Analyse historischer Daten)
  • „Echtzeit“ Trendabfragen

Dahinter steckt übrigens das Unternehmen TWIMPACT das aus einem Projekt an der TU Berlin entstanden ist. Theoretisch könnten auch mehr als 10.000 Tweets analysiert werden, aber dann verlangt Twitter Geld dafür, wobei die Gebühren in der Größenordnung von ca. 250.000 Euro (Dollar?) pro Jahr liegen. Neben dem Bereich „TV Serien“ wird gerade auch mit „Fußball“ bzw. „Bundesliga“ getestet – eine Thematik die auf Grund des großen öffentlichen Interesses und den vorhersehbaren und kontinuierlichen „Peeks“ ebenfalls gut geeignet ist. Die Vortragszeit war allerdings viel zu kurz für das Thema (zumal die Session ohnehin zwei Speaker mit unterschiedlichen Themen hatte). Dafür hat sich dann direkt im Anschluss eine kleine Gesprächsrunde mit einigen Interessierten ergeben, bevor Mariano zur SES Singapur aufbrechen musste. Einige Punkte, die ich für mich mitnehmen konnte:

  • Twitter kann man auch in Deutschland zur Datenanalyse benutzen
  • Bisher machen das noch viel zu wenige
  • Sentiment-Analyse „funktioniert“ auch heute schon, ist aber sehr stark an die Sprache gebunden (und skaliert deshalb schlecht, wenn es auf weitere Länder ausgerollt werden soll)
  • Ich sollte mir mal die API anschauen 😉

Tobias ist Gründer und Geschäftsführer von dem SEO Tool Strucr. Strucr ist im Prinzip ein (wesentlich) leistungsfähigerer Screaming Frog, d. h. das Tool crawlt die eigene Domain und wertet SEO-relevante Faktoren aus. Neben den „Standards“ (Titel, Überschriften , etc.) werden auch Metriken wie der interne PageRank und die Verlinkungstiefe von Inhalten ermittelt. Gerade bei großen, komplexen Seiten können damit Probleme gefunden werden, die man ansonsten nur durch Zufall (wenn überhaupt) entdeckt.

Neben einigen Facts zum Tool (auf das ich nicht noch weiter eingehe, das haben andere schon gemachte, siehe Tool Test: Strucr) hat er noch die Grundlagen eines Systems zur Kopplung der Strucr-Daten an eine Recommendation-Engine erklärt. Dabei werden verschiedene Daten aggregiert (ERP, externe Links, Rankings, interne Links) und das System kann dadurch automatisiert eine Optimierung der Linkstruktur vornehmen in dem bestimmte Seite besser verlinkt werden.

Recommendation System auf Basis verschiedener Datenquellen

Recommendation System auf Basis verschiedener Datenquellen

Am Beispiel von PC-Spielen bei Amazon wird das deutlich. Amazon zeigt dort zum Beispiel an, was andere Kunden zusammen mit dem aktuell betrachteten Produkt gekauft haben. An sich eine sehr nützliche (und Conversion-fördernde) Funktion, die jedoch dazu führt, dass aus informationsarchitektonischer Sicht ein Ungleichgewicht entsteht. Das liegt daran, dass zu einem Spiel mit viel größerer Wahrscheinlichkeit ein Controller oder eine Konsole vorgeschlagen wird, als zum Beispiel ein anderes Spiel – als Folge gibt es intern sehr stark verlinkte Controller- und Konsolenseiten aber verhältnismäßig „schwache“ Spiele-Seiten. Durch das oben genannte System könnte dieses Problem automatisiert festgestellt und bei entsprechender Integration in das CMS auch behoben werden. Durch die Kopplung mit Ranking-Kontrollen entsteht damit ein System, dass sich automatisch immer weiter verbessert. Laut Tobias gibt es bereits einige Kunden, die so etwas im Einsatz haben und gute Erfolge erzielen.

Insgesamt nette Inspirationen, aber leider für mich zu oberflächlich bzw. nicht konkret genug – auch hier lag es aber an der Zeit, denn in 15-20 Minuten kann man da echt nicht weiter in die Tiefe gehen.

Karl Kratz: Onpage SEO – leider Geil

Als nächstes war ich im Vortrag von Karl Kratz, der damit seine „System-Tour“ (OM Cap, SEO Day, SEOKomm) abgeschlossen hat. Die Session war objektiv betrachtet der beste Vortrag, sowohl inhaltlich als auch vom Vortragsstil. Wenn das WLAN gerade nicht funktioniert und man ein essenzielles „Live-Beispiel“ nicht zeigen kann, kann einen das schon aus der Bahn werfen – aber der Karl hat Bodenhaftung wie ein Formel 1 Rennreifen 😉

Karl zeigt ein System, das (unter anderem) einen Besucher möglichst weit vorn im Conversion-Prozess abfängt, möglicherweise sogar noch bevor der Besucher überhaupt weiß, dass er irgendwann einmal das von Karl beworbene Produkt benötigt. Beispiel:

  • Auf Domain A liegt eine Informationsseite zum Thema „Mein Kind bekommt seine ersten Zähne“. Jeder Besucher dieser Domain wird „markiert“ (zum Beispiel mittels Cookie), denn Karl kann nun schon grob einschätzen, was für einen Typ Mensch er vor sich hat: frisch gebackene Eltern (vermutlich gestresst und abgespannt).
  • Auf Domain B werden Entspannungsreisen angeboten, die zufällig perfekt auf junge Eltern zugeschnitten sind. Kommt nun ein Besucher, der bereits „markiert“ ist, wird er direkt mit Conversion-optimierten Landingpage empfangen. D.h. wenig Text, deutlicher Call-to-Action above the fold, etc. Alle anderen Besucher (inklusive Google) bekommen jedoch eine normale Informationsseite (mit viel Text aber ohne Conversion-Fokus) vorgesetzt – eine Variante, die mit hoher Wahrscheinlichkeit wesentlich besser bei Google rankt als die Conversion-optimierte.

Dabei setzt Karl unter anderem auf den in letzter Zeit so extrem gehypten WDF*p*IDF Wert. Aus meiner Sicht ist gerade dieser Punkt aber nur ein kleiner Teil des Gesamtsystems und wird viel zu sehr in den Mittelpunkt gerückt. Zumal der Wert im besten Falle eine Approximation dessen darstellt, was Google verwendet. Eine ausführliche Erklärung dazu führt für ein Recap zu weit, aber macht euch mal Gedanken darüber, was der IDF ist, was für eine Funktion er in der Formel erfüllt und wie er in der Praxis berechnet wird. Literaturempfehlung: Gerard Salton: Automatic Text Processing (u.a. Seite 280)

Wer mehr zu Karls System wissen möchte – oben ist natürlich nur grob ein Teil des gesamten Systems beschrieben – , kann sich das dazugehörige eBook kostenpflichtig herunterladen, das pünktlich am Vortag der SEOKomm veröffentlicht wurde 😉

Marcus Tober: Social SEO – Eine Evolution des SEO

Marcus Tober, Gründer und Geschäftsführer von Searchmetrics hat in seinem Vortrag aktuelle Korrelationsdaten zu Rankingfaktoren und Rankings gezeigt, die von Searchmetrics ermittelt wurden. Dabei wurde unter anderem festgestellt, dass nicht jeder Faktor in jedem Land gleich gewichtet zu sein scheint. Außerdem werden Algorithmen nicht in allen Ländern gleichzeitig ausgerollt. Bei Panda wurde das ja zum Beispiel auch von Google so verkündet, beim EMD-Update jedoch nicht. Letzteres scheint aber in Österreich noch nicht angekommen zu sein (in DE übrigens auch nicht, wie Ullrich Lutz, Mitarbeiter im Google Search Quality Team, später bestätigte). Wie immer muss an dieser Stelle der Hinweis erfolgen, dass es sich bei den Daten um Korrelationen und nicht um Kausalitäten handelt. Das Problem bei dieser Herangehensweise hat Hanns Kronenberg unter http://www.sistrix.de/news/1034-seo-basics-google-rankingfaktoren-2012.html (ab Slide 32) gut beschrieben.

Im zweiten Teil hat Marcus eine Studie vorgestellt, bei der die „Wirkung“ von verschiedenen Social Signals untersucht wurde. Allerdings hat sich die Studie weitestgehend auf das Indexieren beschränkt, was ich persönlich ziemlich schade finde, weil es eigentlich keine Rückschlüsse auf einen Ranking-Einfluss zulässt. In der Versuchsumgebung wurden intern nicht verlinkte Unterseiten im Searchmetrics-Blog angelegt. Diese wurden nun mit (jeweils einer Sorte) Links aus den sozialen Netzwerken Facebook, Twitter, Google+ und Pinterest versorgt und mit verschiedenen Suchtermen über einen längeren Zeitraum überwacht. Das Resultat:

  • Twitter und Pinterest haben nicht zur Indexierung geführt
  • Facebook Likes haben nur in großer Zahl zur Indexierung geführt
  • Google +1’s haben fast unmittelbar zur Indexierung geführt und der Beitrag rankte generell am besten

Gerade Twitter hat mich an dieser Stelle doch verwundert, allerdings habe ich noch nie isolierte Indexierungsversuche damit durchgeführt.

Bottom Line: Interessante Daten, die für meinen Geschmack allerdings nicht aussagekräftig genug sind. Das durchgeführte Experiment zeigt nur, dass +1 mehr bringen als FB-Shares, Tweets und Pins, aber ob der Einfluss auf Grund des Faktors „Social Signal“ zu Stande kam, oder nur deshalb, weil bei Google Plus Links nicht mit nofollow markiert werden, steht noch aus. Ich warte immer noch auf den ersten groß angelegten Versuch, der zumindest mal versucht einen Kausalzusammenhang von Social Signals und Rankings herzustellen. Mir ist klar, dass auch das niemals ein „Beweis“ werden kann, aber zumindest hat man dann konkrete Daten für ein Experiment vorliegen, das dann wiederum von Interessierten wiederholt werden kann, um die Ergebnisse zu vergleichen. Unwahrscheinlich? Klar, aber man wird ja wohl noch träumen dürfen 😉

Weitere Infos aus dem Vortrag:

Marcus hat getestet, ob Google die Daten von Chrome verwendet um Seiten zu indexieren. Ergebnis: Nein, bei Tests über mehrere Wochen konnte allein durch das Ansurfen einer nicht verlinkten Webseite mit Chrome keine Indexierung erreicht werden.

Webseiten, die eine Integration des Authorship-Markups aufweisen, scheinen in den meisten Fällen besser zu performen. Allerdings habe ich den konkreten Versuchsaufbau bzw. die verwendeten Daten nicht ganz verstanden, deshalb würde ich hier nochmal bei Marcus anfragen, worauf die Ergebnisse beruhen, bevor ich das als Empfehlung weitergebe. Auf Basis des eigenen Crawlings konnte Searchmetrics aber feststellen, dass nur relativ wenige Seiten überhaupt mit Autorenbildern in den SERPs auftauchen und das die meisten Autoren nur für eine Domain zu schreiben scheinen.

Ralf Schwoebel: Scalability and Speed on a Shoestring Budget

Ralf Schwoebel hatte mit der Session nach der Mittagspause generell einen schwierigen Slot erwischt, konnte aber mit seinem erfrischend ehrlichen Vortrag die Teilnehmer aus dem „Suppenkoma“ erwecken. Der Titel der Session ist allerdings etwas schlecht formuliert, denn es war keine „So verbessern Sie die Performance Ihrer Seite mit geringem Kapitaleinsatz“-Präsentation. Beim Gespräch mit Zuschauern vor dem Beginn der Session meinte er allerdings auch, dass der englische Titel falsch sei. Richtiger Titel auf Deutsch: „Skalierbarkeit & Geschwindigkeit – mit kleinem Budget auf alternativen Erfolgswegen.

Im letzten Jahr wurde die Seite http://www.tradebit.com/ vom globalen Rollout des Panda-Updates erwischt und musste bös‘ Federn lassen. Das hat sich Ralf zum Anlass genommen, um sich seine Seite genauer anzuschauen und vor allem Google als primären Traffic-Lieferanten kritisch zu hinterfragen.

Heraus kam ein radikaler Optimierungsplan, bei dem zunächst die Conversion-Rate aufs Korn genommen wurde (kleiner Tipp: Wer mal schnell und billig einen AB-Test durchführen will entscheidet an Hand der IP [gerade oder ungerade] welche Variante ausgespielt werden soll). Dabei kam ein neues Layout für die Produktseiten heraus, dass die Conversionrate verdoppeln konnte. Als nächstes wurde die angebotene Produktauswahl ausgedünnt: Schlecht performende Produkte wurden gelöscht, gut laufende fokussiert. Es folgte die Optimierung der Seitengeschwindigkeit bei der zum Beispiel durch CSS Sprites etwa ein Drittel der Seitengröße eingespart werden konnte.

Nachdem die größten Probleme der eigenen Seite behoben waren, wurde in neue Traffic-Quellen investiert. Darunter zum Beispiel Twitter, wo mit Top-Tweets beeindruckende Resultate erzielt werden konnten. Das war übrigens einer der Punkte, die ich unter „erfrischend ehrlich“ notiert habe: Wenn man 100.000 Follower haben möchte, dann muss man eben die ersten 20.000 kaufen; Wer seinen Tweet als Top-Tweet zu einem Hashtag platzieren will, der kauft eben die ersten 500 Retweets – aber bekommt dafür vielleicht nochmal 1000 „echte“ Retweets oben drauf, weil sich der Tweet als Top-Tweet einige Stunden oben hält. Weiterer Tipp: Twittercards (mehr dazu bei Yoast). Das sind mal coole Insights aus der Praxis!

Neben Twitter wurden auch andere Webseiten getestet, darunter zum Beispiel Slideshare, LinkedIn, Youtube (Tipp: Die Anzahl der Views ist ein Rankingfaktor) und Facebook, wobei letzteres sich noch nicht wirklich gelohnt hat. Generell haben diese Plattformen aber neben ihrer Reichweite auch den Vorteil, dass sie ebenfalls bei Google ranken und darüber dann indirekt eben doch noch Traffic von Google gezogen werden kann.

Ich persönliche konnte aus dieser Session das meiste mitnehmen – subjektiv war’s deshalb der beste Vortrag (allerdings kannte ich Karls System dank Privataudienz mit dem Lord in Berlin auch vorher schon ;)).

SEO Skalierung und Blackhat-Protection: Geplänkel zwischendurch

Im Anschluss war ich bei Dominiks aka. bseriöser SEO „SEO Skalierung – Von 0 auf 100 in Rekordtempo“, das mir allerdings zu basic war bzw. das Thema momentan zu wenig Berührungspunkte für mich beinhaltet hat. Gleiches gilt auch für die Folgesession von Bastian Grimm zu „‚Blackhat-Protection‘: Negative SEO verstehen und verhindern“. Hier konnte ich leider auch nicht wirklich etwas Neues mitnehmen.

Jens Altmann: Think different

Bei Jens ging es generell darum, das man abseits des Mainstreams denken soll. Wenn irgendetwas so simpel oder verbreitet ist, dass es jeder macht, dann wird es um ein Vielfaches schwerer sich von seiner Konkurrenz abzuheben. Verdeutlicht hat er diese These an der Thematik „Keyword-Recherche“.

Das „traditionelle“ Vorgehen (Thema erkennen, Keywords „überlegen“ und mit Tools erweitern und verifizieren) hat eigentlich jeder drauf. Interessant wäre es doch, wenn man schon vorher wüsste, was die Leute in der Zukunft suchen. Das funktioniert allerdings nur in Teilbereichen gut (Beispiel: bekannte Events, Fernsehserien, etc.) Wesentlich innovativer ist der Ansatz, das Suchvolumen aktiv zu beeinflussen – und Google liefert mit „Google Suggest“ sogar eine entsprechende Steilvorlage (fragt mal Frau Wulf… ;)). In einem „rein hypothetischen Beispiel“ hat Jens gezeigt, dass eine Suggest-Manipulation zumindest in Nischenbereichen möglich ist – ohne darauf einzugehen, wie das konkrete Vorgehen „sein könnte“. Aber man hat ja so seine Ideen… 🙂

Zum Schluss gab es noch Tipps zur Abschwächung des „not provided“-Keywords in der Webanalyse (Ankerlinks in den SERPs), die mir allerdings zu „schwammig“ waren. Generell war es aber ein guter Vortrag, der mehr „black“ war als die „Blackhat-Protection“-Session.

Abschluss und Party

Im letzten Slot habe ich mir alle drei Vorträge (bzw. zwei Vorträge und ein Panel) stellenweise angehört, war aber von keinem wirklich begeistert. Beim Panel waren die Fragen für mich relativ uninteressant, mit Tourismus habe ich zu wenig zu tun (und ein eigenes Hotel besitze ich auch nicht, aber das scheint die Zielgruppen von Ortwin Oberhausers „SEO & Social Media für Tourismus“ gewesen zu sein) und „Ausgelassene SEO Chancen in internationalen Märkten“ war mir zu balkan-lastig (zumindest in der Zeit, die ich in der Session verbracht habe). Einzig die Aussage vom Google Mitarbeiter Ulrich Lutz „Die Bouncerate ist ein starkes Signal für uns“ (sinngemäß) hat mich stutzig gemacht – hat doch John Müller letzten Monat im Webmaster Hangout noch das genaue Gegenteil behauptet (siehe Video ab ca. 00:58:30).

Danach ging es ziemlich nahtlos in die After-Konferenz-Party über, deren Highlight für mich das Kicker-Duell mit Hendrik gegen Marcel und Tobi gewesen ist – freu mich schon auf das Rematch mit „guten“ Kickern 😉 Leider wurde es relativ schnell leer beziehungsweise hat sich in den doch relativen großen Räumlichkeiten verlaufen. Trotzdem hat es für einige interessante Gespräche gereicht und Speis und Trank waren ebenfalls ausreichend vorhanden und qualitativ sehr gut 🙂

Fazit und weitere Recaps zur SEOkomm 2012

Alles in allem war ich mit der Konferenz sehr zufrieden und werde sie, sofern es die Zeit zulässt, auch im nächsten Jahr wieder besuchen.

Negativpunkt WLAN: In diesem Jahr hatte auch die SEOkomm massive Probleme mit der Versorgung der Teilnehmer mit freiem WLAN und reiht sich damit in so ziemlich jede andere Online Marketing Konferenz ein. Aber über dieses Problem hat sich Oliver vermutlich (wesentlich) mehr geärgert als ich. Und mal Hand aufs Herz: Wer wirklich so dringend auf Internet angewiesen ist, der kann sich auch für 15 Euro einen 100 MB Auslands-Pass holen. Richtig schade ist eigentlich nur, dass dadurch natürlich viel weniger auf den Social-Kanälen zur Konferenz selbst berichtet wird. Das Essen war wie auch im letzten Jahr sehr gut und bei den Vorträgen waren genug Anregungen dabei um meinem fachlichen Anspruch an „Neuem“ gerecht zu werden 🙂

Weitere Recaps, schamlos geklaut von Nico und leicht ergänzt: