Am 15.08.2019 sprach Thomas Mindnich bei Online-Profession zum 13. Münster Online Marketing Meetup.
Als Kopf hinter der Tool-Sammlung termlabs.io brachte Thomas reichlich Erfahrungen mit, die ganz unter dem Motto standen „Ich weiß nicht was Euch bei Google auf die erste Seite bringt. Aber ich weiß ziemlich gut, was verhindert, dass Ihr da hinkommt.“
Seine Arbeit mit datengetriebener Content- und Such-Analyse, mit Information Retrieval und Termfrequenz hätte als Vortrag eine schwere Kost werden können. Aber mit einprägsamen Fehlern, praktischen Insights und stellenweise beißendem Witz brachte er die wichtigsten Grundaussagen seiner Arbeit geschickt an das sehr interessierte Publikum. Die fast 60 Besucher und vielen neuen Gesichter hatten danach zahlreiche neue Gesprächsthemen beim Networking.
Fails und Insights
Die konkreten Fails, die Thomas mitbrachte, werden wir hier nicht ausführen. Aber auch ohne die immer wieder sehr amüsanten Fehler sind die dahinter stehenden Erfahrungen wertvoll. Auch wenn der Vortrag von Thomas sie in ganz besondere Kontexte stellte. Immer mit dem Hintergrund, dass dieselben Fehler von Thomas und seinem Team immer auch schonmal selbst gemacht wurden. Oft unabsichtlich, manchmal als Test mit voller Absicht, aber immer mit einer selbstkritischen und neugierigen Analyse im Nachgang. Ein paar der zentralen Learnings des Abends waren:
Unique Content ist kein Eigenwert
Verbietet Google Duplicate Content und fordert Unique Content? Der erste Weg zu einer Antwort führt laut Thomas Mindnich in das „Gesetzbuch für Webmaster“, die Google-Qualitätsrichtlinien. Und da bestätigt sich die logische Grundannahme: Google „verbietet“ fast ausschließlich Verhaltensweisen, die die Standardabläufe der Suche stören könnten oder bereits gestört haben. Also kein Verbot für Duplicate Content oder die Drohung manueller Strafen.
Unique Content ist natürlich trotzdem gut. Aber nicht in dem Sinn, in dem er gerne verstanden wird. Es geht nicht um sprachliche einzigartige Einzigartigkeit, wie innovative Formulierungen und ausgefallene Grammatik. Noch nicht einmal um inhaltliche Einzigartigkeit. Es geht um strukturelle und technische Uniqueness.
Es geht darum Content zu haben, der nach technischer Prüfung weit genug von vergleichbaren Inhalten entfernt ist, um relevante Mehrinformation zu diesen zu enthalten und nah genug an ihnen dran ist, um erkennbar das gemeinsame Thema abzuhandeln.
Die Kunst ist also nicht gezielt unique Content zu erstellen, sondern die richtige Aspektauswahl zu treffen. Schon durch die behandelten Themen muss man zugleich Nähe zu erfolgreichen Vorbildern und eigene Akzente setzen.
Der Durchschnitt ist kein gutes Ziel
Der Durchschnitt ist kein gutes Ziel
Wortzahl, Absätze, Überschriftstruktur: Viele Teile eines Texterbriefings brauchen Werte zur Orientierung oder als Vorgabe. Dazu den Durchschnitt der zehn oder zwanzig erfolgreichsten Webseiten zu nehmen erscheint erstmal sinnvoll und mancherorts wird das auch noch empfohlen. Es ist aber keine gute Idee.
„WTF! Seit wann ist der Durchschnitt ein gutes Ziel?“ – Thomas macht klar: Besser an den Besten orientieren und entscheiden, ob die gefragten Aspekte des Briefings hier zum Erfolg beitragen. Ranken die Besten wegen oder trotz bestimmter Texteigenschaften? Im Zweifel bleibt es eine risikobehaftete Entscheidung, die man testen und eventuell revidieren muss.
Das bleibt es ja in jedem Fall, da wir bei solchen Ableitungen mit Korrelationen arbeiten und nicht mit Kausalitäten. Für Briefings sollte aber immer das beste Vorbild gesucht werden und nicht der Durchschnitt.
Das war wieder klasse bei Online-Profession. Großartig wie viele Leute ihr jedes Mal zusammenkriegt. Und nach Jens Fauldrath mutet Ihr denen dann auch gleich den zweiten verrückten Hessen zu. Diese Meetups haben anscheinend als einziges Problem, dass wir Speaker uns dabei nicht treffen. Ansonsten weiter so!
Intent ist Schlüssel und Schloss zugleich
Seit dem Hummingbird-Update bewertet Google aktiv die Suchintention einer Abfrage. Die Kategorisierung nach navigational, informational und transactional war dann lange ein taugliches Modell, das aber schon immer hinter der immer feineren Analysen von Google zurückblieb. Kai Spriestersbach hat aus Veröffentlichungen von Google inzwischen über 100 unterschiedliche Intents nachgewiesen, die Google berücksichtigen will.
Gerade für Content ist sollte man aber im Hinterkopf haben, dass:
User Intent ≠ Keyword Intent ≠ SERP Intent ≠ Document Intent
Was der Suchende beabsichtigt zu finden, fasst er in Suchbegriffe. Was er wirklich meint, weiß weder Google noch der SEO. Sie müssen mit den Keywords der Suchbegriffe arbeiten.
Die aus den Keywords auslesbaren Intentionen versucht Google durch Suchergebnisse (SERPs) zufriedenzustellen. Die in den SERPS abgedeckten Intentionen bedienen aber meist nur einige Aspekte der möglichen Intentionen hinter Keywords.
Die Webseiten (Dokumente), die hinter den Suchergebnissen stehen haben wiederum ihre ganz eigene Intention.
Wenn alles für alle gut geht, dann passen diese Intentionen alle zusammen. Aber dazu müssen alle Beteiligten schon gute Arbeit leisten. Das ist nicht selbstverständlich, deswegen sollte sich jeder dieses Ablaufs und seiner Rolle in diesem Informationssystem bewusst sein. Das kann dann auch heißen, dass Dokumente mit wenig Text, aber einer prominenten Kontaktmöglichkeit für ein Keyword am besten ranken, weil sich da die Intentionen am einfachsten decken.
Warnung vor Beobachtungsstudien
Bei Studien zur Frage „Was hilft bei Content-SEO wirklich?“ sieht Thomas Mindnich ein großes Problem, das einerseits an sich ein Fail ist und andererseits viele weitere Fails provozieren kann: Es handelt sich um Beobachtungsstudien.
Google lässt sich ungern in die Karten schauen. Deshalb funktionieren die meisten (und besseren) SEO-Studien auf Basis von Test und Analyse der Auswirkungen. Nur: Sind beobachtete Veränderungen tatsächlich direkte Auswirkungen? Menschliche Mustererkennung funktioniert gut, kann aber zur Verwechslung von Korrelation und Kausalität führen.
Auch in der Suchmaschinenoptimierung sitzt man leicht der Survivorship-Bias auf, indem man nur die Erfolgreichen analysiert. Deren Erfolgsfaktoren sind gerade in Beobachtungsstudien viel schwerer zu identifizieren, als die Fehler besonders wenig Erfolgreichen. Und das Vermeiden bekannter Fehler ist auch nicht unaufwendiger. Und genau deswegen rocken laut Thomas Mindnich Hygienefaktoren das Haus.
Unterschiedlichkeit und richtiges Clustern helfen
Dann ging es noch einmal um die Verbindung von Content und Information Retrieval, dem Lieblingsthema von Thomas. Darum, dass TF*IDF als Vector-Space-Model für Google einfach zu berechnen ist und dem menschlichen Vorgehen beim Durchscannen von Texten entspricht. Und, dass man daraus unterschiedliche Ansätze ableiten kann.
Das schlug wieder den Bogen zum Thema Unique Content. Denn seine Erkenntnise zur Texteinordnung bei Google deuten zumindest für informationale Inhalte darauf, dass es darauf ankommt im Cluster der im Text enthaltenen Informationen und Themen genug Überschneidungen mit anderen Texten zu haben, dass die Relevanz und Vertrauenswürdigkeit ermittelt werden kann. Andererseits kommt es aber auch darauf an individuelle Informationen im Cluster zu haben, um einen Mehrwert zu bieten. Aber auch hier ist Vorsicht geboten:
Fehlen den erfolgreichen Mitbewerbern Themen? Dann kann es sein, dass Content mit diesen Themen geranked wird, weil sie den anderen fehlen – oder dass diese Themen für die Suchintention hinter dem Keyword als nicht relevant gewertet wurde. Wieder trifft die Survivorshop-Bias.
Wichtig ist die Begriffe der Textanalyse und möglicher Themen zu clustern, sodass für Menschen wie Maschinen ein relevanter und interessanter Informationscluster entsteht. Ein solcher Cluster sollte auch nicht beliebig in die Breite gezogen werden. Das passiert leicht durch das Integrieren immer neuer angrenzender Themen und Informationen. Besser ist es den Information-Cluster in die Tiefe gehen zu lassen und Details und Unteraspekte abzudecken und so Mehrwert zu schaffen.
Fragen zum Schluss
Nach dem Vortrag gab es einige Fragen, die vor allem auf konkrete Optimierungen abzielten. Die Antworten von Thomas Mindnich waren bedenkenswert:
- Der ideale Punkt, um einen Mitbewerber ausgiebig zu analysieren ist, wenn er plötzlich in den oberen Suchergebnissen auftaucht. Dann lohnt sich zu sehen, was er genau gemacht hat und wo die Unterschiede zur eigenen Seite liegen.
- Textlängen spielen für die Termfrequenz eine geringe Rolle, da die Gewichtung normalisiert wird. Man kann beobachten, dass die SERPs oft aus längeren und kürzeren Inhalten bestehen. Allerdings scheint es so, als ob lange Texte besser ranken, als mittellange.
Und damit endete nach grob 70 Minuten, 2 Litern Wasser und 2 Kilometer Laufweg, die Thomas gerissen hatte, der 13. Online Marketing Meetup in Münster.
Online-Profession bedankt sich bei Thomas Mindnich und den zahlreichen Teilnehmern. Für solche Vorträge wurde der Meetup gemacht: leicht im Thema, voller Information und mit praktischen Ansätzen zum mit nach Hause nehmen.