Chamerstrasse 44, 6331 Hünenberg
+41 415 11 10 20

SEO-Möglichkeiten durch Google Cloud

Umso grösser die Website, umso schwieriger ist es eine nachhaltige SEO-Strategie aufzustellen. Unmengen an Keywords und Inhalte machen es häufig schwierig Prioritäten festzulegen. Standardtools helfen dabei ab einem gewissen Punkt nur noch bedingt.

Durch Google’s Cloud lässt sich die Suchmaschinenoptimierung enorm professionalisieren und auf die eigenen Bedürfnisse anpassen.

So lassen sich verschiedenste Datenquellen nutzen, die in Googles Datawarehouse BigQuery abgelegt werden, um dort Analysen durchzuführen. Somit ergibt sich eine enorme Flexibilität und es werden Auswertungen und Automatisierungen möglich, die klassische SEO-Tools an Ihre Grenzen bringen würden.

Welchen Nutzen kann ich aus einer derartigen Infrastruktur gewinnen?

In der SEO-Welt gibt es mittlerweile zahlreiche Tools, welche verschiedene Daten liefern, um Entscheidungen zu fällen.

Setzt man gleichzeitig mehrere Tools ein, wird es immer schwieriger den Gesamtüberblick zu behalten und dabei Prioritäten festzulegen.

Durch die Bündelung verschiedener Datenquellen lässt sich nicht nur eine einheitliche Sicht darstellen, es werden auch tiefgehende Analysen ermöglicht.

Daraus ergeben sich folgende Vorteile:

  • Komplexe SEO-Analysen lassen sich sehr schnell durchführen, automatisiert wiederholen und bei Bedarf anpassen
  • Analysen werden möglich, bei denen Standardtools an ihre Grenzen stossen, weil Ihnen gewisse Daten fehlen oder sie nicht flexibel genug sind
  • Die Anzahl an Tools kann reduziert werden (je nach Einsatz können sogar Kosten gespart werden)
  • Sie haben Ihre SEO-Daten vollständig unter Kontrolle und müssen diese nicht mit Toolanbietern teilen

Wann lohnt sich der Einsatz von BigQuery in der Analyse für SEO?

Vorneweg: Der Einsatz der Möglichkeiten, die wir Ihnen hier vorstellen eignet sich nicht für jedes Unternehmen!

Einerseits muss die Suchmaschinenoptimierung eine wichtige Rolle in der Marketingstrategie spielen und andererseits sollte bereits eine gewisse Reichweite vorhanden sein.

Klassische Beispiele dafür sind:

  • eCommerce
  • Publisher/Verlage
  • Webportale
  • Content-Marketing

Daten aus Google’s Suche (von der Search Console) in einer BigQuery speichern

In Google’s Search Console finden sich wertvolle Daten über die Performance der eigenen Website in der Suchmaschine von Google.

Diese lassen sich hervorragend für die Analyse einzelner Seiten oder Suchanfragen nutzen, das grosse Problem der Search Console ist jedoch die Limitierung der Weboberfläche.

So lassen sich beispielsweise nicht mehr als 1000 Zeilen exportieren, was bei Keyword-Reportings schnell zu Problemen führen kann.

Dieses Problem lässt sich allerdings über die Schnittstelle der Search Console umgehen. Über die API lassen sich die Daten aus der Search Console in die BigQuery einspielen und bei Bedarf stetig aktualisieren.

Vorteile der Suchdaten in einer BigQuery

Analysierbarkeit der Daten

Ein grosser Vorteil von BigQuery ist der Einsatz für Analysen. So lassen sich die Daten per SQL beliebig aufbereiten.

Die Daten können ausserdem per Mausklick exportiert werden, um z.B. Analysen in anderen Tools durchzuführen oder direkt Arbeitspakete auf Basis der Erkenntnisse in einem Spreadsheet zu erstellen.

Dabei gibt es zahlreiche Exportmöglichkeiten:

Automatisierte Reportings / Dashboards

Durch die direkte Integration zu Google’s Data Studio (Google’s kostenloser Dashboard-Lösung) lassen sich Reporting-Dashboards auf Basis der Daten in der BigQuery recht schnell und einfach erstellen.

Hierdurch können Reports punktgenau individualisiert werden und es muss nicht auf Standard Reportings der klassischen SEO-Tools zurückgegriffen werden.

Verknüpfung mit anderen Datenquellen

Der wohl grösste Vorteil an einer zentralen Ablage der Daten ist die Verknüpfung verschiedener Datenquellen. Naheliegend ist die Anbindung an einen Anbieter mit Keyworddaten.

Die meisten SEO-Tools wie ahrefs, SEMrush oder Sistrix bieten hierfür Schnittstellen. In unserem Beispiel holen wir uns Suchvolumen von Keywords auf Basis unserer Suchanfragen in der Search Console.

Dies ermöglicht es uns Analysen auf Basis unser eigenen Daten in Kombination mit externen Daten zu erstellen.

Somit können schlecht performende Keywords auf Basis von Suchvolumen, Klickpreisen etc. priorisiert werden.

Der Kreativität für weitere Datenquellen sind dabei keine Grenzen gesetzt.

Anbinden lassen sich z.B.:

  • Crawlings der eigenen Website mit Meta-Elementen (Seitentitel, URL-Pfad etc.)
  • Daten aus einem eigenen System, z.B. dem Webshop
  • Backlinkdaten

Beispiel für Kombination von Suchdaten mit Keyworddaten

Verbinden der Datenquellen

Beispielhaft nehmen wir nun die Suchbegriffe aus unserer Google Search Console und holen uns darauf basierend Suchvolumen, Ads-Klickpreise etc. aus einem Keywordtool.

Zu erwähnen ist dabei, dass Keywords (je nach Anbieter) nicht die exakt gleiche Definition haben wie die Suchanfragen aus der Search Console. Keyworddaten sind häufig zusammengefasst (z.B. Plural/Singular) im Gegensatz zu den Suchanfragen.

Wir ignorieren hier allerdings diese Tatsache, da es für Erkenntnisse der Analyse nur bedingt eine Rolle spielt. Trotzdem sollte man sich dies aber natürlich im Hinterkopf behalten.

Die Keyworddaten speichern wir nun in einer eigenen Tabelle ab, das kann z.B. so aussehen:

Nun verbinden wir die Tabelle der Google Search Console mit der Tabelle der Keyworddaten und erhalten eine Datenbasis auf der sich spannende Analysen erstellen lassen:

Wir sehen also nun nicht nur unsere eigene Performance auf einem Keyword, sondern auch welches Suchvolumen dieses Keyword hat.

Low Hanging Fruits: Schlechte Rankings, hohe Suchvolumen

Sind die Daten einmal sauber abgelegt, lassen sich nun spannende Abfragen durchführen, wie z.B.:

“Wo ranke ich auf Seite 2-4 und gibt es ein Suchvolumen von mindestens 500 Anfragen im Monat?”

Das Ergebnis dieser Analyse lässt sich sehr einfach nutzen um z.B. herauszufinden, ob durch kleine Optimierungen (z.B. das Keyword fehlt als Überschrift bzw Kapitel auf einer Seite) schnell positive Auswirkungen entstehen können.

Bei dieser Abfrage ist sichergestellt, dass eine gewisse Relevanz laut Google schon gegeben ist (sonst würde die Abfrage gar nicht ranken), aber keine Topposition auf der ersten Seite erreicht wurde.

Keyword-Kannibalisierung ganz einfach finden

Keyword-Kannibalisierung ist ein sehr klassisches Problem in der Suchmaschinenoptimierung. Hierbei ranken zwei Unterseiten auf denselben Begriff und es kann vorkommen, dass sich beide dabei Potential wegnehmen.

Auch dieses Problem lässt sich sehr einfach mit einer SQL-Abfrage in der BigQuery analysieren, sobald die Daten aus der Search Console verfügbar sind.

Zahlreiche weitere Möglichkeiten

Wir kratzen hier nur an der Spitze des Eisbergs!

Neben diesen einfachen Beispielen gibt es zahlreiche Möglichkeiten die sich durch die Google Cloud ergeben. So könnten wir auch Tools aus Google’s Plattform für künstliche Intelligenz benutzen (AI Platform).

Dabei könnten wir NLP (Natural Language Processing) einsetzen, um Inhalte zu analysieren und daraus Erkenntnisse über unseren Content und den Einfluss auf Rankings zu gewinnen.

Mit dem Fortschreiten der Möglichkeiten auf diesem Gebiet, erwarten wir in Zukunft auch, dass sich viele Unternehmen dieser Möglichkeiten bedienen werden.

Welche Kosten entstehen durch eine solche Lösung?

In der Google Cloud entstehen die Daten meist auf Basis der Nutzung. Daher sind die Kosten sehr individuell und abhängig von mehreren Faktoren:

  • Wie häufig gewisse Datenquellen aktualisiert werden
  • Wie häufig Analysen erhoben werden müssen
  • Welche Kosten durch externe Daten entstehen (z.B. die Keyword-Daten wie Suchvolumen etc.)

Aus unserer Erfahrung kann es sinnvoll sein zu differenzieren welche Daten sie wann benötigen und dabei die Kosten zu optimieren. So ändern sich beispielsweise die Suchvolumen nicht auf Tagesbasis. Ihre Rankings fluktuieren hingegen ständig.

Es ist also durchaus möglich eine moderne Infrastruktur ohne grossen Betriebskosten aufzustellen. Wir haben sogar Kunden, bei denen die Kosten der Google Cloud bei unter 100 CHF im Monat liegen und dennoch Prozesse ermöglichen, die einen starken Mehrwert in der Umsetzung der Suchmaschinenoptimierung mit sich bringen.

24. Februar 2021

    Moritz dwb AG die wanderbienen

      Kerstin Gärtner Senior Geomarketing Consultant
      Kontaktieren Sie unsere Spezialistin.
      +41 41 511 10 17

        Peter Hartmann Inhaber
        Kontaktieren Sie unseren Spezialisten.
        +41 41 511 10 15

          Christiane C. Okonek Senior Data Scientist
          Kontaktieren Sie unsere Spezialistin.
          +41 41 511 10 12

            Simon Wiesmann Data Scientist
            Kontaktieren Sie unseren Spezialisten.
            +41 41 511 10 19

              Patrick Grütter Data Scientist
              Kontaktieren Sie unseren Spezialisten.
              +41 41 511 10 14

                Patricia Feubli Senior Data Scientist
                Kontaktieren Sie unsere Spezialistin.
                +41 41 511 10 16