Veröffentlicht am 17 June 2019

Wie die SERPs für SEO, Content & Customer Insights MINE

Die am wenigsten genutzten Ressourcen in SEO sind Ergebnisse Suchmaschinen - Seiten (SERPs).

Damit meine ich nicht nur auf der Suche an, wo unsere Websites Rang für ein bestimmtes Keyword oder einen Satz von Schlüsselwörtern, ich meine den eigentlichen Inhalt der SERPs.

Für jedes Keyword, das Sie in der Google-Suche, wo Sie die SERP erweitern 100 Ergebnisse anzuzeigen, wirst du im Durchschnitt rund 3.000 Worte.

Das ist eine Menge von Inhalten, und der Grund ist es das Potenzial hat, zu sein, so wertvoll, um einen SEO ist, dass viele es von einer Seite von Google algorithmisch neu geschrieben oder kirsch gepflückt bester Adresse sind, was es die Bedürfnisse des Such denkt sind.

Eine kürzlich durchgeführte Studie zeigte , dass Google Umschreiben oder die Meta - Beschreibungen Modifizieren in den SERPs angezeigt 92% der Zeit.

Fragen Sie sich: Warum sollte Google das tun wollen?

Es muss eine angemessene Menge an Ressourcen nehmen, wenn es nur einfacher sei, die benutzerdefinierte Meta-Beschreibung auf einer Seite zugewiesen anzuzeigen.

Die Antwort, meiner Meinung nach ist, dass Google nur über den Sucher kümmert sich - nicht die arme Seele aufgeladen mit einer neuen Meta-Beschreibung für eine Seite zu schreiben.

Google kümmert sich um heute das beste Sucherlebnis, damit die Leute kommen zurück und suchen Sie morgen wieder.

Eine Möglichkeit, dass tut , ist durch die Teile einer Seite der Auswahl sie will in einer SERP - Funktion angezeigt werden oder in SERP-angezeigt Metadaten , die es am beste Spiel denkt , dass der Kontext oder Abfrage-Absicht eine Person hat , wenn sie die Suchmaschine verwenden.

In diesen Sinne, die Fähigkeit, die Sprache des SERPs in großem Maßstab zu analysieren hat das Potenzial, eine unglaublich wertvolle Taktik für einen SEO zu sein, und zwar nicht nur zur Verbesserung der Leistung Ranking.

Dieser Ansatz kann Ihnen helfen, besser auf die Bedürfnisse und Wünsche der potenziellen Kunden zu verstehen, und es können Sie das Vokabular wahrscheinlich mit ihnen und verwandten Themen, die sie mit engagieren wollen mitzuschwingen verstehen helfen.

In diesem Artikel finden Sie einige Techniken lernen, dies zu tun, in großem Umfang nutzen können.

Seien Sie gewarnt, sind diese Techniken in Abhängigkeit davon , Python - aber ich hoffe , zu zeigen , dies ist nichts zu befürchten. In der Tat ist es die perfekte Gelegenheit , es zu versuchen und zu lernen.

Befürchten Sie nicht, Python

Ich bin kein Entwickler, und haben keine Codierung Hintergrund über einige grundlegende HTML und CSS. Ich habe Python nahm vor relativ kurzer Zeit auf, und für das, ich habe Robin Herr von Destilliertes zu danken.

Ich kann nicht genug empfehlen , dass Sie seine Dias auf Python überprüfen und seine äußerst nützlich und leicht zugängliche Anleitung zur Verwendung von Jupyter Notebooks - alle in diesem praktischen Dropbox enthalten .

Für mich war Python etwas, das immer schwierig schien zu begreifen - ich wusste nicht, wo die Skripte ich zu verwenden versuchen würde, was funktioniert, was nicht war und welche Ausgabe sollte ich erwarten.

Wenn Sie in dieser Situation sind, lesen Sie Herrn Führer. Es wird helfen, Sie erkennen, dass es muss nicht so sein, und dass in einem Jupyter Notebook mit Python arbeiten, ist tatsächlich einfacher als Sie vielleicht denken.

Es wird auch jede Technik in diesem Artikel leicht in Reichweite verwiesen setzen, und gibt Ihnen eine Plattform, um Ihre eigene Forschung zu betreiben und einige mächtige Python Automatisierung Ihres eigenen einrichten.

Getting Ihre SERP Daten

Als Angestellter, bin ich glücklich Zugang zum Leiter zu haben , wo wir laufen können SERP Berichte , die eine externe API verwenden , SERP-angezeigt Metadaten für eine Reihe von Schlüsselwörtern zu ziehen.

Dies ist eine einfache Möglichkeit, die Daten zu bekommen wir in einem schönen, sauberen Format benötigen, können mit denen wir arbeiten.

Es sieht aus wie das:

Dirigent SERP-Bericht

Eine andere Möglichkeit, diese Informationen in großem Umfang zu erhalten, ist eine benutzerdefinierte Extraktion auf den SERPs zu verwenden, um mit einem Werkzeug wie Schreien Frog oder DeepCrawl.

Ich habe darüber geschrieben , wie dies zu tun , aber seien Sie gewarnt: es vielleicht auch nur ein winzig kleines unbedeutend wenig in Verletzung der Google-Nutzungsbedingungen ist, so tun es auf eigene Gefahr (aber denken Sie daran, Proxies sind das perfekte Gegenmittel gegen diese Gefahr) .

Alternativ, wenn Sie ein Fan von Ironie sind und denken, es ist ein Touch-reich, dass Google sagt, dass Sie nicht ihren Inhalt kratzen können die Benutzer einen besseren Service, dann bitte, mit allen Mitteln zu bieten, implementieren diese Technik mit Freude.

Wenn Sie sich nicht wohl mit diesem Ansatz sind, gibt es auch viele APIs , die ziemlich kostengünstig sind, einfach zu bedienen und die SERP Daten Sie diese Art von Analyse ausführen müssen liefern.

Die letzte Methode , die SERP - Daten in einem sauberen Format zu bekommen ist etwas zeitaufwendig, und Sie gehen zu müssen , die verwenden Scraper Chrome - Erweiterung und tut es manuell für jedes Keyword.

Scraping SERPs mit Chrome-Erweiterung

Wenn Sie wirklich diese gehen zu skalieren und mit einem recht großen Korpus arbeiten wollen (ein Begriff, den ich viel verwenden werde - es ist nur eine andere Art zu viele Worte zu sagen) Ihre Analyse durchzuführen, diese letzte Option wird wahrscheinlich nicht funktionieren.

Wenn Sie jedoch in dem Konzept interessiert sind und wollen einige kleinere Tests laufen, um sicherzustellen, dass der Ausgang ist wertvoll und für Ihre eigenen Kampagnen, ich würde sagen, es ist völlig in Ordnung.

Hoffentlich in diesem Stadium sind Sie bereit und willens, den Sprung zu wagen mit Python eines Jupyter Notebook verwenden, und Sie haben einige schön formatierten SERP Daten bekommen, mit zu arbeiten.

Lassen Sie uns auf die interessanten Sachen bekommen.

SERP Data & linguistische Analyse

Wie ich bereits erwähnt habe, bin ich kein Entwickler, Codierung Experte, oder Informatiker.

Was ich bin, ist jemand interessiert mich für Worte, die Sprache und Sprachanalyse (die Zyniker da draußen könnte mir einen ausgefallenen Journalisten nennen versuchen, ein Leben in SEO auskratzen und digitales Marketing).

Deshalb habe ich fasziniert geworden sind, mit wie reale Daten Wissenschaftler verwenden Python, NLP, und NLU diese Art von Forschung zu tun.

Einfach gesagt, alles, was ich hier tue nutzt bewährte Methoden zur Sprachanalyse und einen Weg finden, sie in einer Weise anzuwenden, die auf SEO relevant ist.

Für die meisten diesem Artikel werde ich über die SERPs reden, aber als ich am Ende erklären werde, das kratzt nur an der Oberfläche dessen, was möglich ist (und das ist, was diese so spannend macht!).

Reinigungs Text für Analysis

An dieser Stelle soll ich darauf hinweisen, dass eine sehr wichtige Voraussetzung für diese Art der Analyse ist ‚sauberer Text‘. Diese Art von ‚Pre-Processing‘ ist wichtig, um sicherzustellen, Sie eine gute Qualität Satz von Ergebnissen erhalten.

Zwar gibt es viele große Ressourcen gibt, um Text für die Analyse vorbereitet , aus Gründen der Leichtigkeit, können Sie davon ausgehen , dass mein Text durch die meisten oder alle der folgenden Prozesse gewesen ist:

  • Kleinschreibung : Die Methoden , die ich weiter unten erwähnen Fall empfindlich sind, so machen die ganze Kopie wir Kleinbuchstaben verwenden , wird Doppelarbeit vermeiden (wenn Sie dies nicht getan, ‚Yoga‘ und ‚Yoga‘ würde als zwei verschiedene Wörter behandelt werden)
  • Entfernen Sie Interpunktion : Interpunktion fügt keine zusätzliche Informationen für diese Art der Analyse, so dass wir es aus unserem Korpus entfernen müssen
  • Entfernen Sie Stoppwörter : ‚Stoppwörter‘ treten häufig Wörter in einem Korpus , die keinen Wert auf unsere Analyse hinzufügen. In den folgenden Beispielen werde ich vordefinierten Bibliotheken von den ausgezeichneten verwenden NLTK oder Spacy Paketen Stoppwörter zu entfernen.
  • Rechtschreibkorrektur : Wenn Sie über eine falsche Schreibweisen besorgt sind Ihre Daten Schrägstellung können Sie eine Python - Bibliothek wie verwenden TextBlob , die Rechtschreibkorrektur bietet
  • Tokenisierung : Dieser Prozess wird unser Korpus in eine Reihe von Wörtern konvertieren. Zum Beispiel dieses:

([ ‚Das ist ein Satz‘])

wird werden:

([ ‘Das’, ‘ist’, ‘a’, ‘Satz’])

  • Entstanden : Dies bezieht sich Suffixe wie ‚-ing‘, ‚ly‘ usw. aus Worten und ist völlig optional zu entfernen
  • Lemmatisierung : ähnlich wie ‚stammt‘ , aber nicht nur das Suffix für ein Wort zu entfernen, Lemmatisierung wird ein Wort zu seiner Wurzel (zB „spielt“ wird zu „spielen“) umwandeln. Lemmatisierung wird häufig bevorzugt zu ergeben.

Dies könnte alles ein wenig kompliziert klingen, aber lassen Sie es nicht Sie davon abhalten, diese Art der Forschung zu verfolgen.

Ich werde in diesem Artikel zu Ressourcen wird die Verknüpfung aus, die genau brechen, wie Sie diese Prozesse auf Ihre corpus anzuwenden.

Ngram Analysis & Co-Vorkommen

Der erste und einfachste Ansatz, den wir unseren SERP Inhalt anwenden können, ist eine Analyse der Ngram Kookkurrenz. Das bedeutet, wir zählen die Anzahl der Male ein Wort oder eine Wortkombination in unserem Korpus erscheint.

Warum ist das sinnvoll?

Die Analyse unserer SERPs für Co-auftretende Sequenzen von Wörtern können einen Schnappschuss schaffen, welche Wörter oder Ausdrücke Google am relevantesten für die Menge der Schlüsselwörter erachtet wir analysieren.

Um zum Beispiel den Korpus erstellen ich durch diesen Beitrag verwenden werden, habe ich die Top-100-Ergebnisse für 100 Stichworte rund um Yoga gezogen

Dies ist nur zu Veranschaulichungszwecken; wenn ich mit mehr Qualitätskontrolle diese Übung machte, die Struktur dieses Korpus könnte etwas anders aussehen.

Alles, was ich jetzt verwenden, werde die Python-Zähler-Funktion, die für die am häufigsten vorkommenden Kombinationen von zwei und drei Wortphrasen in meinem Korpus aussehen wird.

Die Ausgabe sieht wie folgt aus:

Ngram zählt von einem Yoga SERP

Sie können bereits um Themen erscheinen, beginnen einige interessante Trends zu sehen, die Forscher in interessiert sein könnte. Ich könnte auch MSV sammeln für einige dieser Sätze, die ich als zusätzliche Kampagne Keywords Ziel könnte.

An diesem Punkt könnte man denken, dass es offensichtlich all diese Zusammenarbeit auftretenden Phrasen, das Wort Yoga enthalten, dass der Schwerpunkt meines Datensatz ist.

Dies wäre eine kluge Beobachtung - es als ‚corpus spezifisches Stoppwort‘ bekannt ist, und weil ich mit Python gerade arbeite ist es einfach, entweder einen Filter oder eine Funktion zu erstellen, die diese Worte entfernen können.

Mein Ausgang wird dann das:

Yoga SERP ngrams

Diese beiden Beispiele können dazu beitragen, eine Momentaufnahme der Themen bieten, die Konkurrenten auf ihre Zielseiten decken.

Zum Beispiel, wenn Sie Inhalte Lücken in Ihrer Zielseiten gegen Ihre leistungsstärksten Konkurrenten demonstrieren wollten, könnten Sie eine Tabelle wie folgt verwenden, um diese wiederkehrenden Themen zu illustrieren.

Durch ihre Aufnahme wird auf Ihre Zielseiten umfassender machen, und wird eine bessere Benutzererfahrung erstellen.

Die beste Tutorial , das ich für die Erstellung eines Zählers wie das gefunden habe , die ich verwendet habe oben im Beispiel zu finden Jupyter Notebook , die Robin Herr zusammengestellt hat (ein bis oberhalb derselben verbunden sind ). Es wird Sie durch nehmen genau das, was Sie tun müssen, mit Beispielen, eine Tabelle wie die erstellen Sie oben sehen können.

Das ist zwar ziemlich einfach, und nicht immer gehen Sie Ergebnisse zu geben, die umsetzbare sind.

Also, was andere Arten von nützlicher Analyse können wir laufen?

Wortart (Po) Tagging & Analysis

PoS - Tagging wird definiert als:

„In corpus Linguistics, part-of-speech tagging (POS-Tagging oder POST), auch grammatische Tagging genannt, ist das Verfahren zum Markieren eines Wortes in einem Text-up (corpus) in Bezug auf einen bestimmten Teil der Sprache entspricht, basierend auf sowohl ihren Definition, sowie deren kontext dh Beziehung mit benachbarten und verwandten Wörtern in einem Satz, Satz oder Absatz.“

Was dies bedeutet, ist, dass wir jedes Wort in unserem SERP corpus ein PoS-Tag nicht nur auf die Definition des Wortes zuweisen können, sondern auch ihr Zusammenhang mit dem es in einem SERP-angezeigt Meta-Beschreibung oder Seitentitel angezeigt.

Dies ist mächtig, weil das, was es bedeutet, dass wir in bestimmten PoS Kategorien Drilldown können (Verben, Substantive, Adjektive usw.), und diese wertvolle Erkenntnisse um, wie die Sprache der SERPs aufgebaut ist, zur Verfügung stellen kann.

Randnotiz - In diesem Beispiel verwende ich das NLTK Paket für PoS - Tagging. Leider ist PoS - Tagging in NLTK in vielen Sprachen verfügbar.

Wenn Sie bei der Verfolgung diese Technik für andere Sprachen als Englisch interessiert sind, empfehle ich Blick auf TreeTagger , die diese Funktionalität in einer Reihe von verschiedenen Sprachen bieten.

Mit unserem SERP Inhalt (wir erinnern sie einige der Methoden, früher in der Post erwähnten ‚vorverarbeitet‘ wurde unter Verwendung) für PoS-Tagging, können wir eine Ausgabe wie diese in unserer Jupyter Notebook erwarten:

SERP Inhalt mit POS-Tags markiert

Sie können jedes Wort sehen jetzt ein PoS - Tag zugeordnet ist. Klicken Sie hier für ein Glossar von dem, was jeder der PoS - Tags Sie steht für sehen werden.

Isoliert, ist dies nicht besonders nützlich ist, so lassen Sie sich einige Visualisierungen (keine Sorge, wenn es, wie ich hier scheint voraus bin Springen, ich am Ende dieses Abschnitts zu einem Führungs verknüpfen werden, die genau zeigt, wie zu tun diese) und in die Ergebnisse bohren:

Wie man MINE die SERPs für SEO, Content & # 038;  Einblicke der Kunden

Wie man MINE die SERPs für SEO, Content & # 038;  Einblicke der Kunden

Wie man MINE die SERPs für SEO, Content & # 038;  Einblicke der Kunden

Großartig!

Ich kann schnell und einfach die sprachlichen Trends in meinem SERPs identifizieren und ich kann beginnen, dass in den Ansatz Faktor ich nehmen, wenn ich die Zielseiten für diese Begriffe zu optimieren.

Das bedeutet , dass ich nicht nur für die Abfrage Begriff optimieren gehe durch sie eine bestimmte Anzahl von Malen auf einer Seite einschließlich (jenseits dieser alte Schule Keyword - Dichte Mentalität denken).

Stattdessen werde ich den Kontext und die Absicht zum Ziel, dass Google auf die Hinweise favorisieren basiert scheint es mir durch die Sprache in den SERPs verwendet zu geben.

In diesem Fall sind diese Hinweise die am häufigsten vorkommenden Substantive, Verben und Adjektive für die Ergebnisseiten.

Wir wissen, basierend auf Patente Google hat um phrasenbasierte Indexierung , dass sie das Potenzial haben , „ in Verbindung stehende Phrasen“ als Faktor zu verwenden , wenn es Seiten Ranking.

Dies sind wahrscheinlich von semantisch relevanten Phrasen bestehen, die zusammen auftreten auf leistungsstärksten Zielseiten und helfen, die Bedeutung dieser Seiten für die Suchmaschinen zu kristallisieren.

Diese Art der Forschung könnte uns einen kleinen Einblick in das, was diese im Zusammenhang Phrasen sein könnte, so sie in Zielseiten Factoring hat das Potenzial, wertvoll zu sein.

Jetzt, damit all diese SERP Inhalt wirklich umsetzbare, braucht Ihre Analyse gezielter werden.

Nun, die große Sache über ein eigenes Skript für diese Analyse der Entwicklung ist, dass es wirklich einfach ist, Filter anzuwenden und Segment Ihrer Daten.

Zum Beispiel mit wenigen Tastendrücken kann ich eine Ausgabe erzeugen, die Page 1 Trends vs. Seite 2 vergleicht:

Seite 1:

Wie man MINE die SERPs für SEO, Content & # 038;  Einblicke der Kunden

Seite 2:

Wie man MINE die SERPs für SEO, Content & # 038;  Einblicke der Kunden

Wenn es irgendwelche offensichtlichen Unterschiede zwischen sind, was ich sehe auf Seite 1 der Ergebnisse im Vergleich Page 2 (zum Beispiel „Start“ ist die häufigste Verb auf Seite 1 vs „Training“ auf Seite 2), dann werde ich weiter in diese bohren.

Diese könnten die Arten von Worten, die ich mehr Nachdruck auf während auf Seite Optimierung dem Suchmaschinen klarere Signale über den Kontext meiner Zielseite zu geben, und wie sie paßt abfrage Absicht.

Ich kann nun ein Bild davon zu bauen, welche Art von Sprache wählt Google vertikal in der SERPs für die Top-Ranking Ergebnisse über mein Ziel angezeigt werden soll.

Ich kann dies auch als Hinweis auf die Art von Vokabular verwenden, die mit Such der Suche nach meinen Produkten oder Dienstleistungen und übernehmen einige diese Begriffe in meine Zielseiten entsprechend mitschwingen.

Ich kann auch meine Keywords basierend auf Struktur, Absicht oder eine Stufe in der Kauf Reise und führen die gleiche Analyse kategorisieren, um Trends zu vergleichen, um meine spezielleren Maßnahmen auf die Ergebnisse Ich möchte erreichen zu machen.

Zum Beispiel Trends zwischen Yoga Keywords mit dem Wort „Anfänger“ im Vergleich zu denen modifizierten, die mit dem Wort „Erweitert“ geändert werden.

Das gibt mir mehr Hinweise darauf, was Google denkt wichtig Sucher ist für diese Art von Begriffen suchen, und wie ich vielleicht in der Lage sein, besser für diese Begriffe zu optimieren.

Wenn Sie diese Art von Analyse für Ihre SERP Daten ausführen möchten, folgen Sie diesem einfachen Durchlauf durch Kaggle basiert auf der Anwendung PoS - Tagging zu Filmtiteln . Es führt Sie durch den Prozess , den ich durch die Visuals in den Screenshots oben zum Erstellen gegangen sind.

Thema Modellierung Basierend auf SERP Daten

Thema Modellierung ist eine andere wirklich nützliche Technik, die für unsere SERP-Analyse eingesetzt werden können. Was es bedeutet ist ein Prozess der Themen versteckt in einem Korpus von Text zu extrahieren; in unserem Fall für unsere Gruppe von Ziel-Keywords der SERPs.

Zwar gibt es eine Reihe von verschiedenen Techniken zum Thema Modellierung ist, die, die durch die Daten Wissenschaftler begünstigen scheinen, ist LDA (Latent Dirichlet Allocation), so dass die eine, die ich wählte, mit zu arbeiten.

Eine große Erklärung, wie LDA für Thema Modellierungsarbeiten kommt aus dem Analytics Vidhya Blog :

„LDA übernimmt Dokumente aus einer Mischung von Themen hergestellt werden. Diese Themen dann Wörter erzeugen auf der Grundlage ihrer Wahrscheinlichkeitsverteilung. Bei einer Datenmenge von Dokumenten, Backtracking LDA und versucht, herauszufinden, welche Themen diese Dokumente in erster Linie schaffen würden.“

Obwohl unsere Schlüsselwörter alles über ‚Yoga‘ sind, nimmt der LDA Mechanismus, den wir verwenden, dass es in diesem Korpus eine Reihe von anderen Themen sein wird.

Wir können auch die Jupyter Notebook-Schnittstelle verwenden, um interaktive Visualisierungen dieser Themen zu erstellen und die „keywords“ sie gebaut werden.

Der Grund, dass Thema Modellierung von unserem SERP Korpus zu einem SEO so wertvoll sein kann, Content-Anbieter oder digitale Vermarkter sind, dass die Themen basierend auf gebaut werden, was Google denkt, ist am besten zu einem Sucher in unserem vertikalen Ziel (denken Sie daran, Google algorithmisch umschreibt die SERPs).

Mit unserem SERP Inhalt Korpus, lassen Sie sich am Ausgang für unser Yoga Schlüsselwort einen Blick (mit dem visualisierten Paket PyLDAvis ):

SERP Thema Modellierung

Sie können eine gründliche Definition finden , wie diese Visualisierung hier berechnet wird .

Um es zusammenzufassen, in meinem eigenen schmerzlich unwissenschaftliche Art und Weise, die Kreise repräsentieren die verschiedenen Themen innerhalb des Korpus gefunden (basierend auf clevere maschinelles Lernen Voodoo ). Je weiter weg die Kreise sind, desto deutlicher diese Themen voneinander sind.

Die Liste der Begriffe in der rechten Seite der Visualisierung sind die Worte, die diese Themen erstellen. Diese Worte sind das, was ich das Hauptthema zu verstehen, und den Teil der Visualisierung, die realen Wert.

In dem Video unten, ich werde Ihnen zeigen, wie ich mit diesem visuellen Wechselwirkung treten kann:

Auf einen Blick werden wir in der Lage sein zu sehen, welche untergeordneten Themen Google denkt Suchenden am meisten interessiert. Dies ist ein weiterer wichtiger Datenpunkt für den Inhalt Vorstellen werden kann, und die Liste der Begriffe sind die Themen, gebaut aus können zur topischen on-Seite verwendet werden Optimierung.

Die Daten hier können auch Anwendungen bei der Optimierung von Inhalten Empfehlungen über eine Website und interne Verlinkung.

wenn wir Inhalte schaffen um ‚Thema Cluster 4‘ zum Beispiel, und wir haben einen Artikel über die besten Anfänger Yoga-Posen, wissen wir, dass jemand diesen Artikel lesen, auch in einer Führung interessiert sein könnte Haltung mit Yoga zu verbessern.

Dies liegt daran, ‚Thema Cluster 4‘ von Wörtern wie folgt zusammen:

  • Pose
  • Anfänger
  • Basic
  • Asana
  • Einfach
  • Führen
  • Haltung
  • Start
  • Lernen
  • Trainieren
  • Übung

Ich kann auch die Liste der zugehörigen Begriffe für meine Themen in einem Excel-Format exportieren, so ist es einfach, mit anderen Teams zu teilen, dass den Erkenntnissen hilfreich (Ihr Content-Team, zum Beispiel) finden könnte:

Yoga SERP Themenkategorien

Letztlich sind Themen wir die Analyse des Corpus charakteristisch. Zwar gibt es einige Diskussionen um die praktische Anwendung Thema Modellierung ist, ein besseres Verständnis der Eigenschaften des SERPs bauen wir uns targeting sind besser helfen sie zu optimieren. Das ist wertvoll.

Ein letzter Punkt auf diesem, LDA nicht beschriftet nicht die Themen, die sie erzeugen - das ist bis zu uns - so wie zutreffend diese Forschung ist es, unsere SEO oder Content-Kampagnen ist davon abhängig, wie deutlich und klar unsere Themen sind.

Der Screenshot oben ist, was ein gutes Thema Klusterkarte aussehen wird, aber was wollen Sie ist zu vermeiden, etwas, das wie der nächste Screenshot aussieht. Die überlappenden Kreisen sagen uns, dass die Themen, die nicht eindeutig sind genug:

Beispiel für schlechtes Thema Modellierung

Sie können dies vermeiden, indem Sie sicherstellen, die Qualität Ihres Korpus gut (dh Stoppwörter entfernen, Lemmatisierung, etc.), und durch die Erforschung, wie Ihr LDA Modell trainieren, um den saubersten Thema Cluster basierend auf dem Korpus zu identifizieren.

Sie interessieren sich für Thema Modellierung Ihre Forschung bewerben? Hier ist ein großes Tutorial Sie durch den gesamten Prozess nehmen .

Was sonst kann man diese Analyse kommen Sie mit?

Zwar gibt es einige Tools sind bereits gibt, die diese Art von Techniken zur Verbesserung des On-Page - SEO - Performance , Content - Teams unterstützen und Einblicke Benutzer bieten, bin ich ein Anwalt für Ihre eigene Skripte / Tools zu entwickeln.

Warum? Weil Sie mehr Kontrolle über die Ein- und Ausgabe (dh, tauchen Sie nicht nur ein Stichwort in eine Suchleiste und die Ergebnisse für bare Münze nehmen).

Mit Skripten wie diese können Sie selektiver sein mit dem Korpus Sie verwenden und die Ergebnisse es produziert durch Filter auf Ihre PoS-Analyse Anwendung oder Ihr Thema Modellierungsansatz zu verfeinern, zum Beispiel.

Je wichtiger Grund ist, dass es Ihnen erlaubt, etwas zu schaffen, die mehr als eine nützliche Anwendung hat.

Zum Beispiel kann ich einen neuen Korpus aus Unter Reddit Kommentaren zum Thema erstellen oder vertikale ich zu erforschen.

PoS-Analyse oder Thema Modellierung tut auf einem Datensatz wie das für das Verständnis der Sprache des potenziellen Kunden wirklich aufschlussreich sein oder, was wahrscheinlich mit ihnen in Resonanz.

Reddit individuelle Extraktions

Der naheliegendste Alternativer Anwendungsfall für diese Art der Analyse ist der Korpus aus Inhalten auf den Top-Ranking-Seiten zu erstellen, anstatt die SERPs selbst.

Auch hier machen die Gleichen von Schreien Frog und DeepCrawl es relativ einfache Kopie von einer Zielseite zu extrahieren.

Dieser Inhalt kann als Ihr Korpus zusammengefügt und verwendet werden Erkenntnisse über die Zusammenarbeit auftretenden Bedingungen zu sammeln und die On-Page-Content-Struktur der leistungsstärksten Zielseiten.

Wenn Sie mit einigen dieser Techniken für sich selbst arbeiten beginnen, würde ich auch vorschlagen , dass Sie erforschen , wie eine Schicht aufzubringen Sentiment - Analyse . Dies würde es ermöglichen Ihnen für Trends in Worte mit einer positiven Stimmung im Vergleich zu denen mit einem negativen Stimmung zu finden - dies kann ein nützlicher Filter sein.

Ich hoffe, dieser Artikel hat Ihnen einige Anregungen für die Sprache der SERPs zu analysieren.

Sie können einige großartige Einblicke erhalten auf:

  • Welche Arten von Inhalten können mit Ihrer Zielgruppe in Resonanz.
  • Wie Sie besser Ihre On-Page-Optimierung strukturieren können mehr zu berücksichtigen als nur den Abfragebegriff, sondern auch Kontext und Absicht.

Mehr Ressourcen:


Bildnachweis

Ausgewähltes Bild: Unsplash
Alle vom Autor genommen Screenshots, Juni 2019