Deindexierte Domains im eigenen Backlinkportfolio finden

Heute geht es durch die SEO-Szene … jetzt wurden auch deutsche Blognetzwerke im großen Stil abgestraft. Frank hat schon darüber berichtet und auch Eisy. Das, das irgendwann kommen könnte, sollte eigentlich klar gewesen sein. Deshalb zeige ich aus diesem aktuellen Anlass, wie man sein eigenes Backlinkprofil auf deindexierte Backlinkdomains prüfen kann.Die Zutaten sind: Backlinkdaten, Excel und die Seo Tools for Excel von Niels (ja, schon wieder dieses Plugin ;-)). Ich wollte eigentlich die Exceltabelle zum Download anbieten, aber da es eigentlich nur eine Formel ist, fand ich das „drüber“. Das schaffst du auch so.

Die Backlinkdomains

Als Erstes benötigst du die Domains, von denen du die Backlinks hast. Das Einfachste ist, wir greifen direkt auf vorhandene Rootdomainlisten zurück. Dafür gibt es mehrere Anbieter.

Wenn du einen Sistrix-Account hast, dann findest du die Liste unter „Links“ => „Verlinkende Domains“ und dann oben rechts bei „mehr“, den Excel-Export anstoßen.

Wenn du einen MajesticSeo-Account hast, dann schreibst du deine eigene Rootdomain in den Suchschlitz, klickst auf „Referring Domains“ und dann findest du ganz unten links den CSV-Export.

Wenn du einen SEOmozPro-Account hast, dann deine Domain beim OpenSiteExplorer in den Suchschlitz schreiben, dann auf „Linking Domains“ klicken, beim Filter „pages on this rootdomain“ auswählen und dann auf „Download CSV“.

Es gibt natürlich noch mehr Anbieter, aber das sind die drei, auf die ich Zugriff habe. Solltest du keinerlei Backlinkdaten zur Verfügung haben, dann kannst du dich auch bei SEOmoz für einen Trial-Account registrieren (Ref-Link: das Geld, das SEOmoz mir gutschreibt, spende ich für einen guten Zweck, so wie auch schon hier beschrieben).

Die Daten haben wir jetzt. Nun geht es los mit Excel.Da ich nach dem letzten Blogpost ein paar Fragen zu den SeoTools erhalten habe, gibt es dieses Mal auch gleich eine Anleitung für die Installation und Nutzung.

Seotools for Excel installieren

Als Erstes lädst du dir das Plugin runter und entpackst es auf deiner Festplatte. Nun öffnest du Excel (das Fenster mit den entpackten Dateien ist noch offen) und schiebst einfach die Datei „Seo Tools.xll“ auf dein Tabellenblatt:

Nach dem Bestätigen der Sicherheitswarnung steht dir das Tool direkt zur Verfügung:

Backlinkdomains vorbereiten

Jetzt öffnest du deine heruntergeladenen Backlinkdaten in Excel. Wenn der Anbieter die Daten direkt im Excel-Format bereitstellt, ist es natürlich am einfachsten. Wenn es CSV-Daten sind, dann wie gewohnt, über „Daten“ => „Externe Daten abrufen“ => „Aus Text“. Für unsere Auswertung brauchen wir nur die Rootdomains, den Rest also löschen.

Formel

Ich gehe davon aus, dass du eine Spaltenüberschrift benutzt und sich deine Rootdomains in der Spalte „A“ befinden. In die Spalte „B“ kommt folgende Formel:

=GoogleIndexCount(A2)

Das sieht dann so aus:

Damit du keine Google-Sperre bekommst und dein Excel sich nicht zu Tode rechnet, empfehle ich, die Formel etappenweise nach unten zu ziehen:

Sobald du die Maustaste loslässt, fängt das Tool an, die Daten zu holen. Wenn das Tool die erste Domain findet, die keine Seiten im Index hat, gibt es eine Fehlermeldung:

Einfach „Don’t show again“ und „OK“ anklicken und die Fehlermeldung stört nicht mehr.

Sobald alle Domains berechnet sind, kannst du dann nach Größe aufsteigend sortieren und erhältst ganz oben, die niedrigsten Werte. Im schlimmsten Fall, die Domains, die aus dem Index geflogen sind. Die würde ich dann noch mal gesondert überprüfen.

Weitere Werte

Bei Bedarf kannst du dir auch noch den PageRank der Domains holen:

=GooglePageRank(A2)

Oder die Seolytics-Backlinkdaten (da ich da keinen Account habe, konnte ich das nicht testen), oder das Domainalter:

=DomainAge(A2)

oder, oder, oder. Excel und die Seo Tools bieten da genügend Möglichkeiten.

9 Kommentare
  1. Christoph C. Cemper
    Christoph C. Cemper sagte:

    Hi Michael,

    gute Zusammefassung.

    Ich möchte anmerken, dass wir in den Link Research Tools das alles schon lage drin haben. Mit einem LRT Account müssen nur die Google-Metriken – da eben G!idx – ausgewählt werden, und die Info ob die Domain indizierte Seiten hat kommt automatisch in allen Reports dazu – neben bis zu 65 anderen Metriken.

    Das Ding ist halt, dass auch andere Domains, mit negativem Linkwachstumstrend (LVT) stark gefährdet sind, auch nur eine weitere Metrik bei uns.

    Diese Auswertungsmöglicheit ist auch schon bei den kleinsten Account drin (Quick) und der mächtige Vorteil ist halt, dass Ihr dann nicht ständig mit Google-Blockaden arbeiten müsst, denn wenn Du für 5000 Domains dieses „GoogleIndexedCount“ lädst, wirst Du sofort gesperrt, da die (sonst geilen) SEOExcel-Tools halt kein Proxymanagement dabei haben (hab ich dem Autor vor ca. 2 Jahren aber empfohlen)

    VG aus Wien
    Christoph

    Antworten
    • Michael
      Michael sagte:

      Hi Christoph,
      die LRTs kenne ich natürlich, ich war „damals“ sogar beim Beta-Test dabei.
      Die Sachen, die hier in meinem Blog stehen werden, sind in der Regel Proof-of-Concepts oder kleine Excel-Hacks für den Hausgebrauch. Für meine eigenen Tools arbeite ich natürlich anders. Die laufen auf Servern mit jeder Menge Proxies und Rechenpower. Die LRTs kann ich dabei leider nicht nutzen, weil mir da die entsprechende Schnittstelle fehlt 😉

      Antworten
  2. Andy
    Andy sagte:

    Ich kanne bis gerade noch gar nicht das Tool, aber das nenne ich doch mal echt eine klasse sache. So war meinen excel Tabelle schnell abgearbeitet. Die Frage welche sich mir jetzt aber stellt ist was mit den Artikel und den Links passiert. Nur entwertet wäre ja noch gut, wenn es aber auch auf die verlinkten Domains zurückfällt wird es hart.

    Antworten
  3. Stefan Oversberg
    Stefan Oversberg sagte:

    Man könnte auch erst mal mit der Liste der eigenen Domains anfangen und schauen was das los ist. Ich hatte bei einem Projekt plötzlich statt 12.000 Seiten nur noch 35 im Index. Lag aber daran, dass ich die URL Struktur umgestellt hatte. Aber auch nach 2 Monaten hat Google die neue URL Struktur nicht gefressen. Also wieder Kategorien aus der URL rausgenommen, bei den WMT „Fehler behoben“ (12 Tage jeweils 1.000 URLs) angeklickt und schon war wieder alles gut.

    Antworten
  4. Sharif
    Sharif sagte:

    Naja, ich kann aber nur sagen, dass Celen & Leger schon was besonderes angestellt haben muss. Weil ich auch einen Kunden habe, der so ein Netzwerk betreibt und das ist noch im Index, auch unseres erholt sich langsam wieder. Selbst bei den Artikelverzeichnissen hats nicht alle erwischt. Artikelfan ist noch da, online-artikel.de auch. Ich denke das liegt daran wie sehr aktualisiert wird. Meiner Meinung nach.
    Viele Artikelverzeichnisse machen selten ein Update, wie Celen und Leger z. B. wenn immer noch eine uralte WP-Version darauf ist, dann ist das ersichtlich. Auch wenn eine komplette Liste on ist über die Artikelportale direkter geht es ja nicht.
    Auch das Geschwafel mit gutem Content muss nichts heißen. Wenn Google es tatsächlich könnte einen Webseitentext nach der Qualität zu überprüfen hätte es ja auch sämtliche Firmenwebseiten erwischen müssen. Hat es aber nicht. Des Weiteren gäb es sicher schon ein Programm auf dem Markt, mit dem man die Qualität der Texte beurteilen könnte, auch die Rechschreibprogramme wären deutlich besser und würden merh Fehler erkennen.

    Antworten

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert