Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Webmastertools: Immer mehr "nicht ausgewählte" Sei

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Bilderkiste.de
PostRank 5
PostRank 5
Beiträge: 319
Registriert: 02.04.2006, 19:03
Wohnort: Kreuztal

Beitrag von Bilderkiste.de » 27.01.2013, 10:52

Bei mir steigt die Zahl der "nicht ausgewählten" Seiten (Indexierungsstatus) fast täglich an, obwohl die Seite gar nicht so aggressiv ausgebaut wird. Es dürfte sich dabei nicht um neue Seiten handeln, die Google (noch) nicht im Index zeigen will.

Meine Vermutung:

Ich habe auf vielen Seiten (z.B. https://www.calculino.com/de/geldanlage ... chner.html ) Amazon-Links in der linken Spalte. Diese erscheinen auf sehr vielen Seiten jeweils mit unterschiedlichen Aufrufparametern.

Damit die Klicks gezählt werden können, wird nicht direkt nach Amazon.de verlinkt, sondern über eine Zwischenseite Namens "microtipp.html", gefolgt von diversen Variablen.

Nun könnte ich mir vorstellen, dass jede Variablen-Kombination für Google eine eigene Seite ist, und Google nur 1x "microtipp.html" aufnehmen will und deswegen alle anderen auf den Status "nicht ausgewählt" setzt.

Am 13.10.2012 hat mein Programmierer das Problem seiner Aussage nach mit einem X-Robots-Tag gelöst: https://www.suchmaschinenoptimierung-le ... obots-tag/

Leider verstehe ich davon nicht wirklich viel und weiß auch nicht, wie ich das prüfen soll.

Wenn ich "microtipp.html" in der Robots.txt auf "nofollow" setze, würden die Seiten ja trotzdem gecrawled und indexiert, aber lediglich nicht für die Veröffentlichung auf Google freigegeben. Da ginge mir natürlich einiges an unnötiger Linkpower verloren.

Wie kann ich (bzw. mein Programmierer) Google dazu bewegen, dass er alle Seiten mit "microtipp.html" (unabhängig von den nachfolgenden Variablen) nicht berücksichtigt?

Ein rel="nofollow" im Link dürfte hier wohl auch kein Abhilfe schaffen, oder?

Oder kann man irgendwie prüfen, ob die Sache mit diesem X-Robots-Tag korrekt auf meiner Seite funktioniert und die "nicht ausgewählten" Seiten eine andere Ursache haben?
Zuletzt geändert von Bilderkiste.de am 29.01.2013, 00:54, insgesamt 1-mal geändert.
Verkaufe Versicherungs-Vergleiche-Domain www.binso.de - Bei Interesse bitte PN

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

she
PostRank 5
PostRank 5
Beiträge: 323
Registriert: 13.06.2011, 16:08
Wohnort: Hamburg

Beitrag von she » 28.01.2013, 11:04

Hm.... Seite nicht gefunden.
Geh in deine Robots.txt und leg dort an:
disallow: /pfad/zu/microtipp.html
noinde: /pfad/zu/microtipp.html

damit setzt du die seite auf noindex (wird nicht bei google INDEXIERT) und nofollow (die seite wird nicht GECRAWLT).

Achtung: der Noindex-Befehl funktioniert nur bei Google. Wenn dir auch andere Suchmaschinen wichtig sind, solltest du das ganze in den meta head, in die meta robots auf "noindex,nofollow" setzen.

Viel Erfolg

Nicole

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag