Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google am Indexieren hindern

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
wuschba
PostRank 8
PostRank 8
Beiträge: 655
Registriert: 16.06.2006, 16:37

Beitrag von wuschba » 09.02.2007, 13:35

Also, Google hat bei mir lauter Seiten bei site:, die so aussehen:
www.domain.de/shop/?product=1234
www.domain.de/shop/?product=1235
www.domain.de/shop/?product=1236
Kein Cache, kein Datum, aber halt den Link. Dabei hatte ich das Shop-Verzeichnis per robots.txt gesperrt und dies auch über sitemaps validiert.

Also habe ich diese Seiten noch mit "noindex, nofollow" versehen, was ich vergessen hatte. Per URL-Konsole habe ich dann alle diese URLs gelöscht, war auch innerhalb von 2 Tagen raus. Aber mit dem neuen Besuch des Bots kamen auch wieder diese Seiten in den Index.

Also habe ich alle Links ins Shop-Verzeichnis mit "rel=nofollow" markiert. Selbes Spiel wie oben: Alles händisch gelöscht, alles wieder im Index.

Ich bin kurz davor, einen 404er zu senden, wenn eine der Seiten aufgerufen wird. Wieso kapiert der Google-Bot das nicht?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 09.02.2007, 15:00

externe verlinkung von aussen evtl?
aber selbst dann dürfte bei noindex das ding auch nicht im index erscheinen....hm...

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 10.02.2007, 01:54

wuschba hat geschrieben:Also, Google hat bei mir lauter Seiten bei site:, die so aussehen:
www.domain.de/shop/?product=1234
www.domain.de/shop/?product=1235
www.domain.de/shop/?product=1236
Kein Cache, kein Datum, aber halt den Link. Dabei hatte ich das Shop-Verzeichnis per robots.txt gesperrt und dies auch über sitemaps validiert.

Also habe ich diese Seiten noch mit "noindex, nofollow" versehen, was ich vergessen hatte. Per URL-Konsole habe ich dann alle diese URLs gelöscht, war auch innerhalb von 2 Tagen raus. Aber mit dem neuen Besuch des Bots kamen auch wieder diese Seiten in den Index.

Also habe ich alle Links ins Shop-Verzeichnis mit "rel=nofollow" markiert. Selbes Spiel wie oben: Alles händisch gelöscht, alles wieder im Index.

Ich bin kurz davor, einen 404er zu senden, wenn eine der Seiten aufgerufen wird. Wieso kapiert der Google-Bot das nicht?
Gewünschtes Verzeichnis (oder ganze Domain) per .htaccess für IP-ranges von Googlebots sperren, das klappt dann schon.
Allerdings die error-logs so konfigurieren, daß nur bei emergency-Ereignissen geloggt wird und nicht bei error-Ereignissen, denn der Google-Bot ist autistisch und knallt sonst die logs voll bis zum Anschlag mit seinen verzweifelten spider-Versuchen...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag