Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Komplette Domain versehentlich mit robots.txt blockiert!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
a priori
PostRank 5
PostRank 5
Beiträge: 232
Registriert: 13.07.2006, 07:05
Wohnort: Hannover

Beitrag von a priori » 29.01.2012, 13:09

Hallo,

bei Änderungen an der robots.txt Datei für eine meiner Seiten vor etwa 3 Tagen habe ich versehentlich eine Disallow Zeile stehen lassen, so dass für Google die ganze Domain blockiert wurde.

Zum Glück ist die Seite noch! nicht aus dem Index geflogen.

Ich habe die robots.txt heute natürlich sofort geändert. Was kann ich aktuell tun, um Google jetzt schnellstmöglich mitzuteilen, dass die Seite wieder indexiert bzw. nicht blockiert werden soll (darf)?

Da Google ja bekanntlich einige Zeit braucht, um die Änderungen in der robots.txt zu übernehmen, habe ich Angst, dass Google die Seite vielleicht doch noch aus dem Index wirft, weil Google die neue robots.txt noch nicht registriert hat.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


CyberNibbler
PostRank 5
PostRank 5
Beiträge: 283
Registriert: 19.08.2008, 16:57
Wohnort: Berlin

Beitrag von CyberNibbler » 29.01.2012, 13:45

Betreust du die Seite nicht in den Google Webmaster Tools?
Das solltest du tun und dort kannst du das Problem am besten lösen.
Dort steht auch, an welche robots-Richtlinien sich Google aktuell richtet.

a priori
PostRank 5
PostRank 5
Beiträge: 232
Registriert: 13.07.2006, 07:05
Wohnort: Hannover

Beitrag von a priori » 29.01.2012, 13:49

CyberNibbler hat geschrieben:Betreust du die Seite nicht in den Google Webmaster Tools?
Doch.

CyberNibbler hat geschrieben:dort kannst du das Problem am besten lösen.
Wie?
CyberNibbler hat geschrieben: Dort steht auch, an welche robots-Richtlinien sich Google aktuell richtet.
Ja, bei der Funktion "Abruf wie durch Googlebot" steht "Von robots.txt abgelehnt". Die Seite konnte nicht gecrawlt werden, da sie durch eine robots.txt-Datei blockiert wird.

Mittlerweile wurde die robots.txt ja aktualisiert, aber das hat Google leider noch nicht mitbekommen...

CyberNibbler
PostRank 5
PostRank 5
Beiträge: 283
Registriert: 19.08.2008, 16:57
Wohnort: Berlin

Beitrag von CyberNibbler » 29.01.2012, 13:55

a priori hat geschrieben:Ja, bei der Funktion "Abruf wie durch Googlebot" steht "Von robots.txt abgelehnt". Die Seite konnte nicht gecrawlt werden, da sie durch eine robots.txt-Datei blockiert wird.

Mittlerweile wurde die robots.txt ja aktualisiert, aber das hat Google leider noch nicht mitbekommen...
Ui...
Ich denke, dann hilft nur abwarten, bis der GoogleBot die robots.txt erneut requested und sich daran hält.

a priori
PostRank 5
PostRank 5
Beiträge: 232
Registriert: 13.07.2006, 07:05
Wohnort: Hannover

Beitrag von a priori » 29.01.2012, 14:36

Uff. Die robots.txt wurde vor 15 Minuten erneut requested. Nun wird sich hoffentlich wieder alles einpendeln. Danke für eure Antworten.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag