Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Keine Aufnahme mehr im Google Index wegen robots.txt?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
joedi
PostRank 1
PostRank 1
Beiträge: 12
Registriert: 20.10.2006, 18:20

Beitrag von joedi » 05.04.2008, 09:58

Hallo zusammen

Bevor ich mit meinem Portal online ging, habe ich bewusst verhindern wollen, dass Google die Website vorher durchsucht. Der Inhalt von robots.txt war folgender:
User-agent: *
Disallow: /

Inzwischen ist die Website fertig erstellt und ich möchte, dass Google diese im Index aufnimmt. Dazu habe ich robots.txt wie folgt geändert:
User-agent: *
Disallow:

Leider durchsucht Google die Website nach wie vor nicht oder indexiert sie nicht. Die letzte Aenderung (Durchsuchen aktivieren) ist jetzt bereits 15 Tage her und die Website ist im Google Index immer noch nicht zu finden.

In den Webmastertools habe ich folgende Informationen gefunden:
- Urls durch robots.txt eingeschränkt
- Zuletzt berechnet am 25.03.2008 (vor 10 Tagen)

Könnte es sein, dass Google wohl das aktualisierte robots.txt eingelesen hat, mit der Indexierung sich aber Zeit lässt?
Wie lange kann das noch gehen?
Kann ich die Indexierung irgendwie forcieren?

Ich hoffe nicht, dass ich grundsätzlich falsche Ueberlegungen anstelle.

Für eure Hilfe und Tipps bin ich euch sehr dankbar.
Werner