Indexierungsproblem
Verfasst: 15.11.2012, 11:24
Hallo,
ich habe folgendes Problem:
Ich habe gestern Abend nach meiner Seite gegoogelt und dieser Text erschien unter dem Link zu meiner Seite:
"Aufgrund der robots.txt dieser Website ist keine Beschreibung für dieses Ergebnis verfügbar. Weitere Informationen"
Die robots.txt-Datei sieht meiner Meinung nach normal aus:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: https://www.Seitenname.de/sitemap.xml.gz
Es wurde auch nur die Startseite gefunden, keine der Unterseiten.
Ich habe gestern Abend die Sitemap bei Google Webmastertools hochgeladen, allerdings zeigt er mir beim "testen" 25 Warnungen wegen der Robots-Datei an.
Heute morgen waren jedoch 22 Seiten indexiert, das Problem mit der Startseite besteht allerdings trotzdem noch und auch beim testen der Sitemap bekomme ich noch alle 25 Fehler angezeigt.
Weiß jemand Rat?
ich habe folgendes Problem:
Ich habe gestern Abend nach meiner Seite gegoogelt und dieser Text erschien unter dem Link zu meiner Seite:
"Aufgrund der robots.txt dieser Website ist keine Beschreibung für dieses Ergebnis verfügbar. Weitere Informationen"
Die robots.txt-Datei sieht meiner Meinung nach normal aus:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: https://www.Seitenname.de/sitemap.xml.gz
Es wurde auch nur die Startseite gefunden, keine der Unterseiten.
Ich habe gestern Abend die Sitemap bei Google Webmastertools hochgeladen, allerdings zeigt er mir beim "testen" 25 Warnungen wegen der Robots-Datei an.
Heute morgen waren jedoch 22 Seiten indexiert, das Problem mit der Startseite besteht allerdings trotzdem noch und auch beim testen der Sitemap bekomme ich noch alle 25 Fehler angezeigt.
Weiß jemand Rat?