Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
<meta http-equiv="refresh" content="6; URL=https://www.nietenarmband-shop.de/">
Das finde ich in der Tat auch sehr sonderbar. Falls noch einmal so etwas passiert schau Dir die robots.txt aus Google-Sicht unbedingt in den Webmastertools an (unter Website-Konfiguration -> Crawler-Zugriff).MaikWF hat geschrieben:In den Webmaster Tools steht als Begründung, dass die Datei durch robots.txt gesperrt würde. Der Witz bei der Sache ist, ich hatte zu diesem Zeitpunkt gar keine robots.txt.
Ich finde es auch sonderbar, zumal die Webseite eigentlich ganz einfach gestrickt ist und die Sache so klar sein sollte. Wenn ich die derzeitige Version der robots.txt teste (leere Datei), kommt nur der Standardtext:profo hat geschrieben:Das finde ich in der Tat auch sehr sonderbar. Falls noch einmal so etwas passiert schau Dir die robots.txt aus Google-Sicht unbedingt in den Webmastertools an (unter Website-Konfiguration -> Crawler-Zugriff).
Eben, für die Zielgruppe, auf die dieser Shop ausgerichtet ist, ist der Cursor passend. Ich erhalte von meinen Kunden auch durchweg positives Feedback was den Shop anbelangt. Abgesehen davon geht es hier um die robots.txt und nicht um den Cursor.@Pompon, den Cursor finde ich eigentlich ein gutes Beispiel dafür, was man zielgruppengerecht für eine Site tun kann. Muss ja nicht uns gefallen, sondern den Usern
Das ist normale. Wenn die Seiten mal aufgenommen waren, auch wenn das schon Jahre her ist, dann werden die immer wieder mal geprüft. Sind die aber in der robots.txt gesperrt, dann kommen entsprechende Meldungen, da sie eben nicht aufgerufen werden können.Ich würde auch sehr gerne wissen, warum die Seiten, die in der robots.txt gesperrt sind, in den WMT als "Crawling Fehler" wieder auftauchen.