robots.txt u. Einstellungen der Url-Parameter in Webmasterto
Verfasst: 28.10.2013, 00:38
Ich bin eher Laie und Suche nach Hilfe von Erfahrenen.
Habe seit etwa 4 Wochen ein Problem Google liest veraltete Seiten und Seiten, die nicht gelesen werden sollen und auch früher nicht gelesen wurden. Das kann evtl. mit versehentlichen Einreichung von veralteten Sitemap zu tun. Seitdem sind sämtliche Positionen verlorengegangen.
Meine Fragen:
1. welche Zugrifsrechte muss die robots.txt Datei haben, damit Google sie beachtet?
2. wie sollen URL-Parameter in Webmastertool eingestellt werden, habe nicht wirklich Ahnung zB. currency, info, cat, gm_boosted_category, gm_boosted_product ?
Bei den Beispiel Urls werden sehr lange Urls mit merkwürdigen Zeichen angezeigt. XTCsid habe ich mit einstellung keine Urls, ich hoffe das ist richtig.
Ich hoffe sehr auf eure Hilfe.
Habe seit etwa 4 Wochen ein Problem Google liest veraltete Seiten und Seiten, die nicht gelesen werden sollen und auch früher nicht gelesen wurden. Das kann evtl. mit versehentlichen Einreichung von veralteten Sitemap zu tun. Seitdem sind sämtliche Positionen verlorengegangen.
Meine Fragen:
1. welche Zugrifsrechte muss die robots.txt Datei haben, damit Google sie beachtet?
2. wie sollen URL-Parameter in Webmastertool eingestellt werden, habe nicht wirklich Ahnung zB. currency, info, cat, gm_boosted_category, gm_boosted_product ?
Bei den Beispiel Urls werden sehr lange Urls mit merkwürdigen Zeichen angezeigt. XTCsid habe ich mit einstellung keine Urls, ich hoffe das ist richtig.
Ich hoffe sehr auf eure Hilfe.