Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt u. Einstellungen der Url-Parameter in Webmasterto

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
grazka
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 27.01.2011, 21:51

Beitrag von grazka » 28.10.2013, 00:38

Ich bin eher Laie und Suche nach Hilfe von Erfahrenen.
Habe seit etwa 4 Wochen ein Problem Google liest veraltete Seiten und Seiten, die nicht gelesen werden sollen und auch früher nicht gelesen wurden. Das kann evtl. mit versehentlichen Einreichung von veralteten Sitemap zu tun. Seitdem sind sämtliche Positionen verlorengegangen.
Meine Fragen:
1. welche Zugrifsrechte muss die robots.txt Datei haben, damit Google sie beachtet?
2. wie sollen URL-Parameter in Webmastertool eingestellt werden, habe nicht wirklich Ahnung zB. currency, info, cat, gm_boosted_category, gm_boosted_product ?
Bei den Beispiel Urls werden sehr lange Urls mit merkwürdigen Zeichen angezeigt. XTCsid habe ich mit einstellung keine Urls, ich hoffe das ist richtig.

Ich hoffe sehr auf eure Hilfe.