Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt u. Einstellungen der Url-Parameter in Webmasterto

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
grazka
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 27.01.2011, 21:51

Beitrag von grazka » 28.10.2013, 00:38

Ich bin eher Laie und Suche nach Hilfe von Erfahrenen.
Habe seit etwa 4 Wochen ein Problem Google liest veraltete Seiten und Seiten, die nicht gelesen werden sollen und auch früher nicht gelesen wurden. Das kann evtl. mit versehentlichen Einreichung von veralteten Sitemap zu tun. Seitdem sind sämtliche Positionen verlorengegangen.
Meine Fragen:
1. welche Zugrifsrechte muss die robots.txt Datei haben, damit Google sie beachtet?
2. wie sollen URL-Parameter in Webmastertool eingestellt werden, habe nicht wirklich Ahnung zB. currency, info, cat, gm_boosted_category, gm_boosted_product ?
Bei den Beispiel Urls werden sehr lange Urls mit merkwürdigen Zeichen angezeigt. XTCsid habe ich mit einstellung keine Urls, ich hoffe das ist richtig.

Ich hoffe sehr auf eure Hilfe.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Sciencefreak
PostRank 4
PostRank 4
Beiträge: 118
Registriert: 21.05.2013, 18:08

Beitrag von Sciencefreak » 28.10.2013, 12:33

1. Wenn die robots.txt im Stammverzeichnis liegt und von außen erreichbar ist, kann auch der Bot sie lesen.

2. Bei den URL-Parametern ist Vorsicht geboten. Falsche Einstellungen können dazu führen, dass viele Unterseiten aus dem Index fliegen und von Google ignoriert werden. Die richtigen Einstellungen können dagegen benutzt werden, um doppelten Content zu vermeiden oder unerwünschte Seiten aus dem Index rauszuhalten. Ohne zu wissen, was der jeweilige Parameter macht, ist das mit den konkreten Tipps aber ziemlich schwierig.

grazka
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 27.01.2011, 21:51

Beitrag von grazka » 28.10.2013, 13:45

Ok, danke. Also konkrette Aussagen bezüglich URl-Parameter lassen sich so nicht treffen? Was soll ich dann machen, damit die Einstellungen nicht verkehrt sind. Die ganze Liste habe ich bereits im Webmastertool und irgendwelche Voreinstellungen sind getroffen. Ich habe sie nicht gemacht, wurden sie von Google selbst voreingestellt und soll man sie so lassen oder lieber alle Parameter zurücksetzen? Wenn ich sie zurücksetze, was passiert dann? Ich habe zb. bei dem Parameter info Voreinstellung jede Url, das scheint mir etwas merkwürdig zu sein. Den Paraneter Xtcsid habe ich als keine Url eingestellt (war vorher stellvertetende Url) und Google hat jede Unterseite mehrmals gelesen oder jede Unterseite mit ständig anderer Url (mit den komischen Zeichen in URL). Seit der Umstellung hat sich leider nicht viel geändert oder braucht Google sehr lange, um so was umzusetzen?

Ich wäre dankbar, wenn mir jemand das genauer erklären kann.

Bei robots.txt Datei habe ich 444-Zugriff. Das dürfte richtig sein?