Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URLs löschen, robots.txt

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Billy04
PostRank 5
PostRank 5
Beiträge: 258
Registriert: 11.05.2005, 08:31

Beitrag von Billy04 » 23.04.2012, 14:19

Hallo zusammen

Mein Programmierer musste gewisse URL Paramter ändern. Nun habe ich über google webmastertools festegestellt, dass ich sehr viele Crawling Fehler habe. Die meisten sind 500er Fehler. Problem ist, dass mein Programmierer sagt, dass er momentan keine 301er Umleitung platzieren kann, da ca. 100'000 Links betroffen sind. Er meint, dass google dies von selber richten wird. Nun habe ich gelesen, dass ich mittels einer google.txt datei, diese Seiten auch löschen kann.

Habe das nun so gelöst:

User-agent: *
Disallow: /forum/apfel-f40/
Disallow: /forum/birne-f62/
Disallow: /forum/kirsche-f94/
...


ist das so korrekt. Oder gibts ne andere Möglichkeit, die 100000 Links rasch möglichst aus dem Index zu entfernen?

Vielen Dank