Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Pagination in robots ausschliessen

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
marmuel
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 24.11.2012, 18:28

Beitrag von marmuel » 25.11.2013, 09:01

Hallo zusammen,

ich habe bei meinem Wordpress Blog folgendes Problem:

Bei der Blogdarstellung gibt es Buttons "Weitere Beiträge anzeigen" mit folgender Linkstruktur:

https://www.example.de/blog-kategorie/xy ... ie/page/3/

Ich erhalte nun einige 404-Fehler, da offensichtlich diese URL gecrawled wird.

Wie könnte ich in der robots.txt oder gar in der .htaccess dieses Problem lösen?

Gruss und Danke
Marco

nerd
PostRank 10
PostRank 10
Beiträge: 4023
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 25.11.2013, 11:06

hm wenn du es richtig machen willst, solltest du das pagination plugin in wordpress finden und alle "naechste seite" links mit

Code: Alles auswählen

rel="noindex"
versehen.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 25.11.2013, 12:13

marmuel hat geschrieben:Bei der Blogdarstellung gibt es Buttons "Weitere Beiträge anzeigen" mit folgender Linkstruktur:

https://www.example.de/blog-kategorie/xy ... ie/page/3/

Ich erhalte nun einige 404-Fehler, da offensichtlich diese URL gecrawled wird.
Die einzige richtige Lösung wäre, tote Links zu entfernen. Mit .htaccess ließe sich das defekte Linkziel zwar auf die richtige URL umleiten. Das wäre aber Pfuschwerk. Evtl. könntest Du auch einfach das Rewriting aktivieren, falls noch nicht geschehen.

Zu Nerds Anmerkung (oben): rel="next" wäre gut. rel="noindex" ist unsinnig. rel="nofollow" leakt Linkjuice und wäre zu vermeiden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag