Dann nochmal wegen der der Filternavigation: wir haben ca 30 verschiedene Filtermöglichkeiten (je nach Produkt verschiedene). Würdet ihr das canonical tag verwenden oder ist es sinnvoller, die ganze Filternavigation nofollow zu setzten?
Zuletzt geändert von Manu v6 am 13.09.2012, 16:56, insgesamt 1-mal geändert.
Erfolgreiche und optimale Nutzung mit Magento Shopsystemen!
Nutzen Sie unsere jahrelange Erfahrung mit Magento Shopsystemen und lassen Sie sich beraten!
So haben wir das ja akutell. Was ich mich halt gefragt habe: ich verstehe den Einsatz des canonical tag z.B. wenn ein Produkt über www.seite/kategorie1/produkt1 und www.seite/kategorie2/produkt1 erreichbar ist - es handelt sich ja um 100% die gleiche Seite. Bei der Filternavigation ist aber jede Seite (etwas) anders: Entweder es werden Produkte aus Silikon oder Abs oder was auch immer angezeigt.
Und ob unsere Filter in der jetztigen Form SEO mäßig helfen, wage ich zu bezweifeln, der URL wird ja immer nur z.B. ?material=234 usw. angehängt , das müssten wir erst mal ändern. Das fande ich in diesem Zusammenhang recht interessant: https://www.suchradar.de/magazin/archiv ... gation.php trifft bei uns nur (noch?) nicht zu.
Warum nofollow ?
Solange Ihr die URL noch á la ?material=234 habt, würde ich einfach ein klassisches "Disallow: /*? " in die robots.txt reinhauen um DC zu vermeiden (Klar canonical geht auch, aber es sind ja nicht wirklich identische Seiten).
Wir haben das in unseren Magentoshop so gelöst, jedenfalls temporär bis die Parameter dann umgeschrieben werden.
Da hast du mich ja auf was gebracht. In den robots hat mein Kollege schon ganz am anfang die Parameter gesperrt. Ich habe die Paramter später in den WMT auch noch auf zu ignorieren gesetzt - doof, da hat die Kommunikation nicht gepasst. Was mich aber wundert: ich habe ja kürzlich die Parameter in den WMT auf "google soll entscheiden" gesetzt und plötzlich waren alle Parameter wieder im Index, obwohl sie in der robots.txt noch gesperrt sind.
Ladezeit (Startseite) mit leerem Cache und DSL 3000: 2,7 sec, WMT zeigt 2,1 sec Alexa 0,98 sec. Mit der Seite im Cache ca 1 - 1,2 sec. Da ist noch ein bißchen Spielraum, alles haben wir noch nicht ausgeschöpft.
Was haste denn mit den alten gemacht?
Ich vermute jetzt einfach mal nichts... somit wäre jegliche Verlinkung von extern futsch.
Keine Links kein Ranking.
Alle alten Urls mit 301 auf die neuen passenden urls weiterleiten.
Der Ausschluss in der robots.txt bedeutet nur, dass Google die Seiten nicht mehr "einliest". Wenn diese Seiten allerdings angelinkt werden (extern oder intern) stehen sie eventuell trotzdem im Index. Gab gerde erst einen Post auf seokratie dazu: https://www.seokratie.de/google-und-der ... canonical/
Texte/Content schnell und effizient en masse produzieren » Article Wizard «
Die URLs wurden nicht geändert - kam das so rüber? Unsere URLs sind schon immer so, auch die Paramter habe sich nicht geändert, das "Problem" besteht schon immer!
Interssanter Artikel Hirnhamster - das würde auf jeden Fall schon mal erklären, warum gesperrte Inhalte in den google-Ergebnissen auftauchen.