Seite 1 von 1
Tyop 3 doppelte seiten
Verfasst: 29.08.2011, 11:52
von SEOeve
Hallo wiedermal :/
Ich habe eine Seite, die in Typo 3 erstellt wurde. Dort benutze ich für die userfreundlichen URLs RealUrl.
Wird vom Kunden eine neue Seite erstellt, wird diese aber 2 mal erzeugt! Ein man mit der kryptischen php URL und ein mal mit der schönen URL.
Diese werden auch beide bei google angezeigt. Gilt das dann nicht als DC???
Wie kann ich denn solche Seiten eigentlich aus google Löschen (also die mit der kryptischen php URL)?
In der Sitemap werden diese z.b. nicht angezeigt, aber irgendwie werden die trotzdem immer wieder von google gefunden

Verfasst: 29.08.2011, 11:57
von tmyp
Guck, ob das Modul nicht was schlaues tun kann, um Canonical-Infos an Google zu geben.
Falls nicht, sperr die kryptischen doch einfach per robots.txt, das sollte auch wirken.
Verfasst: 29.08.2011, 12:01
von SEOeve
Canonical-Infos? HÄ? ok, da muss ich mich schlau machen, aber das mit den robots ist ne super idee! Hätt ich auch mal drauf kommen können. THX

Verfasst: 29.08.2011, 12:02
von SEOeve
Aber noch mal zurück zur Frage:
Wie kann ich denn solche Seiten eigentlich aus google Löschen
Weil die ja im Webmastertool auch angezeigt werden....oder ist das einfach nur noch beim tool im archiv?
Verfasst: 29.08.2011, 13:50
von gzs
Du kannst in den Webmastertools bestimmte URL-Parameter sperren, beispielsweise ID - damit bekommst du die kryptischen URLs raus - zumindest theoretisch, aber auch bei meinen Typo3-Seiten landen immer mal wieder welche im Index. Geschadet hat mir das bislang aber nicht.
Allerdings habe ich keine Ahnung wie die von Google eigentlich gefunden werden, denn die kryptischen URLs sollten eigentlich von nirgendwo her zugänglich sein ...
Verfasst: 29.08.2011, 14:51
von tmyp
SEOeve hat geschrieben:Aber noch mal zurück zur Frage:
Wie kann ich denn solche Seiten eigentlich aus google Löschen
Weil die ja im Webmastertool auch angezeigt werden....oder ist das einfach nur noch beim tool im archiv?
Die URLs löschst Du am besten indem Du sie per robots.txt sperrst und dann bei Google in den Webmastertools einen Antrag auf Entfernung stellst.
Das Parameter-Sperren, wie gzs vorschlägt, ist natürlich auch noch eine gute Idee. Kombinier's einfach, dann bist Du ganz sicher ;)
zum Thema canonical url:
https://googlewebmastercentral.blogspot ... nical.html
Verfasst: 30.08.2011, 11:11
von SEOeve
danke an alle für die hilfreichen infos! Ich finds klasse, wie man sich auf euch verlassen kann :*