Ich habe mal eine grundlegende Frage, die mich bewegt. Ist es denn sinnvoll das Objekt für alle Robots zu sperren ?
mögl. Vorteile wären:
- Erkennung von SpamIPS die sich nicht an die Robots halten
- Verhinderung von Spamatacken
- Verhinderung der Indizierung der Impressum Seite
- nicht jeder sieht in der Suma wenn man nach Name + Impressum
sucht gleich wer welche Seiten betreibt ( my favorite )
Seht Ihr in diesem Bereich Nachteile für das Ranking ?
Macht es evtl. Sinn diese Seite NICHT zu sperren ?
Gibt es Seiten, die Ihre generell sperrt ?
Bevor nun einer sagt es halten sich viele nicht an die Robots, so ist der Sinn ja die "Bösewichte" zu stellen und per htaccess wegzuleiten.
auf der sicheren seite bist du mit mitteln wie noindex und nofollow und robots.txt nie. denn spambots halten sich da dummerweise nicht dran...dann mit htaccess sie jungs rauszufischen und wegzuschieben sieht schon realistischer aus. allerdings frage ich mich, wie du rausfinden willst, ob's sich um nen bot oder nen user handelt. da gibts dann nämlich die nächsten probleme.
insofern solltest du versuchen das impressum anderweitig, wie zb. iframe/bild schützen.
100% schutz wirst du eh nie haben...das ist einfach unmöglich...
ansonten schließe ich ein paar sachen per robots aus, und ein paar sind nur mit einem noindex versehen. sind aber alles keine spamschutzmaßnahmen, sondern lediglich die prävention von DC
kategorie: Neuheiten und Favoriten.
Denn beide Inhalte sind auch über die anderen Kategorieren abrufbar.
Daher wird das zwar dem User präsentiert, aber Google darf nicht mitspielen.