Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Impressum per Robots.txt sperren?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
SI NewMedia
PostRank 2
PostRank 2
Beiträge: 33
Registriert: 09.04.2006, 20:30

Beitrag von SI NewMedia » 18.04.2007, 23:46

Hallo werte Kollegen und Leser,

Ich habe mal eine grundlegende Frage, die mich bewegt. Ist es denn sinnvoll das Objekt für alle Robots zu sperren ?

mögl. Vorteile wären:

- Erkennung von SpamIPS die sich nicht an die Robots halten
- Verhinderung von Spamatacken
- Verhinderung der Indizierung der Impressum Seite
- nicht jeder sieht in der Suma wenn man nach Name + Impressum
sucht gleich wer welche Seiten betreibt ( my favorite )

Seht Ihr in diesem Bereich Nachteile für das Ranking ?
Macht es evtl. Sinn diese Seite NICHT zu sperren ?
Gibt es Seiten, die Ihre generell sperrt ?

Bevor nun einer sagt es halten sich viele nicht an die Robots, so ist der Sinn ja die "Bösewichte" zu stellen und per htaccess wegzuleiten.

Gruß,
Matthias

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 18.04.2007, 23:58

je mehr seiten im index desto besser. :)

kontaktdaten als bilddatei hinterlegen, in ein iframe ein betten, nofollow noindex setzen

denke mal mit der kombi biste auf der sichersten seite. ;)

gruß zuendschnur

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 19.04.2007, 12:29

auf der sicheren seite bist du mit mitteln wie noindex und nofollow und robots.txt nie. denn spambots halten sich da dummerweise nicht dran...dann mit htaccess sie jungs rauszufischen und wegzuschieben sieht schon realistischer aus. allerdings frage ich mich, wie du rausfinden willst, ob's sich um nen bot oder nen user handelt. da gibts dann nämlich die nächsten probleme.

insofern solltest du versuchen das impressum anderweitig, wie zb. iframe/bild schützen.
100% schutz wirst du eh nie haben...das ist einfach unmöglich...

ansonten schließe ich ein paar sachen per robots aus, und ein paar sind nur mit einem noindex versehen. sind aber alles keine spamschutzmaßnahmen, sondern lediglich die prävention von DC