Seite 1 von 1
frage über robots.txt
Verfasst: 09.03.2004, 23:48
von OnkelReh
hallo Leute!
auf meiner hopage wird versucht die robots.txt zu öffnen,
jedoch ist sie in meinem verzeichnis gar nicht vorhanden.
sollte ich sie selber anlegen?
vielleicht leer?
danke für eure hilfe
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 09.03.2004, 23:54
von glastron
User-agent: *
Disallow:
Das sollte mindestens drin stehen.
User-agent: *
Disallow: /
Dieses vielleicht besser nicht!
Gruß, Jan
Verfasst: 09.03.2004, 23:58
von OnkelReh
also einfach textdatei schreiben mit:
User-agent: *
Disallow:
speichern unter: robots.txt
und fertig?
DANKE FÜR DIE SCHNELLE HILFE
ist es besser keine robots.txt zu haben?
Verfasst: 10.03.2004, 00:05
von glastron
Ganz genau, so einfach ist es manchmal
Es sei denn Du hast da Sachen oder Verzeichnisse auf Deinem Server, die nicht gespidert werden sollen. Dann sollte man das noch entsprechend abändern.
Hier stehen ein paar Beispiele drin. Bitte mich bitte nicht, das zu übersetzen
https://www.searchengineworld.com/robot ... torial.htm
Jan
Verfasst: 10.03.2004, 00:15
von OnkelReh
ich habe mir gerade die robots.txt von abakus angesehen.
ooohhh ist die lang
sie verbietet ja so einigen den zugriff.
ist es empfehlenswert sie zu übernehmen?
Verfasst: 11.03.2004, 11:11
von viggen
Kommt darauf an ob du die gleichen Verzeichnisse hast und diese Ausschließen willst, und ob du die gleichen spider nicht haben willst.
mfg
viggen
Verfasst: 11.03.2004, 17:40
von OnkelReh
ich meine eher ob es einen grund gibt so viele speider zu verbieten.

Verfasst: 11.03.2004, 18:20
von Halli
OnkelReh,
mir fallen vor allem zwei Gründe ein, einige Spider zu verbannen:
1. Offline-Reader
Diese Programme holen einzelne Seiten oder sogar Deine komplette Homepage auf die Festplatte des anderen Users. Dort kann er dann nach Belieben Deinen Quelltext analysieren etc. Wenn jemand z.B. versucht, sich mein komplettes Lexikon zu saugen sind das mal so auf die Schnelle 280 MB an Traffic, den ICH bei Überschreiten des Freivolumens zu zahlen habe.
2. Adressen-Sammler
Diese Spezies an Spidern ist mir am meisten verhaßt! Sie checken Deine Site auf der Jagd nach Mailadressen, die dann meistbietend an Spamversender verscherbelt werden.
Verfasst: 11.03.2004, 23:02
von OnkelReh
ach herje eine böse welt!
also brauche ich mich nicht zu wundern das ich täglich vollgemüld werde mit emails.
Verfasst: 29.03.2004, 00:37
von ollipop
Halli hat geschrieben:OnkelReh,
mir fallen vor allem zwei Gründe ein, einige Spider zu verbannen:
1. Offline-Reader
2. Adressen-Sammler
Kannst Du diese "bösen" Spider mit Namen nennen?
Verfasst: 29.03.2004, 04:41
von Hulot
Moin Halli
[...] 2. Adressen-Sammler
Diese Spezies an Spidern ist mir am meisten verhaßt! Sie checken Deine Site auf der Jagd nach Mailadressen, die dann meistbietend an Spamversender verscherbelt werden. [...]
Jou, das stimmt. Hast Du entsprechende Vorkehrungen auf Deinen Seiten getroffen?
Gruß Hulot
Verfasst: 30.03.2004, 11:17
von fool
@halli
ist es möglich, eine Liste aufzustellen, die die lästigen Offline-Reader und
Adressen-Sammler zusammenfaßt? Ich habe auch mal einen Blick auf die abakus- robots geworfen und dann gedacht, wird die Seite überhaupt noch von irgendwas erfaßt
Aber 1. Offline-Reader
2. Adressen-Sammler
zu kennen und zu bannen wäre ja wirklich sinnvoll.
Schönen Tag wünscht
fool