Seite 1 von 1

frage über robots.txt

Verfasst: 09.03.2004, 23:48
von OnkelReh
hallo Leute!

auf meiner hopage wird versucht die robots.txt zu öffnen,
jedoch ist sie in meinem verzeichnis gar nicht vorhanden.

sollte ich sie selber anlegen? :roll:
vielleicht leer? :roll:

danke für eure hilfe

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 09.03.2004, 23:54
von glastron
User-agent: *
Disallow:

Das sollte mindestens drin stehen.

User-agent: *
Disallow: /

Dieses vielleicht besser nicht!

Gruß, Jan

Verfasst: 09.03.2004, 23:58
von OnkelReh
also einfach textdatei schreiben mit:
User-agent: *
Disallow:
speichern unter: robots.txt
und fertig?

DANKE FÜR DIE SCHNELLE HILFE

ist es besser keine robots.txt zu haben?

Verfasst: 10.03.2004, 00:05
von glastron
Ganz genau, so einfach ist es manchmal :D

Es sei denn Du hast da Sachen oder Verzeichnisse auf Deinem Server, die nicht gespidert werden sollen. Dann sollte man das noch entsprechend abändern.

Hier stehen ein paar Beispiele drin. Bitte mich bitte nicht, das zu übersetzen :)
https://www.searchengineworld.com/robot ... torial.htm

Jan

Verfasst: 10.03.2004, 00:15
von OnkelReh
ich habe mir gerade die robots.txt von abakus angesehen.
ooohhh ist die lang
sie verbietet ja so einigen den zugriff.
ist es empfehlenswert sie zu übernehmen?

Verfasst: 11.03.2004, 11:11
von viggen
Kommt darauf an ob du die gleichen Verzeichnisse hast und diese Ausschließen willst, und ob du die gleichen spider nicht haben willst.

mfg
viggen

Verfasst: 11.03.2004, 17:40
von OnkelReh
ich meine eher ob es einen grund gibt so viele speider zu verbieten. :-?

Verfasst: 11.03.2004, 18:20
von Halli
OnkelReh,

mir fallen vor allem zwei Gründe ein, einige Spider zu verbannen:

1. Offline-Reader
Diese Programme holen einzelne Seiten oder sogar Deine komplette Homepage auf die Festplatte des anderen Users. Dort kann er dann nach Belieben Deinen Quelltext analysieren etc. Wenn jemand z.B. versucht, sich mein komplettes Lexikon zu saugen sind das mal so auf die Schnelle 280 MB an Traffic, den ICH bei Überschreiten des Freivolumens zu zahlen habe.

2. Adressen-Sammler
Diese Spezies an Spidern ist mir am meisten verhaßt! Sie checken Deine Site auf der Jagd nach Mailadressen, die dann meistbietend an Spamversender verscherbelt werden.

Verfasst: 11.03.2004, 23:02
von OnkelReh
ach herje eine böse welt!
also brauche ich mich nicht zu wundern das ich täglich vollgemüld werde mit emails.

Verfasst: 29.03.2004, 00:37
von ollipop
Halli hat geschrieben:OnkelReh,

mir fallen vor allem zwei Gründe ein, einige Spider zu verbannen:

1. Offline-Reader
2. Adressen-Sammler
Kannst Du diese "bösen" Spider mit Namen nennen?

Verfasst: 29.03.2004, 04:41
von Hulot
Moin Halli
[...] 2. Adressen-Sammler
Diese Spezies an Spidern ist mir am meisten verhaßt! Sie checken Deine Site auf der Jagd nach Mailadressen, die dann meistbietend an Spamversender verscherbelt werden. [...]
Jou, das stimmt. Hast Du entsprechende Vorkehrungen auf Deinen Seiten getroffen?

Gruß Hulot

Verfasst: 30.03.2004, 11:17
von fool
@halli

ist es möglich, eine Liste aufzustellen, die die lästigen Offline-Reader und
Adressen-Sammler zusammenfaßt? Ich habe auch mal einen Blick auf die abakus- robots geworfen und dann gedacht, wird die Seite überhaupt noch von irgendwas erfaßt :D

Aber 1. Offline-Reader
2. Adressen-Sammler
zu kennen und zu bannen wäre ja wirklich sinnvoll.

Schönen Tag wünscht
fool