Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
telefonmann
PostRank 1
PostRank 1
Beiträge: 16
Registriert: 07.04.2003, 07:42

Beitrag von telefonmann » 17.06.2003, 13:19

ich habe heute zum ersten mal eine robots.txt erstellt
https://www.abakus-internet-marketing.d ... -tools.htm

ein paar fragen habe ich dazu noch:

1. werden bestimmte datei-typen grundsaetzlich nicht gespidert?
2. wenn ich ein komplettes verzeichnis vebiete, kann ich einzelne dateien daraus davon ausnehmen?
3. wirkt sich die robots.txt positiv auf das ranking der seite aus?

danke
gruesse
der telefonmann

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Noki
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 16.05.2003, 22:27
Wohnort: Gernsbach

Beitrag von Noki » 17.06.2003, 15:33

zu 1.) Das hängt von der Suchmaschine ab, aber grundsätzlich ja, denn eine Bildsuchmaschine wird besitmmt keine PDF-Dateien spidern und Word und Exel-Dateien Spidern die meisten Suchmaschine auch nicht genau wie Archiv und ausführbare Dateien, aber drauf verlassen würde ich mich nicht :)

zu 2.) soweit ich weis nicht, du mußt dann die Dateien verbieten und den rest freilassen, ansonsten könnte man die robots.txt ja als alternative Sitemap nutzen :)

zu 3.) Das kommt ganz drauf an, die robots.txt ist in erster Linie dazu gedacht Spider zuzulassen oder auszusperren, und hat vom Grundsatz her nichts mit dem Ranking zu tun. Wenn du jedoch mittels robots.txt alle Spider aussperrst dann wird sich das ganze natürlich negativ auswirken. Ich habe aber mal gehört das es auch Spider gibt die nur Seiten spidern die eine robots.txt besitzen, sind aber nicht allzuviele und vorallem nicht die großen und relevanten.

> tobias

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 17.06.2003, 17:29

Google spidered exel, pdf und word dateien, man kann sogar gezielt in "erweiterte suche" danach suchen.

cheers
viggen

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 15.12.2003, 09:52

Moin.
Was ist eigentlich, wenn man keine robots.txt im Verzeichnis hat?

(Wollte bis dato nicht aussperren, nur Test-Domain.)

Code: Alles auswählen

64.68.82.54 - - [14/Dec/2003:12:00:48 +0100] "GET /robots.txt HTTP/1.0" 404 - "-" "Googlebot/2.1 (+http://www.googlebot.com/bot.html)"
64.68.82.54 - - [14/Dec/2003:12:00:49 +0100] "GET / HTTP/1.0" 200 40489 "-" "Googlebot/2.1 (+http://www.googlebot.com/bot.html)"
Das ist das Ergebnis.
Okay, 404 ist klar, weil eben nicht vorhanden. Aber 40489?

Weiß das jemand?

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 15.12.2003, 10:30

Klaus,

der zweite Aufruf sieht mir danach aus, dass dann Deine Domain aufgerufen wurde. Und die '40489' müßte die Größe Deiner Startseite in Byte sein.

Mehr zu Logfiles findest Du in unserem Internet-Lexikon, Stichwort: Logfiles
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 15.12.2003, 10:38

Hallo Halli.
Recht hast Du.
Danke.
:idea:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag