Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

google spidert nicht erlaubte dateien

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
redcan
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 25.04.2005, 13:25

Beitrag von redcan » 11.05.2005, 08:32

hallo zusammen,

google spidert nun schon zum 2. mal dateien die in der robots.txt mit

User-agent: *
Disallow: login.php
Disallow: ....
angegeben sind.
die robots.txt und index.html werden mehrmals täglich durch verschiedene googlebots angefragt, aber keiner geht auf die erlaubten dateien und pfade tiefer.
seiten wurde vor 3 wochen kpl. geändert, msn und andere spideren in die tiefe.
ist das normal das google die robots.txt nicht respektiert?
obige datein sin in den serps zu finden.

danke für eure info

andre

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 11.05.2005, 09:08

redcan hat geschrieben:google spidert nun schon zum 2. mal dateien die in der robots.txt mit

User-agent: *
Disallow: login.php
Disallow: ....
angegeben sind.
[...]
ist das normal das google die robots.txt nicht respektiert?
obige datein sin in den serps zu finden.
Sind die gesperrten Dateien nur mit Dateinamen in den Serps zu finden oder wird auch ein Titel und ein Snippet angezeigt?

Werden die gesperrten Dateien laut Logfiles vom Googlebot geladen?

cu, Robo :)

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 11.05.2005, 09:09

User-agent: *
Disallow: login.php

besser

User-agent: *
Disallow: /login.php

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 11.05.2005, 09:10

Mach es am besten so, wie in dem Standard beschrieben: https://www.robotstxt.org/wc/norobots.html

Disallow: /login.php

redcan
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 25.04.2005, 13:25

Beitrag von redcan » 11.05.2005, 09:22

@ robo
kpl. anzeige,
ja mit get geladen
von ca. 20 Dateien nur 4 gespidert


@SloMo und ThomasB
Danke, habs gerade geändert

fredde
PostRank 4
PostRank 4
Beiträge: 188
Registriert: 25.02.2004, 08:25

Beitrag von fredde » 11.05.2005, 22:46

wahrscheinlich handelt es sich um einen fake-useragent.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag