Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Alles hat ein Ende nur die robots.txt nicht

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
seonole
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 21.02.2005, 21:01
Wohnort: Internet

Beitrag von seonole » 15.07.2008, 17:35

Es ist doch ein Horror, wenn man täglich seine robots txt oder die htaccess mit Befehlen füttern muss, um seine Seite vor den bösen Robots und Proxyblablabla zu schützen.

Ist es nicht langsam an der Zeit, das die seriösen Suchmaschinen andere Befehle lernen?

Wäre es nicht viel einfacher, wenn man solche robots.txt verwenden könnte:

Code: Alles auswählen

User-agent: *
Disallow: /

User-agent: Goooogle
Allow:/
So könnte man sich beruhigt um wichtigere Sachen kümmern, als sich täglich vor dem ganzen Schrott schützen zu müssen.

Leider - und bitte korrigiert mich wenn ich falsch liege - haben die Sumas mit obigen Befehlen ein Problem.

Ich kann die Zeilen auch umkehren, sodass man vermuten könnte, die Sumas lesen von oben nach unten:

Code: Alles auswählen

User-agent: Goooogle
Allow:/

User-agent: *
Disallow: /
... trotzdem meint Gooooogle dann immer noch, die Seite nicht betreten zu dürfen.

Wenn ich mit der Meinung falsch liege, dann würde ich mich über eine beispielhafte robots.txt freuen, bei der ich nur noch die eintragen müßte,
welche die seiten betreten dürfen.

Schönen Sommer!