Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Viele haben Fehler in ihrer robots.txt ;-)

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 20.02.2005, 01:59

Viele haben sehr ungewoehnliche Fehler in ihrer robots.txt:

Bastele grad wieder an meinem Backlink Checker herum und hab mir eben mal ein paar robots.txt ausgeben lassen, da sind viele Kuriositaeten dabei (viele robots.txt sind vom Aufbau auch einfach nur falsch), z.B. fuer was soll folgendes bitte stehen?

User-agent: *
Disallow:

uebersetzt: Regel fuer alle User-Agents, verbiete: (hab ich wohl vergessen, was ich verbieten wollte)...

Noch lustiger sind Leute die in ihrer robots.txt (natuerlich nicht interpretierten) PHP Code haben oder der Clou: mit Komma getrennt darin Keywords auflisten.

Viele sperren auch einfach alle Robots aus und wundern sich warum ihre Domain nie vom "PR -1" weg kommt ;-)
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Reimer
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 27.08.2004, 18:49
Wohnort: Kiel

Beitrag von Reimer » 20.02.2005, 03:50

Airport1 hat geschrieben:User-agent: *
Disallow:

uebersetzt: Regel fuer alle User-Agents, verbiete: (hab ich wohl vergessen, was ich verbieten wollte)...
Diese Regel sagt aus, dass der Robot sämtliche Inhalte indizieren darf. Erst das Backslash verbietet dem Robot jegliche Inhalte zu indizieren.

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 20.02.2005, 05:25

OK, syntaktisch ist es tatsaechlich ok und kann so verwendet werden. Duerfte wohl einer gaenzlich leeren oder gar fehlenden robots.txt gleich kommen?
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

larsneo
PostRank 4
PostRank 4
Beiträge: 178
Registriert: 03.01.2005, 17:21
Wohnort: Schwäbisch Gmünd

Beitrag von larsneo » 20.02.2005, 11:06

mit dem kleinen unterschied das der 404er bei der anforderung durch suchmaschinen entfällt ;-)
grüsse aus dem wilden süden
andreas <larsneo>
..::[zikula ]::.. ..::[cms-sicherheit.de]::..

Luckybuy3000
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 07.11.2003, 08:49
Wohnort: Essen

Beitrag von Luckybuy3000 » 20.02.2005, 16:44

Wie sperre ich eigentlich den Aufruf der robots.txt für die Öffentlichkeit ?

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 20.02.2005, 16:55

@larsneo: OK, ein 404er sollte aber auch bei einer leeren robots.txt entfallen, und es sollte semantisch gleichwertig sein. Im Exclusion Standard wird das Disallow: auch nur dazu benutzt um bestimmten Crawlern "vollen Zugriff" zu gewaehren, da macht es dann auch Sinn. Hingegen hat das alleinige Konstrukt "Erlaube allen alles" ungefaehr den gleichen Wert wie ein Schild an der Tuer zum Baecker: "Jeder darf eintreten" - btw, nice Avatar ;-)

@Luckybuy3000: Das macht doch ueberhaupt keinen Sinn! Oder gehoerst Du zu denen die in der robots.txt PHP Code oder Keywords stehen haben ;-) ?
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Luckybuy3000
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 07.11.2003, 08:49
Wohnort: Essen

Beitrag von Luckybuy3000 » 20.02.2005, 19:29

Nein, dazu gehöre ich nicht. Habe neulich nur die robots.txt einer bestimmten Seite ansehen wollen und eine Fehlermeldung bekommen. Die Datei wurde also irgendwo anders untergebracht.

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 20.02.2005, 21:01

Dann hatte die Domain in der Regel einfach gar keine robots.txt - das kommt durchaus vor.

Dann wird meist die Standard 404 Seite des Hosters geschickt (oft mit Bild - eine wahre Freude fuer Robots), da fuer HTTP 404 meist auch nichts individuelles eingerichtet ist.

Kannst ja mal mit https://www.ranking-hits.de/tools.php#header nachsehen ob es einfach nur ein 404er ist.
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 20.02.2005, 23:28

Airport1 hat geschrieben:Dann wird meist die Standard 404 Seite des Hosters geschickt (oft mit Bild - eine wahre Freude fuer Robots), da fuer HTTP 404 meist auch nichts individuelles eingerichtet ist.

Solange der korrekte HTTP Status Code gesendet wird ist dem Bot die Seite egal?!

Squarius
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 23.02.2005, 17:03
Wohnort: Hamburg

Beitrag von Squarius » 23.02.2005, 17:05

Airport1 hat geschrieben:Oder gehoerst Du zu denen die in der robots.txt PHP Code oder Keywords stehen haben ;-) ?
wie kommen leutz überhaupt drauf keywords in die robots.txt zu tun. soweit ich weiß werden die doch vollig ignoriert bzw. sogar die ganze datei. :-?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag