Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Newbie Frage zu Robot.txt

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
daytrader
PostRank 8
PostRank 8
Beiträge: 871
Registriert: 12.04.2006, 09:35

Beitrag von daytrader » 12.05.2006, 07:49

Hallo,

ich habe zwar die Suche bemüht, aber bei den vielen Treffen nch 30 min. noch keine Antwort auf meine Frage gefunden.
Ist eine Robot.txt pflicht und wie sollte sie Standartmäßig aussehen? Habe zwar mitbekommen, dass man damit Robots aussperren kann. Aber wenn man eine neue Seite hat und erstmal nichts aussperren will!?
Danke!

Grüße Day

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 12.05.2006, 08:49

Die robots.txt ist keine Pflicht, kannst du auch weglassen!
Mehr zum Thema (Google sei Dank...): https://www.bjoernsworld.de/suchmaschin ... s-txt.html

daytrader
PostRank 8
PostRank 8
Beiträge: 871
Registriert: 12.04.2006, 09:35

Beitrag von daytrader » 12.05.2006, 10:42

Ah, danke werde ich mir heute abend mal genauer durchlesen. Also ich die Robot.txt eigentlich nur dazu da, um Verzeichnisse, Crawler etc. auszuschließen und hat nichts mit der Aufnahme in Suchmaschine zu tun?
Habe momentan mit meiner neuen Seite das Problem, das zwar die Domain selber bei in den Suma´s indiziert ist und auch bei einigen Webkatalogen in denen ich sie eingetragen habe, aber es ist bislang noch kein einziges Unterverzeichnis indiziert. Vieleicht bin ich auch nur zu ungeduldig.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 12.05.2006, 10:48

Wenn du sie weglässt, dann hast du in den Statistiken allerdings viele 404er, weil die Robots versuchen darauf zuzugreifen!

daytrader
PostRank 8
PostRank 8
Beiträge: 871
Registriert: 12.04.2006, 09:35

Beitrag von daytrader » 12.05.2006, 13:27

Hört sich gefährlich an :lol: . Was heißt denn 404er?

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 12.05.2006, 13:28

Ne Fehlermeldung.

z.B.:
https://www.google.de/test

Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 13.05.2006, 00:18

Du kannst auch eine leere robots.txt (das s muß hinten dran!) einstellen, dann entfallen die Fehlermeldungen!

Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 13.05.2006, 20:42

Code: Alles auswählen

User-agent:*
Disallow:
Die o.g. Einträge sind meiner Meinung nach am besten. Der Robot arbeitet dann nach Schema X, so wie er soll:

- Sucht und findet die robots.txt
- findet in der Datei auwertbaren Text
- Der Text in der Datei verbietet ihm nichts, er darf also alles lesen.

So wird der Robot nicht in irgendwelche Routinen für Sonderfälle gezwungen und alles läuft wie gesagt nach Schema X ab.

Ich verspreche mir davon einen Geschwindigkeitsvorteil in der Indexierung - kann das aber noch nicht wissenschaftlich beweisen. Ist nur ein Gefühl.

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 13.05.2006, 23:20

Standard ist: eine leere Datei robots.txt.
Erspart dir Fehler in der Statistik und macht sonst genau nichts.

thetrasher
PostRank 5
PostRank 5
Beiträge: 238
Registriert: 31.12.2005, 10:50
Wohnort: Bad Tölz

Beitrag von thetrasher » 14.05.2006, 18:38

depp ich hat geschrieben:Standard ist: eine leere Datei robots.txt.
Erspart dir Fehler in der Statistik und macht sonst genau nichts.
Zu Risiken und Nebenwirkungen einer völlig leeren robots.txt fragen Sie die unfähigen Botprogrammierer. :lol: Einige Tastentipper rechnen bei der Erstellung ihrer Dummbots nicht mit der Auslieferung von 0-Byte-Dateien.

daytrader hat geschrieben:Aber wenn man eine neue Seite hat und erstmal nichts aussperren will!?
Du willst keinen einzigen die robots.txt beachtenden Bot aussperren?! Denk dran, dass nicht nur Bots von "echten" bzw. wünschenswerten Suchmaschinen die robots.txt lesen und beachten! Wenn Du aber meinst ...

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 14.05.2006, 22:34

Jou. und vergiss nicht, dir die gelb-schwarz gestreifte Zwangsjacke anzuziehen, bevor du die Straße überquerst.
Könnte ein Ein/Aus/Sonstwohin-Sperrer mit seiner dicken Liste von Gefahren im schwarzen BMW daherkommen.

Wah! (krank, alle ihr)

1azrael
PostRank 7
PostRank 7
Beiträge: 588
Registriert: 04.06.2004, 15:21

Beitrag von 1azrael » 15.05.2006, 08:08

alan hat hier in seinen Grundlagen etwas über die Robots Datei geschrieben und stellt eine Beisieldatei zur Verfügung. Da sind ne ganze Menge Bots aufgeführt die man aussperren sollte.
Guckst Du hier:
https://www.abakus-internet-marketing.d ... ts-txt.htm

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag