Habe immer als 404er dass die robot.txt nicht gefunden wird.
Hab bisher auch keine eingerichtet.
Deshalb jetzt meine Frage, wie wichtig ist eine robot.txt? oder reicht es einfach nur im head-Bereich wenn etwas nicht gecrawlt werden soll? Wundere mich nur, weshalb überhaupt die robot.txt aufgerufen wird? Ist das Standard bei den spiders? oder muss da irgendwo was falsches angegeben sein`?
Würde mich freuen, wenn ihr mir helfen könnt.
www.tarifuniversum.de - Das Tarif-Vergleichsportal zu DSL, Mobilfunk, Geldanlage & Co
Ja, es ist Standard bei den guten (!) Suchmaschinen, dass die robots.txt (robots mit "s" hinten!) aufgerufen wird. Gute Sumas halten sich ja an die Anweisungen, die in der robots.txt stehen.
Ich kenne Deine Seite nicht; deshalb kann ich Dir auch nicht sagen, ob in Deinem Fall eine robots.txt angebracht wäre.
In aller Regel sollte das Aussperren von Spidern via entsprechendem Metatag im <head>- Bereich der betreffenden Seite aber exakt denselben Effekt haben.
Eine robots.txt schadet übrigens nie (außer man schreibt Blödsinn rein!)
Hobby-SEO
leg im root eine leere Textdatei robots.txt an.
Selbst wenn du es nicht brauchst hat es denn Vorteil, dass "robots.txt nicht gefunden 404" nicht im Error Log des Webservers auftaucht und du evtl. andere 404 Fehler schneller sehen kannst und dich um solchen kleinkram nicht kümmern mußt dito mit favicon.ico
Ja, so ist es:
robots.txt - auch wenn leer
favicon.ico - auch wenn völlig unpassend
gehört zur Grundausstattung, wenn du halbwegs saubere Statistiken haben willst.