Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Code: Alles auswählen
User-agent: *
Disallow: /download/
Allow: /
User-agent: Googlebot
Allow: /download/erlaubtedatei
Disallow: /download/
Allow: /
Malte Landwehr hat geschrieben:Ja, das ist möglich und deine Frage ist auch schon die Antwort.
edit:Code: Alles auswählen
User-agent: * Disallow: /download/ Allow: / User-agent: Googlebot Allow: /download/erlaubtedatei Disallow: /download/ Allow: /
https://de.wikipedia.org/wiki/Robots_Exclusion_Standard"Nach einem Block, dessen erste Zeile mit User-agent: * beginnt, stoppt ein Webcrawler und liest den Rest der Datei nicht mehr. Also sollten in der Datei zuerst die Blöcke für spezielle Webcrawler stehen und als letztes der Block für alle."
Kleine Korrektur:Malte Landwehr hat geschrieben:Ja, das ist möglich und deine Frage ist auch schon die Antwort.
edit:Code: Alles auswählen
User-agent: * Disallow: /download/ Allow: / User-agent: Googlebot Allow: /download/erlaubtedatei Disallow: /download/ Allow: /
Code: Alles auswählen
User-agent: *
Allow: /
Disallow: /download/
User-agent: Googlebot
Allow: /
Disallow: /download/
Allow: /download/erlaubtedatei
Code: Alles auswählen
User-agent: *
Man sollte wohl nicht alles glauben, was auf Wikipedia steht. Danke euch beiden!Abraxas hat geschrieben: Nebenbei gesagt:erzeugt keinen Stop für den Rest der Datei.Code: Alles auswählen
User-agent: *
Schon mal daran gedacht, dass es für Google nur die "Google Welt" gibt? Den Code den ich vorgeschlagen habe funktioniert nicht nur für Google sondern auch für den Rest der IT Welt.Malte Landwehr hat geschrieben:Mein Vorschlag (siehe oben) ist die robots.txt wie Google sie für exakt diesen Fall vorschlägt. (via Google Webmaster Tools erzeugt.)
Code: Alles auswählen
Disallow: /download/
Allow: /
https://en.wikipedia.org/wiki/Robots_exclusion_standard"While by standard implementation the first matching robots.txt pattern always wins, Google's implementation differs in that Allow patterns with equal or more characters in the directive path win over a matching Disallow pattern. Bing uses the Allow or Disallow directive which is the most specific.
In order to be compatible to all robots, if one wants to allow single files inside an otherwise disallowed directory, it is necessary to place the Allow directive(s) first, followed by the Disallow"
Für unerwünschte Spider, welche sich aber an die robots.txt halten, reicht das.User-agent: nicht seriöser Spider (Liste und Bspl. hier aus dem Forum)
Disallow: /
bzw. genauer gesagtUser-agent: *
Ist relativ unnötig, da Spider keine Erlaubnis brauchen um ihren Job zu machen. Der Briefträger kriegt ja auch nicht jeden Tag gesagt: "Erlaubnis zum Briefe austragen erteilt".User-agent: *
Allow: /