Seite 1 von 1
robots.txt und wildcards
Verfasst: 01.11.2006, 09:39
von rkecom
hallo,
wenn ich folgende urls von der indexierung ausschliessen möchte:
www.meinedomain.de/unterordner/eine-datei-nummer1.php
www.meinedomain.de/unterordner/eine-datei-nummer2.php
www.meinedomain.de/unterordner/eine-datei-nummer3.php
usw....
ist folgender eintrag in der robots.txt richtig und wird von allen sumas berücksichtigt:
Disallow: /unterordner/eine-datei-*
danke+gruß,
rené
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 01.11.2006, 09:51
von SloMo
Wildcards werden nicht von allen Suchmaschinen erkannt. Mein letzter Stand ist, dass nur Google das unterstützt.
Für Deinen Fall genügt:
Disallow: /unterordner/eine-datei
Wildcard ist unnötig.
Verfasst: 01.11.2006, 10:26
von Kralle
Jo, Wildcards sind im robots.txt-Standard nicht vorgesehen, sondern so n Google-eigenes Ding. Ich weiß jetzt natürlich nicht wieviele andere Dateien sich noch in dem Ordner befinden, aber ggf. könntest du dann auch mit Allow arbeiten, z. B.:
Code: Alles auswählen
Disallow: /unterordner/
Allow: /unterordner/datei-erlaubt-1.html
Allow: /unterordner/datei-erlaubt-2.html
usw.
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 01.11.2006, 10:37
von rkecom
danke,
ja, hatte ich auch gelesen, dass es kein standard ist und wohl nur google es berücksichtigt ... aber wollte nochmal sicher gehen, evtl. hat sich ja was geändert. habe jetzt /unterodner/eine-datei genommen und sicherheitshalber noch ein rel="nofollow" den links beigefügt, da sie nicht weiterverfolgt werden sollen - handelt sich um eine datei, wie die outbound.pl hier im forum.
mit allow geht nicht, sind zu viele andere dateien im unterordner die normal indexiert werden sollen.
müsste ja jetzt reichen um die dateien auszuschliessen.
gruß,
rené
Verfasst: 01.11.2006, 10:46
von Kralle
nofollow wäre dann aber nur angebracht bei Seiten, die auf diese Seiten verlinken. Ich würde da eher zu einem noindex in den entsprechenden Seiten raten oder zu beidem.
Verfasst: 01.11.2006, 11:29
von rkecom
hmmm, also so habe ich´s gemacht:
z.b. die seite /unterordner/seite1.php hat unter anderem einen link zur seite /unterordner/eine-datei-nummer1.php
diesem link zur seite /unterordner/eine-datei-nummer1.php gebe ich ein rel="nofollow" mit und sperre die datei /unterordner/eine-datei-nummer1.php per robots.txt.
müsste doch bewirken, dass /unterordner/eine-datei-nummer1.php von den sumas "ignoriert" wird (theoretisch zumindest!).
oder habe ich einen denkfehler?
NACHTRAG: die datei unterordner/eine-datei-nummer1.php enthält nichts weiter als eine weiterleitung zu einem externen link!
Verfasst: 01.11.2006, 11:36
von SloMo
Ja, passt so.
Verfasst: 01.11.2006, 13:36
von Kralle
Alles richtig so

Verfasst: 03.11.2006, 04:46
von Hobby-SEO
Seit wann gehört denn die Allow-Anweisung zum Standard für die robots.txt? Oder geht es hier nur darum, Newbies zu verarschen?
Falls ich ein Spiel verdorben haben sollte, sorry.
LG, Hobby-SEO
Verfasst: 03.11.2006, 07:36
von SloMo
Hobby-SEO hat geschrieben:Seit wann gehört denn die Allow-Anweisung zum Standard für die robots.txt? Oder geht es hier nur darum, Newbies zu verarschen?
Falls ich ein Spiel verdorben haben sollte, sorry.
LG, Hobby-SEO
Du hast kein Spiel verdorben. Ohne dumme Fragen lernt man nichts. Jedenfalls braucht Dir die Frage nicht unangenehm zu sein, denn ich musste bei Google auch einen kleinen Moment suchen, um die folgende Spezifikation zu finden.
https://www.robotstxt.org/wc/norobots-rfc.html
Habe ich jetzt Dein Spiel verdorben?
