Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robots.txt und Wildcards

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 15.06.2005, 11:09

Hi,

kann jemand bestätigen ob Wildcards in der Robots.txt
funktionieren?

https://www.webmasterworld.com/forum93/404.htm

beziehe mich da auf letztes Posting.

Wenn ja: Gehen Wildcards nur bei Verzeichnissen oder auch bei
sonstigen URLs (url rewrited)?

Also könnte ich mit

Disallow: /*schrott

Urls wie

https://www.meinedomain.de/test1_schrott
https://www.meinedomain.de/test2_schrott
https://www.meinedomain.de/test3_schrott

löschen?

Oder mit

Disallow: /*schrott*

https://www.meinedomain.de/test1_schrott_test
https://www.meinedomain.de/test2_schrott_test
https://www.meinedomain.de/test3_schrott_test



Armi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

LinkPop
PostRank 9
PostRank 9
Beiträge: 1677
Registriert: 02.05.2004, 13:52

Beitrag von LinkPop » 15.06.2005, 11:14

https://www.robotstxt.org/wc/faq.html hat geschrieben:Two common errors:

Wildcards are _not_ supported: instead of 'Disallow: /tmp/*' just say 'Disallow: /tmp/'.
You shouldn't put more than one path on a Disallow line (this may change in a future version of the spec)
[url=httpss://www.rankseek.com/][img]httpss://www.rankseek.com/img/rankseek-xs-2.png[/img][/url]
  • Täglicher Ranking-Check Deiner Top-Keywords mit Traffic-Index für Mobile und Desktop, Serp-View, Reporting, Ranking-Charts, Konkurrenzanalyse, Ranking-Verteilung, Keyword-Suggest und mehr für nur 11,90 € / Monat. Jetzt alle rankseek-Tools 30 Tage kostenlos testen » [url=httpss://www.rankseek.com/features.php]Features[/url]

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 15.06.2005, 11:18

Ja, aber in dem Forum steht ja, dass es nicht "Standard" ist, aber von Google beachtet wird.

Ein * am Schluss ist quatsch, es wird alles gelöscht was damit beginnt. Das ist richtig.

Aber ob ein * davor Sinn macht, ist noch ungeklärt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 15.06.2005, 11:20

Hab da grad was gefunden:

https://www.searchengineworld.com/misc/ ... _crawl.htm

Ganz am Ende....

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 15.06.2005, 14:41

Code: Alles auswählen

User-agent: googlebot
Disallow: *.cgi
Kann ich bestätigen, dass klappt
Bild
SEOigg ... SEO News satt

LinkPop
PostRank 9
PostRank 9
Beiträge: 1677
Registriert: 02.05.2004, 13:52

Beitrag von LinkPop » 15.06.2005, 18:19

Ok, Google beachtet "Wildcard file extensions":
https://www.searchengineworld.com/misc/robots_txt_crawl.htm hat geschrieben:Google is the first search engine to support Wildcard file extensions.

User-agent: googlebot
Disallow: *.cgi
Was aber nicht gleich bedeutet, daß auch [ Disallow: /*schrott ] erkannt und richtig interpretiert wird.

btw: Disallow: *.php ist natürlich ideal für Mode Rewrite-Sites, bei denen alles in z.B. .htm umgeschrieben wird. Somit dürften bei fehlerhaften Rules bzw. Links keine .php-URLs in den Index gelangen.
[url=httpss://www.rankseek.com/][img]httpss://www.rankseek.com/img/rankseek-xs-2.png[/img][/url]
  • Täglicher Ranking-Check Deiner Top-Keywords mit Traffic-Index für Mobile und Desktop, Serp-View, Reporting, Ranking-Charts, Konkurrenzanalyse, Ranking-Verteilung, Keyword-Suggest und mehr für nur 11,90 € / Monat. Jetzt alle rankseek-Tools 30 Tage kostenlos testen » [url=httpss://www.rankseek.com/features.php]Features[/url]

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 15.06.2005, 23:39

Mario670 hat geschrieben:

Code: Alles auswählen

User-agent: googlebot
Disallow: *.cgi
Kann ich bestätigen, dass klappt
Aber leider doch nicht mit dem Removal-Tool von Google......

Anonymous

Beitrag von Anonymous » 17.07.2008, 07:14

Gibt es dazu schon aktuelle Erkentnisse?

Code: Alles auswählen

Disallow: /*?
Würde also bedeuten: Es sollen alle Dateien nicht gecrawlt werden, die ein Fragezeichen enthalten?!

Dasselbe geht ja dann sicherlich auch mit Teile eines Dateinamens wie: ptopic oder post-reply, oder??

Torsten.E
PostRank 4
PostRank 4
Beiträge: 172
Registriert: 19.05.2008, 16:27
Wohnort: Maria Thann (Allgäu)

Beitrag von Torsten.E » 20.01.2009, 10:19

Das würde mich auch interessieren, wie Wildcards in der Zwischenzeit in der robots.txt verwendet werden können.

Torsten.E

promada
PostRank 4
PostRank 4
Beiträge: 119
Registriert: 14.03.2006, 17:01
Wohnort: Wiesbaden

Beitrag von promada » 05.10.2010, 16:42

Gibt es dazu schon aktuelle Erkentnisse?

Code:
Disallow: /*?

Ich teste es gerade aus, dauert aber seine Zeit

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 05.10.2010, 23:16

@promada:

Für Google funzt Deine Anweisung seit Jahren bestens.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag