Seite 1 von 1

URL's mit bestimmten String in der Mitte aus Index verbannen

Verfasst: 04.04.2007, 12:13
von fred_bacher34
Hallo Leute,

wie kann man mittels .htaccess bestimmte URL's aus dem Index verbanden.

z.B. sollen alle URL's aus dem Index verbannt werden, die irgendwo den String "wortabc" haben.

www.meinedomain.de/wort1/wortabc/wort2.

Oder gibt es andere Möglichkeiten?

Die Google-Suche bzw. die Suche hier hat mir leider nicht das gewünschte Ergebnis gebracht.

Vielen Dank
Uwe

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 04.04.2007, 12:18
von arbeitlife
Hi presents4friends mach doch ein mod rewrite auf eine 404 Seite

Gruss Arbeitlife

Verfasst: 04.04.2007, 12:23
von fred_bacher34
hi arbeitlife, die Seiten sollen für den User sichtbar und aufrufbar sein aber sie sollen nicht in den Index bzw. auch aus dem Index.

Schritt 1 Seiten sperren und aus dem Index schmeißen und
Schritt 2 Seiten umprogrammieren.

Soll hat erst mal eine schnelle einfache Lösung her und dann kommt die saubere.

Verfasst:
von

Verfasst: 04.04.2007, 12:25
von arbeitlife
weiß nicht wie google sich verhält wenn du nur eine 404 für google erstellst wäre vielleicht noch ne lösung

Verfasst: 04.04.2007, 12:28
von fred_bacher34
Weiß nicht, ob das eine saubere Lösung ist. Vielleicht gibt es ja noch mehr Ideen. Ich suche parallel weiter bei Tante Google. :-)

Wäre es eine Lösung die URL's per robots.txt auszusperren?

User-agent: *
Disallow: /wortabc

Oder sollte man wenn möglich, die Seiten per NOINDEX aussperren?

<META NAME="ROBOTS" CONTENT="NOINDEX">

Verfasst: 04.04.2007, 12:54
von net(t)worker
das noindex in den metas wäre die richtige lösung... denn das ist ja das was du erreichen möchtest... seiten noch da aber raus aus dem index...

sperrung über robots.txt würde die seiten nicht unbedingt aus dem index entfernen, hier findest du weitere infos zu den Unterschieden zwischen noindex und sperrung per robots.txt: https://www.martins-meinung.de/2007/01/ ... wirkungen/

Verfasst: 04.04.2007, 13:06
von fred_bacher34
@net(t)worker, vielen Dank, genau diese Information habe ich gesucht!

Klasse!

Verfasst: 04.04.2007, 22:06
von Kralle
Falls die noindex-Lösung nicht gehen sollte, wären noch Wildcards in der robots.txt denkbar. Sicherer ist in jedem Fall aber ein noindex. 404-Header wäre alternativ auch noch denkbar, weil im Browser noch aufrufbar (allerdings dann ohne Weiterleitung).