Seite 1 von 1

.htaccess -> alle Subdomains noindex

Verfasst: 02.04.2011, 23:25
von BartTheDevil89
Hallo,

hätte gern in der .htaccess irgendwie festgelegt, dass alle Subdomains ein noindex haben müssen. Geht sowas? Also kann ich in der .htaccess das festlegen oder muss ich das im Code der jeweiligen Seiten machen?

Vielen Dank

Verfasst:
von

Verfasst: 03.04.2011, 03:15
von collection23
Das noindex gehört in den html-code der Seite oder in die robots.txt. In der htaccess wird das nicht funtionieren.

Verfasst: 03.04.2011, 22:09
von BartTheDevil89
Hmh...ok. Aber kann ich über die .htaccess nicht einfach alle Crawler(Google, etc) aus den Subdomains aussperren? Dann müssten ja auch alle Seiten ausm index verschwinden, oder?

Verfasst: 03.04.2011, 22:41
von JohnBi
ja, solange diese nicht angelinkt werden ...

Verfasst: 04.04.2011, 09:06
von BartTheDevil89
JohnBi hat geschrieben:ja, solange diese nicht angelinkt werden ...
Wie meinst du "angeklickt"? Wenn ich die Crawler, etc. einfach für alle Subdomains aussperre, dann dürften die doch alle nicht rein bzw. vorhandene raus ausm Index, oder?

Danke

Verfasst: 04.04.2011, 09:16
von JohnBi
hallo, angelinkt nicht angeklickt ... :crazyeyes:

Verfasst: 04.04.2011, 09:29
von BartTheDevil89
JohnBi hat geschrieben:hallo, angelinkt nicht angeklickt ... :crazyeyes:
Sorry...dann die Frage nach angelinkt ;)
Also wenn ich nen Link zu sub.domain.de irgendwo habe, kann ich doch dennoch alle Crawler aussperre, oder? Oder darf der sub-Domain-Link nirgendwo auffindbar sein?

Danke :wink:

Verfasst: 04.04.2011, 09:38
von JohnBi
also wenn du die sub.domain.de per robots.txt gesperrt hast aber irgendwo ist ein Link und Google kennt den Link dann erscheint die trotzdem im Suchmaschinenindex zumindest die Seite die angelinkt wird ... damit die nicht im Suchmaschinenindex erscheint musst du den Meta-Tag noindex nutzen ... weil das sperren per robots.txt reicht da nicht aus ...

Verfasst: 04.04.2011, 09:46
von mano_negra
die seite kann eventuell im index auftauchen wenn sie angelinkt wird, aber ohne title und beschreibung.
ein noindex wird aber auch nix nutzen wenn sie in der robots.txt gesperrt ist.

Verfasst: 04.04.2011, 21:35
von BartTheDevil89
mano_negra hat geschrieben:die seite kann eventuell im index auftauchen wenn sie angelinkt wird, aber ohne title und beschreibung.
ein noindex wird aber auch nix nutzen wenn sie in der robots.txt gesperrt ist.
Würde mir theoretisch auch reichen. Aber mal blöd gefragt...wie müsste diese Anweisung für alle Subdomains dann lauten, sodass auch einfach alle Crawler draußen bleiben, vor allem Google, etc.

Verfasst: 04.04.2011, 22:21
von Dauerstress
Öhem, Einstellungen in der htaccess oder robots.txt der Domain gelten doch nur für die Domain, oder nicht? Die werden doch gar net ausgeführt, wenn ne Subdomain aufgerufen wird.

Verfasst: 04.04.2011, 22:35
von BartTheDevil89
Dauerstress hat geschrieben:Öhem, Einstellungen in der htaccess oder robots.txt der Domain gelten doch nur für die Domain, oder nicht? Die werden doch gar net ausgeführt, wenn ne Subdomain aufgerufen wird.
Die Subdomains werden alle übern gleichen Account laufen gelassen. Also

www.domain.de/abteiltung/datei.html
ist beispielsweise auch durch abteilung.domain.de/datei.html erreichbar.


www.domain.de/abc/xyz.html
ist beispielsweise auch durch abc.domain.de/xyz.html erreichbar.

Daher möchte ich die subdomain-Varianten natürlich nicht mit laufen lassen. Die Subdomains werden dabei ebenfalls in der .htaccess umgewandelt.