Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

.htaccess -> alle Subdomains noindex

Mehrere Domains, Domain-Umzug, neue Dateinamen, 301/302
Neues Thema Antworten
BartTheDevil89
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 24.07.2008, 23:38

Beitrag von BartTheDevil89 » 02.04.2011, 23:25

Hallo,

hätte gern in der .htaccess irgendwie festgelegt, dass alle Subdomains ein noindex haben müssen. Geht sowas? Also kann ich in der .htaccess das festlegen oder muss ich das im Code der jeweiligen Seiten machen?

Vielen Dank

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


collection23
PostRank 6
PostRank 6
Beiträge: 414
Registriert: 30.10.2007, 17:44

Beitrag von collection23 » 03.04.2011, 03:15

Das noindex gehört in den html-code der Seite oder in die robots.txt. In der htaccess wird das nicht funtionieren.

BartTheDevil89
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 24.07.2008, 23:38

Beitrag von BartTheDevil89 » 03.04.2011, 22:09

Hmh...ok. Aber kann ich über die .htaccess nicht einfach alle Crawler(Google, etc) aus den Subdomains aussperren? Dann müssten ja auch alle Seiten ausm index verschwinden, oder?

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 03.04.2011, 22:41

ja, solange diese nicht angelinkt werden ...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

BartTheDevil89
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 24.07.2008, 23:38

Beitrag von BartTheDevil89 » 04.04.2011, 09:06

JohnBi hat geschrieben:ja, solange diese nicht angelinkt werden ...
Wie meinst du "angeklickt"? Wenn ich die Crawler, etc. einfach für alle Subdomains aussperre, dann dürften die doch alle nicht rein bzw. vorhandene raus ausm Index, oder?

Danke

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 04.04.2011, 09:16

hallo, angelinkt nicht angeklickt ... :crazyeyes:
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

BartTheDevil89
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 24.07.2008, 23:38

Beitrag von BartTheDevil89 » 04.04.2011, 09:29

JohnBi hat geschrieben:hallo, angelinkt nicht angeklickt ... :crazyeyes:
Sorry...dann die Frage nach angelinkt ;)
Also wenn ich nen Link zu sub.domain.de irgendwo habe, kann ich doch dennoch alle Crawler aussperre, oder? Oder darf der sub-Domain-Link nirgendwo auffindbar sein?

Danke :wink:

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 04.04.2011, 09:38

also wenn du die sub.domain.de per robots.txt gesperrt hast aber irgendwo ist ein Link und Google kennt den Link dann erscheint die trotzdem im Suchmaschinenindex zumindest die Seite die angelinkt wird ... damit die nicht im Suchmaschinenindex erscheint musst du den Meta-Tag noindex nutzen ... weil das sperren per robots.txt reicht da nicht aus ...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 04.04.2011, 09:46

die seite kann eventuell im index auftauchen wenn sie angelinkt wird, aber ohne title und beschreibung.
ein noindex wird aber auch nix nutzen wenn sie in der robots.txt gesperrt ist.

BartTheDevil89
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 24.07.2008, 23:38

Beitrag von BartTheDevil89 » 04.04.2011, 21:35

mano_negra hat geschrieben:die seite kann eventuell im index auftauchen wenn sie angelinkt wird, aber ohne title und beschreibung.
ein noindex wird aber auch nix nutzen wenn sie in der robots.txt gesperrt ist.
Würde mir theoretisch auch reichen. Aber mal blöd gefragt...wie müsste diese Anweisung für alle Subdomains dann lauten, sodass auch einfach alle Crawler draußen bleiben, vor allem Google, etc.

Dauerstress
PostRank 6
PostRank 6
Beiträge: 464
Registriert: 05.03.2007, 22:35

Beitrag von Dauerstress » 04.04.2011, 22:21

Öhem, Einstellungen in der htaccess oder robots.txt der Domain gelten doch nur für die Domain, oder nicht? Die werden doch gar net ausgeführt, wenn ne Subdomain aufgerufen wird.

BartTheDevil89
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 24.07.2008, 23:38

Beitrag von BartTheDevil89 » 04.04.2011, 22:35

Dauerstress hat geschrieben:Öhem, Einstellungen in der htaccess oder robots.txt der Domain gelten doch nur für die Domain, oder nicht? Die werden doch gar net ausgeführt, wenn ne Subdomain aufgerufen wird.
Die Subdomains werden alle übern gleichen Account laufen gelassen. Also

www.domain.de/abteiltung/datei.html
ist beispielsweise auch durch abteilung.domain.de/datei.html erreichbar.


www.domain.de/abc/xyz.html
ist beispielsweise auch durch abc.domain.de/xyz.html erreichbar.

Daher möchte ich die subdomain-Varianten natürlich nicht mit laufen lassen. Die Subdomains werden dabei ebenfalls in der .htaccess umgewandelt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag