Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ok, Du bist Dir aber sicher, dass es nur für die entsprechende Unterseite dann gilt?terese0815 hat geschrieben:<META NAME="ROBOTS" CONTENT="NOINDEX">
würde ich nehmen.
Verstecken tue ich sie anders. Man hat halt das Prob, dass sie die nächste Zeit halt noch bekannt sind für Google. Deswegen, wenn Google dort hinkommt: Noindex please.....Das Du diese Seiten vor Google verstecken kannst mit diesen Meta's wird wahrscheinlich nicht funktionieren.
Aehmm, sobald sie aus der Google-Datenbank draußen sind, können sie das Ranking nicht beeinflussen. Aber ich weiß auch, dass dies länger dauern kann.....Ich hätte da so meine Bedenken ob diese Seiten nicht evtl. doch das Ranking Deiner Site beeinflussen obwohl sie nicht im Index stehen.
Das Thema robots.txt und einzelne Seite sperren funktioniert bei Google nicht wirklich.Armi hat geschrieben:Habe noch ne andere Idee:
In die robots.txt
User-agent: *
Disallow: /Unterseite1.html
Disallow: /Unterseite5.html
Disallow: /Unterseite9.html
usw.
Dann https://services.google.com:8882/urlconsole/controller
benutzen und eigtl. müssten diese Unterseiten bald draußen sein.
ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
[/b]
Ja. Gilt nur für die jeweilige Seite.<META NAME="ROBOTS" CONTENT="NOINDEX">
würde ich nehmen.
Ok, Du bist Dir aber sicher, dass es nur für die entsprechende Unterseite dann gilt?
Also da habe ich in der Vergangenheit nur positive Erfahrungen gesammelt.Das Thema robots.txt und einzelne Seite sperren funktioniert bei Google nicht wirklich.
Verdammt gute Frage! Ich habe nämlich die Meldung bekommen, dass die robots.txt zu lang sei!!!Armi hat geschrieben: ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?