Seite 1 von 1

Bestimmte Unterseiten aus Google rausnehmen

Verfasst: 20.12.2004, 12:40
von Armi
Hi,

wie bekomme ich bestimmte Unterseiten aus Google schnellstens raus?

Also z.B.

www.domain.de -> Startseite
www.domain.de/Unterseite1.html
www.domain.de/Unterseite2.html
www.domain.de/Unterseite3.html
www.domain.de/Unterseite4.html
www.domain.de/Unterseite5.html
...............................................
www.domain.de/Unterseite99.html

Ich muss wegen zu hoher Ähnlichkeit (Produktunterseiten mit Details usw.) ein Teil dieser rausbekommen (aber längst nicht alle!!).

Nehmen wir mal an, ungefähr die Hälfte dieser Unterseiten soll nicht
mehr in Google kommen. Sie werden nicht mehr verlinkt (bzw.
Verlinkung versteckt über PHP-Redirect), allerdings sind sie schon noch unter der URL erreichbar.

Also müssen sie zwangsweise mit der Zeit bei Google verschwinden (keine Links mehr). Aber erfahrungsgemäß dauert das Monate......

Mit welchem Tag in den Unterseiten, kann ich ein Entfernen aus dem Google-Cache beschleunigen bzw. eine Nicht-NeuIndexierung (z.B. bei Links von außen) erreichen?

Durch

https://www.google.de/remove.html

werde ich nicht so 100% schlau und ich will ja keinen Fehler machen, so dass die anderen Unterseiten und Startseite keinen Schaden nehmen.

Danke vorab für Eure Hilfe!

Armi

Verfasst:
von

Verfasst: 20.12.2004, 12:42
von terese0815
Hi entweder mit noindex in den meta-tags oder so
https://www.abakus-internet-marketing.d ... 10012.html

Grüße

Stefan

Verfasst: 20.12.2004, 12:45
von Armi
Gut, also mit 404 kann es nicht gehen, da diese Seiten ja wie gesagt existieren müssen (nur nicht in Google).

Also

<META NAME="ROBOTS" CONTENT="NOINDEX">

wäre richtig?

Würde bei

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

diese Unterseite nicht indiziert werden, allerdings evtl. andere Links verfolgt werden?

Was ist mit

<META NAME="ROBOTS" CONTENT="NOARCHIVE">

?

Ich habe da ein wenig Schiss, dass evtl. alles der Domain dann aus dem Cache fliegen könnte.......

Verfasst:
von

Verfasst: 20.12.2004, 12:53
von terese0815
Also,

<META NAME="ROBOTS" CONTENT="NOINDEX">

würde ich nehmen.

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Bedeutet wohl, dass er diese Seite nicht aufnehmen soll, aber auch nicht den Links auf dieser Seite folgt.


<META NAME="ROBOTS" CONTENT="NOARCHIVE">
Das bedeutet nur, dass diese Seite nicht gecacht werden soll von Google, ist aber dann im Index vorhanden.

Das Du diese Seiten vor Google verstecken kannst mit diesen Meta's wird wahrscheinlich nicht funktionieren. Ich hätte da so meine Bedenken ob diese Seiten nicht evtl. doch das Ranking Deiner Site beeinflussen obwohl sie nicht im Index stehen. Bekannt sind die Seiten ja allemal. Ob dem so ist weiß ich aber nicht.

Falls Du PHP oder ASP nutzt, kannst Du auch einen 404-Header senden und die Seite trotzdessen ausgeben lassen. Der IE zeigt die Seite dann auch an. Habe das auch nur mal durch Zufall entdeckt. Ob Google die Seite dann aufnimmt und wie das mit anderen Browsern funktioniert kann ich aber auch nicht sagen. Wäre aber mal nen Versuch wert.


Grüße

Stefan

Verfasst: 20.12.2004, 13:17
von Armi
terese0815 hat geschrieben:<META NAME="ROBOTS" CONTENT="NOINDEX">
würde ich nehmen.
Ok, Du bist Dir aber sicher, dass es nur für die entsprechende Unterseite dann gilt?
Das Du diese Seiten vor Google verstecken kannst mit diesen Meta's wird wahrscheinlich nicht funktionieren.
Verstecken tue ich sie anders. Man hat halt das Prob, dass sie die nächste Zeit halt noch bekannt sind für Google. Deswegen, wenn Google dort hinkommt: Noindex please.....
Ich hätte da so meine Bedenken ob diese Seiten nicht evtl. doch das Ranking Deiner Site beeinflussen obwohl sie nicht im Index stehen.
Aehmm, sobald sie aus der Google-Datenbank draußen sind, können sie das Ranking nicht beeinflussen. Aber ich weiß auch, dass dies länger dauern kann.....

Verfasst: 20.12.2004, 13:24
von Armi
Habe noch ne andere Idee:

In die robots.txt
User-agent: *
Disallow: /Unterseite1.html
Disallow: /Unterseite5.html
Disallow: /Unterseite9.html
usw.

Dann https://services.google.com:8882/urlconsole/controller
benutzen und eigtl. müssten diese Unterseiten bald draußen sein.

ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
[/b]

Verfasst: 20.12.2004, 13:27
von terese0815
Armi hat geschrieben:Habe noch ne andere Idee:

In die robots.txt
User-agent: *
Disallow: /Unterseite1.html
Disallow: /Unterseite5.html
Disallow: /Unterseite9.html
usw.

Dann https://services.google.com:8882/urlconsole/controller
benutzen und eigtl. müssten diese Unterseiten bald draußen sein.

ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
[/b]
Das Thema robots.txt und einzelne Seite sperren funktioniert bei Google nicht wirklich.
<META NAME="ROBOTS" CONTENT="NOINDEX">
würde ich nehmen.


Ok, Du bist Dir aber sicher, dass es nur für die entsprechende Unterseite dann gilt?
Ja. Gilt nur für die jeweilige Seite.

Verfasst: 20.12.2004, 13:39
von Armi
Das Thema robots.txt und einzelne Seite sperren funktioniert bei Google nicht wirklich.
Also da habe ich in der Vergangenheit nur positive Erfahrungen gesammelt.
Klappt eigtl. immer.

Das einzige Prob sehe ich halt nur darin, dass zigtausende Unterseiten hier halt eingetragen sind........

Verfasst: 25.02.2005, 16:31
von fiona
Armi hat geschrieben: ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
Verdammt gute Frage! Ich habe nämlich die Meldung bekommen, dass die robots.txt zu lang sei!!!
Und deswegen kommt mir jetzt der verdacht, dass Google möglicherweise ohnehin robots.txts nur bis zu einer bestimmten Länge verarbeitet, kann das sein?! Das würde zumindest erklären, warum die disallows manchmal schlichtweg misachtet werden...

Bestimmte Unterseiten aus Google rausnehmen

Verfasst: 02.03.2005, 10:58
von fiona
Ähm, ist diese Frage so uninteressant / alt, oder weiss bloß niemand eine Antwort?