Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Bestimmte Unterseiten aus Google rausnehmen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 20.12.2004, 12:40

Hi,

wie bekomme ich bestimmte Unterseiten aus Google schnellstens raus?

Also z.B.

www.domain.de -> Startseite
www.domain.de/Unterseite1.html
www.domain.de/Unterseite2.html
www.domain.de/Unterseite3.html
www.domain.de/Unterseite4.html
www.domain.de/Unterseite5.html
...............................................
www.domain.de/Unterseite99.html

Ich muss wegen zu hoher Ähnlichkeit (Produktunterseiten mit Details usw.) ein Teil dieser rausbekommen (aber längst nicht alle!!).

Nehmen wir mal an, ungefähr die Hälfte dieser Unterseiten soll nicht
mehr in Google kommen. Sie werden nicht mehr verlinkt (bzw.
Verlinkung versteckt über PHP-Redirect), allerdings sind sie schon noch unter der URL erreichbar.

Also müssen sie zwangsweise mit der Zeit bei Google verschwinden (keine Links mehr). Aber erfahrungsgemäß dauert das Monate......

Mit welchem Tag in den Unterseiten, kann ich ein Entfernen aus dem Google-Cache beschleunigen bzw. eine Nicht-NeuIndexierung (z.B. bei Links von außen) erreichen?

Durch

https://www.google.de/remove.html

werde ich nicht so 100% schlau und ich will ja keinen Fehler machen, so dass die anderen Unterseiten und Startseite keinen Schaden nehmen.

Danke vorab für Eure Hilfe!

Armi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 20.12.2004, 12:42

Hi entweder mit noindex in den meta-tags oder so
https://www.abakus-internet-marketing.d ... 10012.html

Grüße

Stefan

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 20.12.2004, 12:45

Gut, also mit 404 kann es nicht gehen, da diese Seiten ja wie gesagt existieren müssen (nur nicht in Google).

Also

<META NAME="ROBOTS" CONTENT="NOINDEX">

wäre richtig?

Würde bei

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

diese Unterseite nicht indiziert werden, allerdings evtl. andere Links verfolgt werden?

Was ist mit

<META NAME="ROBOTS" CONTENT="NOARCHIVE">

?

Ich habe da ein wenig Schiss, dass evtl. alles der Domain dann aus dem Cache fliegen könnte.......

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 20.12.2004, 12:53

Also,

<META NAME="ROBOTS" CONTENT="NOINDEX">

würde ich nehmen.

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Bedeutet wohl, dass er diese Seite nicht aufnehmen soll, aber auch nicht den Links auf dieser Seite folgt.


<META NAME="ROBOTS" CONTENT="NOARCHIVE">
Das bedeutet nur, dass diese Seite nicht gecacht werden soll von Google, ist aber dann im Index vorhanden.

Das Du diese Seiten vor Google verstecken kannst mit diesen Meta's wird wahrscheinlich nicht funktionieren. Ich hätte da so meine Bedenken ob diese Seiten nicht evtl. doch das Ranking Deiner Site beeinflussen obwohl sie nicht im Index stehen. Bekannt sind die Seiten ja allemal. Ob dem so ist weiß ich aber nicht.

Falls Du PHP oder ASP nutzt, kannst Du auch einen 404-Header senden und die Seite trotzdessen ausgeben lassen. Der IE zeigt die Seite dann auch an. Habe das auch nur mal durch Zufall entdeckt. Ob Google die Seite dann aufnimmt und wie das mit anderen Browsern funktioniert kann ich aber auch nicht sagen. Wäre aber mal nen Versuch wert.


Grüße

Stefan

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 20.12.2004, 13:17

terese0815 hat geschrieben:<META NAME="ROBOTS" CONTENT="NOINDEX">
würde ich nehmen.
Ok, Du bist Dir aber sicher, dass es nur für die entsprechende Unterseite dann gilt?
Das Du diese Seiten vor Google verstecken kannst mit diesen Meta's wird wahrscheinlich nicht funktionieren.
Verstecken tue ich sie anders. Man hat halt das Prob, dass sie die nächste Zeit halt noch bekannt sind für Google. Deswegen, wenn Google dort hinkommt: Noindex please.....
Ich hätte da so meine Bedenken ob diese Seiten nicht evtl. doch das Ranking Deiner Site beeinflussen obwohl sie nicht im Index stehen.
Aehmm, sobald sie aus der Google-Datenbank draußen sind, können sie das Ranking nicht beeinflussen. Aber ich weiß auch, dass dies länger dauern kann.....

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 20.12.2004, 13:24

Habe noch ne andere Idee:

In die robots.txt
User-agent: *
Disallow: /Unterseite1.html
Disallow: /Unterseite5.html
Disallow: /Unterseite9.html
usw.

Dann https://services.google.com:8882/urlconsole/controller
benutzen und eigtl. müssten diese Unterseiten bald draußen sein.

ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
[/b]

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 20.12.2004, 13:27

Armi hat geschrieben:Habe noch ne andere Idee:

In die robots.txt
User-agent: *
Disallow: /Unterseite1.html
Disallow: /Unterseite5.html
Disallow: /Unterseite9.html
usw.

Dann https://services.google.com:8882/urlconsole/controller
benutzen und eigtl. müssten diese Unterseiten bald draußen sein.

ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
[/b]
Das Thema robots.txt und einzelne Seite sperren funktioniert bei Google nicht wirklich.
<META NAME="ROBOTS" CONTENT="NOINDEX">
würde ich nehmen.


Ok, Du bist Dir aber sicher, dass es nur für die entsprechende Unterseite dann gilt?
Ja. Gilt nur für die jeweilige Seite.

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 20.12.2004, 13:39

Das Thema robots.txt und einzelne Seite sperren funktioniert bei Google nicht wirklich.
Also da habe ich in der Vergangenheit nur positive Erfahrungen gesammelt.
Klappt eigtl. immer.

Das einzige Prob sehe ich halt nur darin, dass zigtausende Unterseiten hier halt eingetragen sind........

fiona
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 17.04.2004, 01:41

Beitrag von fiona » 25.02.2005, 16:31

Armi hat geschrieben: ABER: Es geht ja nicht nur um ein paar Unterseiten, sondern um
ein paar Tausend. Wie lang darf denn die robots.txt maximal
sein?
Verdammt gute Frage! Ich habe nämlich die Meldung bekommen, dass die robots.txt zu lang sei!!!
Und deswegen kommt mir jetzt der verdacht, dass Google möglicherweise ohnehin robots.txts nur bis zu einer bestimmten Länge verarbeitet, kann das sein?! Das würde zumindest erklären, warum die disallows manchmal schlichtweg misachtet werden...

fiona
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 17.04.2004, 01:41

Beitrag von fiona » 02.03.2005, 10:58

Ähm, ist diese Frage so uninteressant / alt, oder weiss bloß niemand eine Antwort?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag