Seite 1 von 2

Im Index trotz noindex??

Verfasst: 26.04.2009, 10:48
von stevenk
Momentan bringt mich Google zum verzweifeln. Nachdem ich letztens die Probleme mit der Fluktuation hatte, stehen heute plötzlich Seiten im Index die ich explizit per <meta name="robots" content="noindex" /> ausgeschlossen habe.

Gelten plötzlich die metas nichts mehr ist da was falsch, oder sollte man Seiten besser gleich immer per robots.txt sperren?

Thanks für jede Info

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 26.04.2009, 11:03
von devolo01
Kann es sein das dich jemand mit dieser Seite verlinkt hat? Habe selbiges Problem. Hatte ein komplettes verzeichniss auf rel="nofollow" und in der robot auch nochmal ausgesperrt.

Dann kan sonen ... Hat die Seite gebookmarkt und nun steht das verzeichniss + allen Unterseiten im Index. Shit happens halt :-(.

Verfasst: 26.04.2009, 11:05
von emel
Fehlt da nicht noch ein = nach name und eine = nach content?

also:
<meta name="robots" content="noindex" />

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 26.04.2009, 11:05
von SchnaeppchenSUMA
Bei "noindex" sollten aber auch die externen Links keinen Unterschied machen. Bei Nofollow werden ja nur die Links entwertet, noindex greift aber die Seite direkt auf ...

Hast du mal ein Beispiel für noindex Seiten im Index?

Verfasst: 26.04.2009, 11:41
von stevenk
@emel

Das = ist natürlich drin, habe ich in der Eile des Gefechst im Thread vergessen. Das mich jemand verlinkt hat, kann ich natürlich nicht ausschließen. Aber wie schnaeppchensuma schon sagte, unabhängig davon steht im Quelltext der Befehl das diese Seite nicht indexiert werden soll.

Die Frage ist halt eben ob dies seitens Google auch bei anderen User schon vorgekommen ist oder man besser ganz auf die meta verzichtet und per robots.txt sperrt.

Wie sind da bei euch die Erfahrungen?

Thanks

Verfasst: 26.04.2009, 12:28
von Alda
Sperr die Seite zusätzlich per robots.txt, sollte dann funktionieren. Aber auch hier gibt es vereinzelte Beispiele, dass Google sich nicht immer daran hält.

Verfasst: 26.04.2009, 14:24
von Shizoe
hast du von anfang an den befehl drin gehabt? manchmal werden die seiten gecrawlt aber erst tage später im index veröffentlicht. wenn du dann den befehl erst nach dem crawlen eingebaut hast, hilft das erst beim nächsten mal.

Verfasst: 26.04.2009, 15:02
von Petaurus
Bei mir interessiert es G auch nicht, ob die Seiten auf noindex stehen. Das erste mal aufgefallen ist es mir, als ich ein Gästebuch plötzlich auf PR4 hatte, während der große Rest der Domain noch auf PR2 lag. Dort ist das NOINDEX im head von Anfang an per Meta drin gewesen.

Ich frage mich nur, ob das rel="nofollow" hin und wieder genauso ignoriert wird :roll:

Verfasst: 26.04.2009, 15:05
von Shizoe
ich höre davon zum ersten mal.
eigentlich war immer auf die metas und google verlass.
hier stimmt ja zum beispiel auch alles überein. trotz link etc.

https://tinyurl.com/dlawcj

Verfasst: 26.04.2009, 15:18
von stevenk
@shizoe

Der Befehl war von Anfang an drin und wurde seit dem Start des Projekts (ca. 6 Monate) nicht indexiert. Gibt mehrere Seiten, alle mit noindex und diese wurden auch nicht indexiert, aber eben diese eine. Jetzt muss ich mal beobachten wie sich das auf andere Seiten auswirkt, da ich mehrere Projekte betreue in denen per "noindex" Seiten für den Crawler gesperrt wurden.

Werde mich mal weiter informieren und wohl eher auf die robots.txt setzen als auf die Metas ...

cu

Verfasst: 26.04.2009, 15:44
von Shizoe
komisch komisch.

vielleicht sollte man das mal austesten.

vorallem auch mit nofollow-links. würde mich interessieren ob es dort auch aussetzer gibt.

Verfasst: 26.04.2009, 16:12
von stevenk
Ja, vor allem wie ich den fehlerhaften Link wieder aus Google rauskriege. Habe jetzt mal die entsprechenede Seite per robots.txt gesperrt. Mal sehen ob das was hilft bzw. ob Google die Seite auch wieder entfernt ...

cu

Verfasst: 26.04.2009, 16:22
von Shizoe
du kannst einzelne Seiten auch über die WMT aus dem Index entfernen lassen.

Verfasst: 26.04.2009, 16:39
von stevenk
@Shizoe

Ja, das weiss ich. Hast aber mal versucht ne Seite zu entfernen wo weiterhin Links drauf zeigen. Da bekomme ich von Google ne Mitteilung das das nicht geht. Dazu müßte ich alle Links die auf die Seite zeigen entfernen, vorher geht nichts.

Jetzt warte ich mal ein paar Tage ob sich das von selbst regelt ...

Verfasst: 26.04.2009, 18:12
von Petaurus
Muss die Seite die entfernt werden soll nicht sogar nen 404 zurück liefern?