Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Webmaster Tools & noindex

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.10.2008, 18:08

Hallo,

ich habe in den Webmastertools von Google unter Content-Analyse im Bereich 'Seiten mit doppelten "title"-Tags' auch Seiten stehen die eigentlich mit einem Metatag (robots=noindex,follow) gesperrt sind.

Ist das ein allgemeines WMT-Problem?
Oder dauert es nur ein wenig bis das beachtet wird?

- Jan

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

r-alf
PostRank 9
PostRank 9
Beiträge: 1819
Registriert: 09.09.2008, 21:49
Wohnort: Garage / Melmac

Beitrag von r-alf » 07.10.2008, 20:07

mit "noindex" sagst du G nur das diese nich indexiert werden sollen. Da die Seiten wegen "follow" trotzdem durchsucht werden ist das Ergebnis wohl klar.

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.10.2008, 20:09

Ähm nein, sonst würde ich nicht nachfragen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

r-alf
PostRank 9
PostRank 9
Beiträge: 1819
Registriert: 09.09.2008, 21:49
Wohnort: Garage / Melmac

Beitrag von r-alf » 07.10.2008, 20:16

noindex= Google erkennt den Inhalt deiner Seiten nimmt diesen nur nicht im Index auf

nofollow=google kümmert sich nicht um den Inhalt (sollte :wink: )

Hube
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 25.09.2008, 09:54

Beitrag von Hube » 07.10.2008, 20:44

habe das bei mir mal quergeprüft:
Von meinen etwa 47K doppelten Title-Tags (ich arbeite daran) finden sich etwa 400, die per REP ausgegrenzt sind und zwar genau die, die von einem Eintrag betroffen sind, der erst etwa 2 Wochen alt ist (es hat übrigens auch über 24 Stunden gedauert, bis die neue robots.txt laut WMT abgeholt wurde, da war G. auch schon mal schneller ...)
Allerdings gebe ich als Meta-Tag noch robots=index,follow aus. Das ist allerdings bei den Seiten, die schon länger in der robots.txt stehen, auch so und davon habe ich keine gefunden...

Sieht also schon so aus, als würde es ein wenig dauern, bis eine Änderung der robots.txt im WMT "ankommt" , ich gehe davon aus, daß es sich mit dem Meta-Tag ähnlich verhält ..... ich werde die Sache im Auge behalten! :o

Sind diese Seiten bei dir schon lange gesperrt?

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.10.2008, 22:22

r-alf hat geschrieben:noindex= Google erkennt den Inhalt deiner Seiten nimmt diesen nur nicht im Index auf

nofollow=google kümmert sich nicht um den Inhalt (sollte :wink: )
Falsch. noindex steht dafür, dass der Inhalt nicht im Index auftauchen sollte, nofollow dafür dass die Verweise/Links auf der Seite nicht verfolgt werden sollten.

Aber was hat das mit dem WMT-Problem zu tun?
Hube hat geschrieben:Sieht also schon so aus, als würde es ein wenig dauern, bis eine Änderung der robots.txt im WMT "ankommt" , ich gehe davon aus, daß es sich mit dem Meta-Tag ähnlich verhält ..... ich werde die Sache im Auge behalten!

Sind diese Seiten bei dir schon lange gesperrt?
Die URLs sind eigentlich sogar neu. Sprich die gibt es von Anfang an nur mit diesem Metatag, das in Indexieren der Seiten sperren sollte. Deshalb wundere ich mich ein wenig.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 07.10.2008, 22:26

Southmedia hat geschrieben:... sollte
jaja, SOLLTE, sollen tut viel wenn der tag lang is' ^^ ... (das ist mein voller ernst!)

(verfolg's genau, sie tun längst was SIE wollen, nicht was "sollte", das ist heutzutage vorbei!)

los geht's hier: sie krabbeln was robots.txt gesperrt ist. sie "erfinden" URLs wenn sie's für genehm halten, irgendwelche regeln, an die DU glauben magst oder nicht - egal! sie machen durchweg was immer sie wollen. trägst du das in rechnung, liegst du richtig. geh vom möglichen aus - sie tun's, geh vom unmöglichen aus, sie trachten danach es zu tun ...
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Hube
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 25.09.2008, 09:54

Beitrag von Hube » 10.10.2008, 10:32

Die URLs sind eigentlich sogar neu. Sprich die gibt es von Anfang an nur mit diesem Metatag, das in Indexieren der Seiten sperren sollte. Deshalb wundere ich mich ein wenig.
Interessant, das ist in der Tat etwas merkwürdig. Da bin ich auch nur auf Vermutungen angewiesen.
Nur der Interesse halber: Sind die Seiten auch zusätzlich über REP und rel="nofollow" ausgegrenzt worden?
Allgemein traue ich dem WMT nicht so sehr, Änderungen in Sitemaps oder Konfiguration greifen meiner Erfahrung nach immer sehr träge....

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag