Seite 1 von 1
Warum indexiert Google immer unbrauchbare Seiten
Verfasst: 24.08.2010, 16:18
von xmenh
Hallo,
also mir fällt auf das google immer irgendeinen Blödsinn indexiert. Bei Yahoo hatte ich das zb noch nicht.
Ich adde meine Url und Google indexiert zb eine Unterseiteseite die eigtl garnicht existiert. Folgt man dem Link landet man auf einer leeren Seite auf meiner Präsenz...
Das gleiche hatte ich bei einer anderen Seite, nicht die Home sondern irgendeine unwichtige Unterseite wurde indexiert...
Warum macht google das so? Immer tauchen irgendwelche Unterseite oder Unterseiten mit leerem Inhalt im Index zuerst auf, obwohl diese Unwichtig und nichtmal iregndwelche bestimmten Keywörter enthalten
Verfasst: 24.08.2010, 17:40
von buttheads
Vermute mal, bevor du Deine URL "addest" stellst du ein Template und/oder ein CMS online und turnst mit angeschalteter Toolbar darauf herum, legst vielleicht noch adsense drauf - lielleich reichst u sogar schon mal eine xml-sitemap ein ... und google guckt schon mal vor deinem "adden" auf die Seiten, findet die Standardseiten die man schon kennt "Hallo, ich bin ein wordpress-blog" etc ... findet, das die echt doppelt sind und zwecklos und kickt die erstmal.
Die einzigen "uniquen" Seiten, die dann gefunden werden sind diejenigen, die durch irgendwelche Code-Fehler entstehen und leer sind ... da ist dann wenigstens der Dateinamen bisher unbekannt. Aber keine Sorge: Das hält nicht lang - google schaut nochmal nach und schmeißt die neuen, leeren Seiten dann weg... jedenfalls für die Serps. Ansonsten vergisst google nix ...
Google toolbar und Adsense-bot helfen der SuMa beim indexieren und "aufstöbern" neuer Seiten. Google is da fix - und beim beschriebenen Fall wahrscheinlich fixer als du.
Bei frisch gefundenen leeren Seiten in bekannten Schemen (gleiche Navis und "Texte", gleiche Metas, gleiche Dateinamen wie auf z.B. einer Million anderer, frisch aufgesetzter Wordpress-Blog) ist Google immer fix dabei, die zu ignorieren. Was sollten die auch in irgendwelchen Indexen? Gerade bei neuen und schwachen Domains kann es lange dauern, bis dieses "Ignorieren" aufhört...
Tipp:
Das erste, was Du auf einer neuen Domain tun solltest, ist ein Google ausschließender robots.txt drauf - den du allerdings entfernen solltest, bevor du die Domain "addest" - was immer das auch sein mag. Dann bestimmst Du, ab wann Google entscheiden kann, ob die seite nützlich ist oder nicht.
Verfasst: 25.08.2010, 03:40
von Wochenendpanda
Ich adde meine Url und Google indexiert zb eine Unterseiteseite die eigtl garnicht existiert. Folgt man dem Link landet man auf einer leeren Seite auf meiner Präsenz...
Dann solltest du statt ner leeren Seiten einen 404 Header rausschicken, dann passiert das nicht.
Bei mir legt sich das Phänomen nach ein paar Tagen. Google updated seine SERPs halt oft und bei neuen Inhalten sind evtl nicht alle Server synchronisiert.
Verfasst: 25.08.2010, 10:25
von jonasms
Hi
hast du ne sitemap eingereicht wo die urls die nicht indexiert werden sollen mit drin sind? Die Dateien auch per robots.txt ausschließen die du nicht drin haben willst.