Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Warum indexiert Google immer unbrauchbare Seiten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
xmenh
PostRank 2
PostRank 2
Beiträge: 45
Registriert: 04.07.2008, 08:53

Beitrag von xmenh » 24.08.2010, 16:18

Hallo,

also mir fällt auf das google immer irgendeinen Blödsinn indexiert. Bei Yahoo hatte ich das zb noch nicht.

Ich adde meine Url und Google indexiert zb eine Unterseiteseite die eigtl garnicht existiert. Folgt man dem Link landet man auf einer leeren Seite auf meiner Präsenz...

Das gleiche hatte ich bei einer anderen Seite, nicht die Home sondern irgendeine unwichtige Unterseite wurde indexiert...

Warum macht google das so? Immer tauchen irgendwelche Unterseite oder Unterseiten mit leerem Inhalt im Index zuerst auf, obwohl diese Unwichtig und nichtmal iregndwelche bestimmten Keywörter enthalten

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 24.08.2010, 17:40

Vermute mal, bevor du Deine URL "addest" stellst du ein Template und/oder ein CMS online und turnst mit angeschalteter Toolbar darauf herum, legst vielleicht noch adsense drauf - lielleich reichst u sogar schon mal eine xml-sitemap ein ... und google guckt schon mal vor deinem "adden" auf die Seiten, findet die Standardseiten die man schon kennt "Hallo, ich bin ein wordpress-blog" etc ... findet, das die echt doppelt sind und zwecklos und kickt die erstmal.

Die einzigen "uniquen" Seiten, die dann gefunden werden sind diejenigen, die durch irgendwelche Code-Fehler entstehen und leer sind ... da ist dann wenigstens der Dateinamen bisher unbekannt. Aber keine Sorge: Das hält nicht lang - google schaut nochmal nach und schmeißt die neuen, leeren Seiten dann weg... jedenfalls für die Serps. Ansonsten vergisst google nix ...

Google toolbar und Adsense-bot helfen der SuMa beim indexieren und "aufstöbern" neuer Seiten. Google is da fix - und beim beschriebenen Fall wahrscheinlich fixer als du.

Bei frisch gefundenen leeren Seiten in bekannten Schemen (gleiche Navis und "Texte", gleiche Metas, gleiche Dateinamen wie auf z.B. einer Million anderer, frisch aufgesetzter Wordpress-Blog) ist Google immer fix dabei, die zu ignorieren. Was sollten die auch in irgendwelchen Indexen? Gerade bei neuen und schwachen Domains kann es lange dauern, bis dieses "Ignorieren" aufhört...

Tipp:
Das erste, was Du auf einer neuen Domain tun solltest, ist ein Google ausschließender robots.txt drauf - den du allerdings entfernen solltest, bevor du die Domain "addest" - was immer das auch sein mag. Dann bestimmst Du, ab wann Google entscheiden kann, ob die seite nützlich ist oder nicht.

Wochenendpanda
PostRank 4
PostRank 4
Beiträge: 128
Registriert: 17.08.2010, 01:48
Wohnort: Rostock

Beitrag von Wochenendpanda » 25.08.2010, 03:40

Ich adde meine Url und Google indexiert zb eine Unterseiteseite die eigtl garnicht existiert. Folgt man dem Link landet man auf einer leeren Seite auf meiner Präsenz...
Dann solltest du statt ner leeren Seiten einen 404 Header rausschicken, dann passiert das nicht.

Bei mir legt sich das Phänomen nach ein paar Tagen. Google updated seine SERPs halt oft und bei neuen Inhalten sind evtl nicht alle Server synchronisiert.

jonasms
PostRank 5
PostRank 5
Beiträge: 219
Registriert: 16.06.2007, 20:20
Wohnort: Münster

Beitrag von jonasms » 25.08.2010, 10:25

Hi
hast du ne sitemap eingereicht wo die urls die nicht indexiert werden sollen mit drin sind? Die Dateien auch per robots.txt ausschließen die du nicht drin haben willst.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag