Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ich kriege bestimme Unterseiten nicht aus dem Index raus

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
msgm26
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 06.06.2008, 16:47

Beitrag von msgm26 » 10.07.2008, 08:48

Wenn ihr bei Google nach "site:www.confido-versicherungsmakler.de"
sucht, dann finden sich unheimlich viele Seiten die da eigentlich nicht
hingehören.

Alle Seiten an denen z.B. einen SessionID hängt. Und andere
Verzeichnisse die ich über die Robots.txt ausgeschlossen habe.

User-agent: *
Disallow: /components/
Disallow: /component/
Disallow: /news_feeds/
Disallow: /blogsection/
Disallow: /kontakt.php
Disallow: /datenschutz.php

Unteranderem sind auch PDF Dateien indexiert, die eigentlich per
nofollow verlinkt sind.

Ich mache mir sorgen wegen doppeltem Inhalt. Was kann ich tun?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


bara.munchies
PostRank 9
PostRank 9
Beiträge: 2457
Registriert: 09.06.2005, 09:02
Wohnort: Krung Tep

Beitrag von bara.munchies » 10.07.2008, 08:50

wenn es nicht so viele sind, einfach per webmastertools löschen.

msgm26
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 06.06.2008, 16:47

Beitrag von msgm26 » 10.07.2008, 08:58

Schön wäre wenn ich diese Seiten dauerhaft "verbannen könnte.
Denn ich mache mir bei unserer Seite ernsthafte Gedanken zum
Thema doppelten Inhalt.

Vielleicht kann sich auch jemand die Seite mal ansehen und das
Problem einschätzen: www.confido-versicherungsmakler.de

Ich habe gerade mal bei Webmastertool geschaut. Es sind auch
schon einige URLS die Google aufgrund der robots.txt nicht
gecrawlt hat. Viele der URLs die im Index noch aufgeführt sind
werden auch durch das Tool "robots.txt analysieren" als blockiert
erkannt. Wie lange dauert es ungefähr, bis diese URLs aus dem
Index verschwinden?

Sasushi
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 12:52
Wohnort: nähe Köln

Beitrag von Sasushi » 10.07.2008, 10:25

Du kannst die URLs manuell (wenn laut WMT entsprechend markiert) löschen. Das geht in der Regel relativ schnell. Sonst dauert es halt, bis der Crawler wieder mal vorbei schaut.

Sasushi
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 12:52
Wohnort: nähe Köln

Beitrag von Sasushi » 10.07.2008, 10:32

Seite anschauen:
DC hast du auf alle Fälle. Ich würde auch die Title noch mal anpacken und optimieren. Du hast 3 mal den Verify für die GWMT drin? Du verwendest keine Überschriften (H1, H2 usw.)...

msgm26
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 06.06.2008, 16:47

Beitrag von msgm26 » 10.07.2008, 15:06

Zunächst mal danke für den Tip mit WMT. Der Großteil der URLs
die nicht in den Index sollten sind jetzt raus.

Hast du auch noch einen Tipp wie ich bei dem zugrunde liegenden
CM-System (Joomla) den doppelten Inhalt vermeiden kann ohne
dass ich die gesamte Struktur der Seite nochmal ändern muss.

Vielen Dank auch für die weiteren Tips, wo noch Optimierungs-
potenzial vorhanden ist.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag