Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sitemap besser als Unterseiten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
torsten999
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 26.09.2004, 10:17

Beitrag von torsten999 » 16.12.2006, 10:51

Hallo Leute,

ich habe mit einer Website folgendes Problem:
die Seite hat eine große Anzahl von Unterseiten. Damit Google die alle irgendwie findet, habe ich eine Sitemap-Seite gebaut, auf der alle Unterseiten verlinkt sind.
Google indiziert auch viele Unterseiten (70-80%), in den SERPs ist aber steht die Sitemap-Seite am besten gerankt. Der User klickt also auf das Google-Ergebnis, landet aber auf einer logischerweise nicht sehr einladenden Seite und verschwindet schnell.

Wie kann ich Google dazu überreden, die relevanteren Unterseiten besser zu ranken als die Sitemap?

Gruß
Torsten

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

haha
PostRank 9
PostRank 9
Beiträge: 1065
Registriert: 03.04.2006, 18:08
Wohnort: Bi Hamborg

Beitrag von haha » 16.12.2006, 11:22

torsten999 hat geschrieben:Wie kann ich Google dazu überreden, die relevanteren Unterseiten besser zu ranken als die Sitemap?
Statte die Sitemapseite mit einem <meta>-robots-Element aus, Inhalt "noindex,follow".

hborkott
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 15.11.2006, 23:40
Wohnort: Bochum

Beitrag von hborkott » 16.12.2006, 17:53

https://www.google.com/webmasters/tools ... about.html

Bastel Dir eine Sitemap speziell für Google (siehe Link) und und sag in der robots.txt, daß Google die Sitemap (die Du bisher gebaut hast) nicht indizieren soll.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


samaluli
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 31.12.2005, 15:53

Beitrag von samaluli » 17.12.2006, 09:52

Ich würde die Meta Tags TITLE und DESCRIPTION überprüfen. Schreibe in beide "Sitemap" rein und die Wahrscheinlichkeit sinkt, dass du in den Serps gefunden wirst. Gleichzeitig erfüllt die Sitemap aber noch die gewünschte Funktion, deine Unterseiten zu verlinken.

torsten999
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 26.09.2004, 10:17

Beitrag von torsten999 » 17.12.2006, 14:55

Erstmal vielen Dank für die schnellen Antworten.

@haha: Den Meta-Tag habe ich eingebaut. Mal sehen, wie Google reagiert.

@hborkott: Was trage ich denn bei aktiviertem ModRewrite in die robots.txt ein? Die "rewritetete" URL oder die Originalurl? Oder beide?

@samaluli: Der Linktext zu dieser Seite heißt SITEMAP und die h1-Überschrift auch. Reicht das?

samaluli
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 31.12.2005, 15:53

Beitrag von samaluli » 17.12.2006, 16:15

Hallo,
mein Vorschlag war ein Alternativvorschlag zu den anderen Beiträgen. Wenn du Google von der Seite aussperrst, dann ist egal, was auf der Seite steht.
Ich hatte mal ein vergleichbares Problem wie du. Bei mir hat es geholfen, Keywords aus den Meta Tags (und auch Überschriften) rausznehmen.

Ansonsten ist die Sitemap ja dafür da, dass die Links auf die Unterseiten verfolgt werden können. Deshalb würde ich Google da auch nicht aussperren.
Schönen Sonntag noch

haha
PostRank 9
PostRank 9
Beiträge: 1065
Registriert: 03.04.2006, 18:08
Wohnort: Bi Hamborg

Beitrag von haha » 17.12.2006, 16:30

torsten999 hat geschrieben:Was trage ich denn bei aktiviertem ModRewrite in die robots.txt ein? Die "rewritetete" URL oder die Originalurl? Oder beide?
Die robots.txt enthält nur von außen sichtbare URLs, weil sie nur außerhalb Deines Servers ausgewertet wird.

Sperrst Du allerdings Deine Sitemapseite in der robots.txt, verlierst Du auch ihre angedachte Funktion, die Suchmaschinen werden sie überhaupt nicht mehr abrufen und Du könntest sie im Grunde auch gleich löschen, wären da nicht noch menschliche Nutzer.
Bei Einsatz des <meta>-Elements würden Suchmaschinen die Seite weiterhin auswerten, aber nicht aufführen.

Willst Du die Funktion ohne oder mit per robots.txt gesperrter Sitemapseite behalten, müsstest Du (halbwegs) zwingend alle anderen Seiten manuell über den Sitemapdienst anmelden, wie Herr Boykott es schon geschrieben hat (nur halbwegs zwingend, weil die Seiten ja eigentlich auch normal verknüft sein sollten und Robots diesem Pfad folgen können).

Dies nur zur Klärung. Eine von den beiden Möglichkeiten kannst Du nehmen, aber die Verwendung beider gleichzeitig würde keinen Sinn machen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag