Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Viele Seiten im Index - besseres Ranking?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Manu v6
PostRank 5
PostRank 5
Beiträge: 306
Registriert: 01.02.2011, 12:20

Beitrag von Manu v6 » 21.07.2011, 20:53

Rankt eurer Erfahrung/Meinung nach eine Homepage besser, wenn sie viele Seiten im google-Index hat? Kann es da einen Zusammenhang geben?

Zum Hintergrund: wir haben eine Filternavigation die der jeweiligen Kategorie-URL einfach nur Parameter anhängt. Durch das canonical tag verweisen wir auf die ungefilterte Kategorie-URL. Mit etwas Aufwand und einem Modul könnten diese Parameter-URL in suchmaschinenfreundliche URL's umgewandelt werden. Angenommen ich nehme das canonical raus, dann würde das massenhaft neue Urls ergeben und sicher einige Seiten mehr im Index (die URL sind als schöner Nebeneffekt auch noch für die long tail Suche interessant) Diese URLs ordnen die vorhanden Produkte zwar immer nur anders an, aber eine Bestrafung für interen DC gibt es ja nicht. In diesem Zusammenhang auch interessant: Sollten Shop-Suchergebnisse mit noindex aus den SERPS rausgehalten werden? Wir machen das so, es gibt aber Mitbewerber die sogar mit ihren Shop-Suchergebnissen relativ gut ranken (und dadurch natürlich zusätzlich viele Seiten im Index haben)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Link-Geier
Nutzer/in
Nutzer/in
Beiträge: 2770
Registriert: 09.08.2009, 19:11

Beitrag von Link-Geier » 21.07.2011, 21:02

in den Zusammenhang wie du es schilderst wohl eher nicht.

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 21.07.2011, 21:44

Diese URLs ordnen die vorhanden Produkte zwar immer nur anders an, aber eine Bestrafung für interen DC gibt es ja nicht.
Es ist definitiv nicht im Sinne von Google, wenn du die potenziell gleichen Inhalte auf verschiedenen URLs präsentierst. Und "Sortierung" ist kein Argument für neue URLs.

Bestrafung für die DC gibts eh nich, aber wenns nach Spam aussieht wirds heikel und mal eben 10000 Seiten mit dem gleichen Inhalte in den Index pressen sieht nicht wirklich sauber aus, oder?
In diesem Zusammenhang auch interessant: Sollten Shop-Suchergebnisse mit noindex aus den SERPS rausgehalten werden? Wir machen das so, es gibt aber Mitbewerber die sogar mit ihren Shop-Suchergebnissen relativ gut ranken (und dadurch natürlich zusätzlich viele Seiten im Index haben)
Nein, Suchergebnisse sollten nicht indexiert werden. Für sowas gibt es Tags und Kategorien, die du dann um entsprechend passenden unique Content anreichern kannst.

Mit der Suche zeigst du letztendlich auch nur die Produkte deines Shops (oder whatever) an - und diese sollten doch eigentlich dafür optimiert sein, zu ihren Keys gefunden zu werden.

Das wäre halt der White-Hat Approach. Sicher kannst du mit indexierten Suchen z.B. Longtail abgreifen. Gibt ja genügend Seiten, die sowas einsetzen. Aber in 99% der Fälle bietet sowas in den SERPS keinen Mehrwert und eine schlechte User Experience. Von daher fußt das Ganze generell nicht auf einem soliden Fundament.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter