Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Lineare Verzeichnisse werten den eigenen Content ab

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
shapeshifter
PostRank 9
PostRank 9
Beiträge: 1480
Registriert: 20.10.2004, 16:01

Beitrag von shapeshifter » 14.12.2006, 17:32

Moin zusammen,

progge grad ein bisschen and einem Artikelsystem rum und da fiel mir im Bezug auf´s SEO-Finetuning folgende "Problematik?" auf:

1. Die Index-Seiten eines Artikelverzeichnisses zeigen ja zumeist die X neusten Artikel als Titel/Vorschautext an.
(/news/) -> 20 Artikel mit Vorschautext aller Unterkategorien

2. Auch die Index-Seiten der Unterkategorien dieser Verzeichnisse zeigen dann zumeist die X neusten Artikel der Unterkategorie als Titel/Vorschautext an.
(/news/autos/) -> 20 Artikel mit Vorschautext aller Artikel dieser Unterkategorie

Somit ändern sich diese Übersichtsseiten, sowie evtl. Folgeseiten mit "Artikel-ID-Offset" (/news/autos/ente/list.php?start=20) - oder was auch immer ja je nachdem, wie oft und wie viele neue Artikel hinzukommen.

Am dramatischsten zeigt sich das natürlich auf der übergeordneten /news/ - Seite, da dort ja die neuen Artikel aller Unterkategorien gelistet werden und somit die Frequenz des Wechsels des Gesamt-Contents dieser Seite am höchsten ist.

Dies hat natürlich ebenso dramatische Auswirkungen auf das KW-Ranking der jeweiligen Übersichts- und Offset-Seiten, da sich der Content ständig ändert. (heute rankt die gleiche Seite mit "Ente" - morgen mit "PT-Cruiser" besser)

Weiterhin ändert sich auch ständig die interne Verlinkung auf die letztendlichen und vollständigen Artikel selbst.
Ist ein Artikel neu, wird er von /news/ aus verlinkt - ist er älter, wird er z.B. von der 2. Katalog-Seite der Kategorie /news/autos/ente/list.php?start=20 -> also schon 3 Ebenen tiefer verlinkt.

Die direkte Adresse zum Artikel bleibt natürlich immer gleich:
domain.tld/news/autos/ente/reparatur.html

Nun:
- neuer Content ist super
- guter Content wird von Extern hoffentlich (oder selbständig ;)) mit Deeplinks beglückt
- guter Content rankt auch durch gute OnPage-Optimierung
- das Ranking der Übersichtsseiten ist sicher nicht so wichtig wie das Ranking der letztendlichen Artikel

Aber:
- eine solche Hirarchie betreibt eine automatische interne Abwertung der Artikel-Seiten (1.Verlinkung immer tiefer auf der website)
- Besucher finden den Artikel beim browsen der Seite auch erst nach x weiteren clicks.
- der neue Content ist nicht immer der bessere
- je nach Umstand (Saison, Thema etc.) möchte man ja seine Rankings hier und da verschieben können

Wie gesagt - es geht um das grundsätzliche Finetuning einer hirarchichen Struktur -> für Besucher und Bots.

Ich bin mir noch nicht ganz sicher, dass der gedankliche Ansatz hier ein wenig übertrieben ist - auch wenn Trilliarden von Verzeichnissen und Blogs nach der herkömmlichen Hirarchie arbeiten.

Wie ist das mit Euch ?
Seid ihr mit einer linearen Hirarchie zufrieden oder könnt ihr Euch vorstellen, dass intelligentere Designs u.U. einfach bessere Ergebnisse für Besucher und Rankings produzieren ?
Zuletzt geändert von shapeshifter am 14.12.2006, 17:52, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 14.12.2006, 17:46

Das ist bei nahezu allen Seiten die regelmässig neuen Conent produzieren so. Ganz egal ob heise, SPON oder nen regionales Portal, je älter der Artikel, desto tiefer hängt er im System und desto schwerer ist er zu erreichen.

Ne Tag-Cloud würde ein wenig helfen. So könnte man zumindest viel gefragte Artikel über 2 Klicks erreichbar machen.

Du könntest auch auf der Startseite alle (beispielsweise) 100 Kategorien verlinken. In jeder Kategorie nimmst du dann nochmals 100 Artikel auf, die alle direkt auf der Artikelseite verlinkt sind. So bekommst du 10.000 Artikel auf maximal 2te Ebene verlinkt.

Du hast im Prinzip nur 2 Möglichkeiten, entweder viele interne Links auf jeder Seite, oder ne tiefe Struktur.

Bei einer neueren Struktur wird wohl immer eine der Parteien Bot oder mensch zurückstecken müssen.

shapeshifter
PostRank 9
PostRank 9
Beiträge: 1480
Registriert: 20.10.2004, 16:01

Beitrag von shapeshifter » 14.12.2006, 18:47

Das ist bei nahezu allen Seiten die regelmässig neuen Conent produzieren so
Und genau damit muss man sich ja nicht abfinden ;)

Ich kenne genug Seiten, die unglaubliche Anzahlen von Links auf ihren Übersichts-Seiten platziert haben - nur ist das natürlich qualitativ unter aller %$&/.
Du hast im Prinzip nur 2 Möglichkeiten, entweder viele interne Links auf jeder Seite, oder ne tiefe Struktur.
Ich denke, da gibt es einige Ansätze, die sowohl Besucher als auch Bots gleichermaßen zufriedenstellen. Nicht umsonst greifen auch die Sumas mittlerweile auf die sog. social rankings zurück.
Und auch das ist nur EIN weiterer Ansatz, Content zu werten.
Intelligentes Design is halt ein Polymer - ob nun aus Verzweiflung oder einfacher Notwendigkeit.
Ich denke die beste Möglichkeit bestünde in einer Kombination aus automatisierten sowie manuellen Verfahren, die Content bereits INTERN ranken ;)

Warum um alles in der Welt sollte man:
1. den Besucher nicht nutzen um dem nächsten ein besseres Angebot zu präsentieren ?
2. den Bots eine lineare Struktur vor den Latz knallen und sich allein auf deren Mechanismen verlassen ?