Seite 1 von 1

Lineare Verzeichnisse werten den eigenen Content ab

Verfasst: 14.12.2006, 17:32
von shapeshifter
Moin zusammen,

progge grad ein bisschen and einem Artikelsystem rum und da fiel mir im Bezug auf´s SEO-Finetuning folgende "Problematik?" auf:

1. Die Index-Seiten eines Artikelverzeichnisses zeigen ja zumeist die X neusten Artikel als Titel/Vorschautext an.
(/news/) -> 20 Artikel mit Vorschautext aller Unterkategorien

2. Auch die Index-Seiten der Unterkategorien dieser Verzeichnisse zeigen dann zumeist die X neusten Artikel der Unterkategorie als Titel/Vorschautext an.
(/news/autos/) -> 20 Artikel mit Vorschautext aller Artikel dieser Unterkategorie

Somit ändern sich diese Übersichtsseiten, sowie evtl. Folgeseiten mit "Artikel-ID-Offset" (/news/autos/ente/list.php?start=20) - oder was auch immer ja je nachdem, wie oft und wie viele neue Artikel hinzukommen.

Am dramatischsten zeigt sich das natürlich auf der übergeordneten /news/ - Seite, da dort ja die neuen Artikel aller Unterkategorien gelistet werden und somit die Frequenz des Wechsels des Gesamt-Contents dieser Seite am höchsten ist.

Dies hat natürlich ebenso dramatische Auswirkungen auf das KW-Ranking der jeweiligen Übersichts- und Offset-Seiten, da sich der Content ständig ändert. (heute rankt die gleiche Seite mit "Ente" - morgen mit "PT-Cruiser" besser)

Weiterhin ändert sich auch ständig die interne Verlinkung auf die letztendlichen und vollständigen Artikel selbst.
Ist ein Artikel neu, wird er von /news/ aus verlinkt - ist er älter, wird er z.B. von der 2. Katalog-Seite der Kategorie /news/autos/ente/list.php?start=20 -> also schon 3 Ebenen tiefer verlinkt.

Die direkte Adresse zum Artikel bleibt natürlich immer gleich:
domain.tld/news/autos/ente/reparatur.html

Nun:
- neuer Content ist super
- guter Content wird von Extern hoffentlich (oder selbständig ;)) mit Deeplinks beglückt
- guter Content rankt auch durch gute OnPage-Optimierung
- das Ranking der Übersichtsseiten ist sicher nicht so wichtig wie das Ranking der letztendlichen Artikel

Aber:
- eine solche Hirarchie betreibt eine automatische interne Abwertung der Artikel-Seiten (1.Verlinkung immer tiefer auf der website)
- Besucher finden den Artikel beim browsen der Seite auch erst nach x weiteren clicks.
- der neue Content ist nicht immer der bessere
- je nach Umstand (Saison, Thema etc.) möchte man ja seine Rankings hier und da verschieben können

Wie gesagt - es geht um das grundsätzliche Finetuning einer hirarchichen Struktur -> für Besucher und Bots.

Ich bin mir noch nicht ganz sicher, dass der gedankliche Ansatz hier ein wenig übertrieben ist - auch wenn Trilliarden von Verzeichnissen und Blogs nach der herkömmlichen Hirarchie arbeiten.

Wie ist das mit Euch ?
Seid ihr mit einer linearen Hirarchie zufrieden oder könnt ihr Euch vorstellen, dass intelligentere Designs u.U. einfach bessere Ergebnisse für Besucher und Rankings produzieren ?

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 14.12.2006, 17:46
von ole1210
Das ist bei nahezu allen Seiten die regelmässig neuen Conent produzieren so. Ganz egal ob heise, SPON oder nen regionales Portal, je älter der Artikel, desto tiefer hängt er im System und desto schwerer ist er zu erreichen.

Ne Tag-Cloud würde ein wenig helfen. So könnte man zumindest viel gefragte Artikel über 2 Klicks erreichbar machen.

Du könntest auch auf der Startseite alle (beispielsweise) 100 Kategorien verlinken. In jeder Kategorie nimmst du dann nochmals 100 Artikel auf, die alle direkt auf der Artikelseite verlinkt sind. So bekommst du 10.000 Artikel auf maximal 2te Ebene verlinkt.

Du hast im Prinzip nur 2 Möglichkeiten, entweder viele interne Links auf jeder Seite, oder ne tiefe Struktur.

Bei einer neueren Struktur wird wohl immer eine der Parteien Bot oder mensch zurückstecken müssen.

Verfasst: 14.12.2006, 18:47
von shapeshifter
Das ist bei nahezu allen Seiten die regelmässig neuen Conent produzieren so
Und genau damit muss man sich ja nicht abfinden ;)

Ich kenne genug Seiten, die unglaubliche Anzahlen von Links auf ihren Übersichts-Seiten platziert haben - nur ist das natürlich qualitativ unter aller %$&/.
Du hast im Prinzip nur 2 Möglichkeiten, entweder viele interne Links auf jeder Seite, oder ne tiefe Struktur.
Ich denke, da gibt es einige Ansätze, die sowohl Besucher als auch Bots gleichermaßen zufriedenstellen. Nicht umsonst greifen auch die Sumas mittlerweile auf die sog. social rankings zurück.
Und auch das ist nur EIN weiterer Ansatz, Content zu werten.
Intelligentes Design is halt ein Polymer - ob nun aus Verzweiflung oder einfacher Notwendigkeit.
Ich denke die beste Möglichkeit bestünde in einer Kombination aus automatisierten sowie manuellen Verfahren, die Content bereits INTERN ranken ;)

Warum um alles in der Welt sollte man:
1. den Besucher nicht nutzen um dem nächsten ein besseres Angebot zu präsentieren ?
2. den Bots eine lineare Struktur vor den Latz knallen und sich allein auf deren Mechanismen verlassen ?

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 14.12.2006, 19:39
von ole1210
Ich denke die beste Möglichkeit bestünde in einer Kombination aus automatisierten sowie manuellen Verfahren, die Content bereits INTERN ranken
Die von mir schon angesprochene Tag-Cloud beispielsweise,
0der ne 08/15 Chartliste der am meisten angesehenen Artikel der letzten 14 Tage beispielsweise!

Verfasst: 14.12.2006, 22:08
von MonikaTS
wenn man eine gute Software hat,kann man bei Archiven zb die Ordnung umdrehen und dann nicht die neuesten Beiträge anzeigen, sondern die Ältesten und selbst wenn dann das Archiv für die Gruppe XY drei Seiten hat, bleibt der älteste Artikel oben und hat somit seinen fixen Platz.


wenn man seine Kategorien gut wählt und gute Beschreibungstexte macht, bei einem Artikelverzeichnis oder bei einem CMS, das nach Zeit ordnet, dann ist es an und für sich aber auch egal wie oft dort die einzelnen Artikel nach unten rutschen, weil doch wohl die Keywords pro Archive sowieso drin vorkommen werden,

Oder schreibt wer einen Artikel zu Schuhe, wo in der Kurzzusammenfassung das Wort Schuhe nicht vorkommt :o


ich erachte so wie Du dies als Problem und habe daher gehandelt ;)

lg

Verfasst: 15.12.2006, 07:44
von Margin
ole1210 hat geschrieben:Die von mir schon angesprochene Tag-Cloud beispielsweise,
0der ne 08/15 Chartliste der am meisten angesehenen Artikel der letzten 14 Tage beispielsweise!
Ist das nicht eine etwas trügerische Lösung?
Die Artikel, die dort einmal gelistet sind, dürften i.d.R. fortan dann automatisch die sein, die am häufigsten geklickt werden.

Wünsch Euch einen schönen Freitag.

Verfasst: 19.12.2006, 07:38
von MonikaTS
Margin hat geschrieben:
ole1210 hat geschrieben:Die von mir schon angesprochene Tag-Cloud beispielsweise,
0der ne 08/15 Chartliste der am meisten angesehenen Artikel der letzten 14 Tage beispielsweise!
Ist das nicht eine etwas trügerische Lösung?
Die Artikel, die dort einmal gelistet sind, dürften i.d.R. fortan dann automatisch die sein, die am häufigsten geklickt werden.

Wünsch Euch einen schönen Freitag.
Margin ja
wenn denn dort tatsächlich die meist gelesensten Beiträge auftauchen,
;)