Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Gesunde Anzahl an indexierten Seiten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
blackus3r
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 05.12.2012, 22:43

Beitrag von blackus3r » 25.05.2013, 17:59

Kurze Frage, was ist denn eine gesunde Anzahl an indexierten Seiten?

Mein blog hat 19.000 indexierte Seiten. Sollte man die /tag/ seiten bei Wordpress eigentlich mit disallow versehen, oder nicht?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

lanza99
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 21.05.2008, 21:35

Beitrag von lanza99 » 26.05.2013, 13:49

das würde ich auch gerne wissen

toSeo
PostRank 4
PostRank 4
Beiträge: 106
Registriert: 28.09.2012, 08:57

Beitrag von toSeo » 26.05.2013, 14:07

SPON hat irgendwas um 1,4 Mio., Facebook 3,5 Mrd.

Beide haben ganz gut Traffic.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

lanza99
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 21.05.2008, 21:35

Beitrag von lanza99 » 26.05.2013, 23:22

na solche Zahlen sind kein Vergleich für den Otto-Normal-Webmaster ;-)

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 27.05.2013, 00:00

blackus3r hat geschrieben:Kurze Frage, was ist denn eine gesunde Anzahl an indexierten Seiten?

Mein blog hat 19.000 indexierte Seiten. Sollte man die /tag/ seiten bei Wordpress eigentlich mit disallow versehen, oder nicht?
Gesund ist alles was sinnvoller Inhalt ist und nicht doppelt unter verschiedenen URLs vorhanden. Gerade letzteres wird z.B. bei Wordpress mit vielen Tags und den restlichen Archiven schnell zum Problem.

Wo nofollow genau Sinn macht, hängt stark von der Struktur Deines BLogs ab, etwa ob Du sehr viele Tags verwendest oder wenige, ähnlich wie Kategorien. Ob die Archive ganze Artikel zeigen oder nur Excerpts.

Beim durchschnittlichen Blog ist es am sichersten, alle Archive und Tags auf noindex zu setzen. Einen Disallow in der robots.txt würde ich nicht verwenden, weil das dann nur das Crawling behindert (zumindest bei Google und denen die sich dran halten) und Noindex auf den entsprechenden Unterseiten den selben Effekt hat.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

lanza99
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 21.05.2008, 21:35

Beitrag von lanza99 » 27.05.2013, 12:03

Vegas hat geschrieben: Gesund ist alles was sinnvoller Inhalt ist und nicht doppelt unter verschiedenen URLs vorhanden.
Das ist ja nicht wahr. Es geht hier um die Frage, ab wann ein Projekt zu gross ist, denn es gibt durchaus Hinweise darauf, daß kleine Projekte besser gefunden werden als sehr große, was natürlich stark von den Backlinks und vom Autoritätsstatus sowie vielen weiteren Faktoren abhängig ist.

Wir haben das Problem aktuell mit einem größeren Reiseportal (aktuell indiziert über 52.000 Seiten).
Hier werden die wichtigen Länder- und Regionenseiten nicht mehr gut gefunden, dafür oft Blogeinträge und andere unwichtigere Unterseiten. Man müsste Google mitteilen können, daß es auf einer Domain wichtigere und unwichtigere Seiten gibt, denn ansonsten bleibt einem ja nur die Chance, die unwichtigeren Seiten mit nofollow ganz vor dem indiziert werden zu schützen was aber schade ist, denn zu spezielllen Themen könnten solche Seiten ja durchaus gefunden werden und auch dem User weiterhelfen.

Vielleicht gibt es keine pauschale Antwort auf diese Frage, aber es wäre doch interessant die Erfahrungen von Webmastern mit großen Seiten zu hören... eh... lesen.

flordi
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 10.05.2013, 13:45

Beitrag von flordi » 27.05.2013, 13:10

lanza99 hat geschrieben:Man müsste Google mitteilen können, daß es auf einer Domain wichtigere und unwichtigere Seiten gibt, denn ansonsten bleibt einem ja nur die Chance, die unwichtigeren Seiten mit nofollow ganz vor dem indiziert werden zu schützen was aber schade ist, denn zu spezielllen Themen könnten solche Seiten ja durchaus gefunden werden und auch dem User weiterhelfen.
Ähm, ist nicht genau dafür das Feld Priority in der XML-Sitemap gedacht?
Also der Suchmaschine sagen welche Seiten wichtiger sind und welche nicht?

toSeo
PostRank 4
PostRank 4
Beiträge: 106
Registriert: 28.09.2012, 08:57

Beitrag von toSeo » 27.05.2013, 13:35

Dazu steht in den WMT, daß es Google im Zweifel egal ist was als Priority angegeben ist ;)

blackus3r
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 05.12.2012, 22:43

Beitrag von blackus3r » 27.05.2013, 14:18

Könntet ihr vielleicht mal schauen? Wir zeigen nie den gesamten Artikel, aber nutzen auch viel das Tag System, sprich wir taggen sehr viel und wir leiten diese Links auch sehr viel weiter.

Als Beispiele:

https://filme-blog.com/tag/zombie
https://filme-blog.com/category/1-stern/

sollte ich diese vielleicht auf noindex/nofollow setzen? Manche Tag-Seiten sind halt sehr wertvoll und bieten einen großen Nutzen. Ist es vielleicht möglich, manche Seiten von diesem noindex/nofollow auszuschließen? Ich nutze WpSEO.

lanza99
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 21.05.2008, 21:35

Beitrag von lanza99 » 29.05.2013, 18:22

hat also niemand hier Erfahrung mit größeren Webseiten?

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 29.05.2013, 18:28

Wenn man 52000 Seiten im Index hat, von denen vielleicht 20,100 oder 500 Seiten sinnvollen, eigenständigen, mehrwertbehafteten Inhalt haben, dann ist diese Konstellation ein sicherer Weg, die Seite googletechnisch an die Wand zu fahren - spätestens seit Panda.

Edit: Hatte mal über 20mio Seiten im Index - anno dazumal - davon sind inzw. wohl ca. weit > 95% auf noindex bzw. aufgrund robots.txt für Bots nicht mehr erreichbar. Alles andere wäre rankingtechnisch Selbstmord.

blackus3r
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 05.12.2012, 22:43

Beitrag von blackus3r » 29.05.2013, 22:17

Okay,

hatte es inzwischen mal geändert. Waren um die 20k-30k Seiten im Index, davon sind gerade mal 1k Seiten mit einzigartigem Inhalt gefüllt. Mal sehen, was es bringt.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 29.05.2013, 23:39

lanza99 hat geschrieben:Das ist ja nicht wahr. Es geht hier um die Frage, ab wann ein Projekt zu gross ist, denn es gibt durchaus Hinweise darauf, daß kleine Projekte besser gefunden werden als sehr große, was natürlich stark von den Backlinks und vom Autoritätsstatus sowie vielen weiteren Faktoren abhängig ist.
Wenn man sinnvoll als einzigartigen Mehrwert definiert schon. Man überschätzt manchmal bei eigenen Projekten den realen Mehrwert. Mit der Masse leidet der nämlich irgendwann unweigerlich, weil viele Informationen redundant und eher generisch sind. Da rankt das kleine Projekt dann oft besser, weil es in seinem streng eingegrenzten Bereich einfach mehr liefert.

Keineswegs als Kritik gemeint, liegt in der Natur der Sache, Menge und Mehrwert sind schwer unter einen Hut zu bringen, außer es kommen auf breiter Front nutzergenerierte Inhalte dazu. Autorität kann da vieles wettmachen, aber manchmal auch nicht.

Oder platt ausgedrückt: 52000 mal besser zu sein als die meisten anderen, ist eine echte Mammuaufgabe. 50 mal besser zu sein dagegen ungleich einfacher.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

loronorzorro
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 10.12.2009, 16:49

Beitrag von loronorzorro » 30.05.2013, 02:34

Ich würde gerne noch einmal das Rankingproblem der Blogseiten gegenüber den "wichtigen" statischen Seiten aufgreifen:
Ich vermute, dass die Blogeinträge u.A. dazu da sind neuen Content zu schaffen für Google, sodass die Seite insgesamt gut rankt. Hier hilft es oft, wenn man aus den Blogbeiträgen auf die statischen, wichtigen Seiten verlinkt, sodass die Power auf die statische Seite übergeht und diese besser ranken. Stichwort: Interne Verlinkung.

lanza99
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 21.05.2008, 21:35

Beitrag von lanza99 » 31.05.2013, 10:56

@vegas
das mit dem 52000 mal besser sein ist ein super gedanke, ja genau darum gehts mittlerweile wohl

@loronorzorro
ja, aus allen blogartikeln gehen links auf themenrelevante Seiten, sprich auf die jeweiligen Länder-, Regionen- und Städtereisen - das ist also nicht das Problem.

die Blogartikel sind natürlich auch unique und von Menschen geschrieben. Momentan überlegen wir, ob wir das gesamte Blog auf noindex/follow ändern, nur leider verschwindet damit der ganze, über Jahre aufgebaute unique Content, der uns viel Zeit und Geld gekostet hat.
Die Blogartikel sind also in Ordnung, wahrscheinlich macht nur die Masse das Problem

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag