Seite 1 von 1

Indexierung Forum

Verfasst: 29.05.2013, 21:41
von Spedi
Folgendes Problem:

Mein Forum wurde Mitte letzten Jahres bei Google noch mit 118.000 Seiten indexiert (Webmaster-Tool). Seit dem geht die Zahl kontinuierlich nach unten und ist mittlerweile bei rund 40.000 Seiten.

Was ich auch nicht verstehe ist der Zusammenhang mit der sitemap. Die meldet sogar nur 16.000 Seiten.

Ich blick da nicht durch und mache mir ernsthafte Sorgen.
Kann mir jemand den Zusammenhang erklären oder hat eine Erklärung?

Verfasst:
von

Verfasst: 29.05.2013, 22:03
von toSeo
Themen über mehrere Seiten, Links auf einzelne Posts, etc. blähen die Menge an Urls, die Google findet, gerne auf.

Die Sitemap "mapt" idR. nur Foren und Threads, deshalb ist das immer weniger als das, was ein Crawler dann tatsächlich findet.

Den Rückgang würde ich hauptsächlich darauf zurückführen, daß Google zunehmend genauer aussortiert (oder es zumindest versucht).

Die Menge an indizierten Seiten ist auch eher Zweitrangig, entscheidend ist, wo die Seiten stehen.

Verfasst: 29.05.2013, 23:39
von bbnetch
wieviele seiten hast du denn?
sollte dir dein forum ja ausspucken.

so viele urls hast wahrscheinlich in google gehabt wegen den parametern.
also ein thread mit mehreren seiten, die ganzen auswahlen, aufsteigend, absteigend usw.
heisst ein thread ist dann locker mit 5 versch. urls gespidert worden, aber eder zeigt schlussendlich den selben inhalt.

im grunde ist das nur positiv wenn google das aussortiert, dann vernichtest naehmlich dein dc.

parameter kannst du uebrigens auch von hand ausschliessen, bzw. einstellen wie google sie behandeln soll. siehe webmastertools.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 30.05.2013, 08:12
von Unifex
toSeo hat geschrieben: Die Menge an indizierten Seiten ist auch eher Zweitrangig, entscheidend ist, wo die Seiten stehen.
Was meinst du damit?

Verfasst: 30.05.2013, 12:06
von Spedi
wieviele seiten hast du denn?
sollte dir dein forum ja ausspucken.
Nein, leider finde ich dazu keinen Eintrag.

so viele urls hast wahrscheinlich in google gehabt wegen den parametern.
also ein thread mit mehreren seiten, die ganzen auswahlen, aufsteigend, absteigend usw.
heisst ein thread ist dann locker mit 5 versch. urls gespidert worden, aber eder zeigt schlussendlich den selben inhalt.
Diese Dinge haben wir schon sehr lange über die robots.txt ausgeschlossen.
im grunde ist das nur positiv wenn google das aussortiert, dann vernichtest naehmlich dein dc.
Doppelten Content hab ich zwar, aber das sind die üblichen Doppelpostings.

Verfasst: 30.05.2013, 12:23
von Casi
Vor einigen Wochen habe ich begonnen, mein Forum aufzuräumen und SEO-technisch auf Vordermann zu bringen. Ist noch ein altes THWBoard. In der Site-Abfrage zeigte mir Google mehr als 20000 Treffer. Dann habe ich begonnen über die WMT alles zu löschen / ignorieren zu lassen, was nicht wirklich relevant ist. Unter anderem habe ich einen von den Usern nicht genutzten Kalender rausgeschmissen. Alleine der Kalender hat ca. 18000 (!) URL-Einträge in der Site-Abfrage produziert. Wie bbnetch schon schreibt, sind auch die Topics unter mehreren verschiedenen URLs erreichbar, mit Seitennummer, lastpage-Anker, lastpost-Anker, etc. Einiges davon ist für das Ranking sehr kontraproduktiv gewesen. Zusammen mit anderen Maßnahmen hat sich das Ranking inzwischen wesentlich verbessert und die Besucherzahlen steigen.

@ Unifex: Es spielt keine Rolle, ob eine Webseite X1000-Unterseiten im Index hat, sondern, dass die wichtigen Seiten vorne stehen.

Verfasst: 30.05.2013, 18:16
von bbnetch
Spedi hat geschrieben:
so viele urls hast wahrscheinlich in google gehabt wegen den parametern.
also ein thread mit mehreren seiten, die ganzen auswahlen, aufsteigend, absteigend usw.
heisst ein thread ist dann locker mit 5 versch. urls gespidert worden, aber eder zeigt schlussendlich den selben inhalt.
Diese Dinge haben wir schon sehr lange über die robots.txt ausgeschlossen.
parameter kannst du nicht ueber die robots.txt ausschliessen!!

das hier sind parameter, infos die der url angehaengt werden, hier als peispiel bei google, wenn du was suchstz
e/search?q=parameter&pws=0&ie=utf-8&oe=utf-8&hl=de

ein forum zb hat das auch, darin steht auf welcher seite du dich befindest, also zb &p=2 oder welche sprache &l=de oder welches desing &d=fresh ob du threads aufsteigend oder absteigend anschaust &t=desc

forumurl.de/thread1.php&p=2&l=de&d=fresh&t=desc
kann dann aber auch so aussehen
forumurl.de/thread1.php&p=1&l=ch&d=mint&t=asc

und hat somit genau den selben inhalt, also dc.

schau mal bei google nach, suche ein wort, schau die url an, dann suche was anderes, dann wieder das selbe wie zuvor, und vergleiche dann die url mit dem ersten mal.

du wirst feststellen das ein total anderer buchstabensalat in der url steht, google dir aber genau die selbe seite zeigt.

am besten suche gleich nach url parameter, dann lernst noch was dabei :)

Verfasst: 30.05.2013, 18:43
von opetzold
parameter kannst du nicht ueber die robots.txt ausschliessen!!
Parameter kann man in den Webmastertools von Google verbieten

Verfasst: 31.05.2013, 09:45
von Casi
opetzold hat geschrieben: Parameter kann man in den Webmastertools von Google verbieten
Darüber hat neulich jemand einen interessanten Blogpost hier verlinkt (Weiß aber nicht mehr in welchem Thema).
Dadurch bin ich nämlich auch darauf aufmerksam geworden und habe das gleich genutzt.

Verfasst: 31.05.2013, 10:11
von ontlspol
Entschuldigung!
Habe gerade Langeweile, und kann nicht ganz folgen.

Geht es um vergessene Ordnerstruktur, Webmastertool, Parameter, oder fasch gesetzte, und möglicherweise fehlerhafte Sitemaps??