Seite 1 von 2

Neues sitemap führt zu Traffikverlust

Verfasst: 22.02.2013, 01:44
von mhbj1111
Hallo zusammen,

Ich optimiere ein kleines Kleinanzeigenportal und ich kämpfe in die letzte Wochen mit einen Sitemap Problem.

Ich habe ein neues super kompliziertes Algoritmus geschrieben, der neue Internelinks generiert. Diese neue links möchte ich von Google indexieren lassen.

Ich habe auch ein 2 Jahre altes sitemap, der schön nicht ganz aktuell ist, mit ca. 32K Einträge.

1. Versuch
- Ich habe alle alte URL gelöcht und und 10 neue URL reingeschriebe.
- Traffic fiel um 10% in die ersten 1-2 Tage
- ich hbe die alte Sitemap reingemacht, alles hat sich nach ein paar Tage stabiliziert

2. Versuch
- Ich habe der alte Sitemap ergänzt mit ca. 10K neue Links, also insgesamt 42K links
- Traffic ist nach ca . 1-2 um 10-15% runtergegangen
- habe noch 3-4 Tage gewartet, keine Änderung
- habe der alte Sitemap reingemacht(mit 32K Links), sehr kleine positive Änderung, allerdings immer noch ca 10% unten normale Traffic.

Hat jemanden eine Ahnung wie mann es richtig macht? Ich habe insgesame ca- 50K neue links und habe keine ahnung wie ich die richtig indexieren soll.

Danke im Voraus.

Verfasst:
von

Verfasst: 22.02.2013, 08:36
von MidnightDancer
Zum Thema Sidemap, kann ich ned viel sagen, den ich nutze keine.
Zum Thema indexieren da ist halt die interne und externe Verlinkung das wichtigste.
Wenn das stimmt und der Inhalt bei sooo vielen Seiten ok ist, dann klappt es auch mit der Indexierung.

Verfasst: 23.02.2013, 18:03
von webbastler
Jede Strukturänderung kann zu Rankigverlusten führen, jede Wort mehr oder weniger, ob als Linktext oder Normaltext wird anders gewertet

Vor allem auf der oberen Hälfte der Seite reagiert Google sehr sensibel.

Verfasst:
von

Verfasst: 23.02.2013, 20:20
von Spann-Ung
Herrlich. Danke.

Re: Neues sitemap führt zu Traffikverlust

Verfasst: 24.02.2013, 00:26
von Melegrian
Spann-Ung hat geschrieben:Herrlich. Danke.
Ja, da entsteht Spannung beim Lesen.
mhbj1111 hat geschrieben:Ich habe ein neues super kompliziertes Algoritmus geschrieben, der neue Internelinks generiert. Diese neue links möchte ich von Google indexieren lassen.
Du solltest lieber Seiten statt Links indizieren lassen.
mhbj1111 hat geschrieben:Ich habe insgesame ca- 50K neue links und habe keine ahnung wie ich die richtig indexieren soll.
Vielleicht liegt es ja nicht an der Sitemap, sondern an dem super komplizierten Algorithmus, dass zu viele neue Seiten mit nur einer Anzeige pro Seite über die Sitemap auffindbar werden? Wenn Google davon bisher 32.000 indizierte, dann würden 10.000 neue ohnehin eine Neubewertung nach sich ziehen, die nicht unbedingt besser sein muss, falls die Seiten plus Inhalte sich zu sehr gleichen.
MidnightDancer hat geschrieben:Wenn das stimmt und der Inhalt bei sooo vielen Seiten ok ist, dann klappt es auch mit der Indexierung.
Was für ok-Inhalt bei Anzeigen?
webbastler hat geschrieben:Vor allem auf der oberen Hälfte der Seite reagiert Google sehr sensibel.
Was unterscheidet die obere von der der unteren Hälfte bei eine sitemap.xml bei 32.000 bis 42.000 Einträgen?

Verfasst: 24.02.2013, 10:50
von Spann-Ung
Ach komm, Melegrian, der ist doch nich echt!?

Verfasst: 24.02.2013, 11:03
von webbastler
Mr. Pages wollte als chronologisch erzogener Mensch offensichtlich normale Seitentexte mit dem Grundaufbau eines Produkt-Exposees.

Die Ersten Suchmaschinen-Eintragungs-Softwares waren auch auf diese Grunderkenntnis aufgebaut.

Das bedeutet, daß der Anfang, bzw. der Titel und die Ersten 1000 Zeichen den Inhalt der Seite ausdrücken sollten.

Die Grundprogrammierung von Google wird danach ausgerichtet worden sein, auf zusätzliches Blog erkennen und Überschriften dieser.

Da sich die Google-Programmierung nicht geändert haben wird, sucht Google das wichtigen Schlüsselworte vorwiegend am Anfang der Seiten.

Verfasst: 24.02.2013, 12:34
von Melegrian
Spann-Ung hat geschrieben:der ist doch nich echt!?
Ob mhbj1111 echt ist, weiß ich nicht, doch ein Bot würde sicherlich mit Text gefüttert, der weniger Fehler enthält. Bliebe noch ein Spaßvogel, der etwas provozieren möchte oder so, doch so liest es sich die Fragestellung eigentlich auch nicht. Von MidnightDancer habe ich mal schnell die letzten Antworten durchgesehen, die er bisher so zum Besten gab, die lesen sich eigentlich ganz vernünftig und von webbastler bin ich nichts anderes gewohnt, wobei mir seine Antworten zunehmend besser gefallen.
webbastler hat geschrieben:Da sich die Google-Programmierung nicht geändert haben wird, sucht Google das wichtigen Schlüsselworte vorwiegend am Anfang der Seiten.
Deine Antwort trifft auf normale Webseiten zu, nicht auf die Einträge in eine XML-Sitemap. Führst Du eine XML-Sitemap und kennst Dich damit bestens aus?

Verfasst: 24.02.2013, 14:02
von webbastler
Nein, wahrscheinlich nicht, kann aber die genaue Bezeichnung des Wortes nicht richtig deuten.

Ich habe 4 Hauptdomains mit einer klaren Ordnerstrucktur, immer in 2 Versionen.

Startseite,
1x
Katalogseiten,
Produktexposees,
Preisseiten.

und 6 x Nebenproduckte, die ebenfals wieder mit

Katalogseiten,
Produktexposees,
und Preisseiten funktionieren.

Auf der Startseite gibt es also nur Links zu den jeweiliegen Katalogen, und zu den Haupt-Nebenprodukten.

Außerdem Sonderangebote, wo einige mit Bild und Kurztext beschriebene Endprodukte, am Katalog vorbei, direkt auf das jeweilige Exposee verlinkt sind.

2 dieser Domains sind in reinem HtmL, nur mit einigen Skipten und Stylesheets. etwas der aktuellen Form angepasst.

Dann 2 Domains auf Html5-Basis mit php die dynamisch über einen Datenspeicher geladen werden.

Der Grundaufbau und die Ordnerstruckturen sind aber alle gleich.

Schreibe bei allen 4 noch den Quelltext selber.


Diese 4 Domains befinden sich schon seit ca. 12 Jahrem im Netz, und stehen mit dem Haupt-Keyword der titel auch alle, nach wie vor auf der Ersten Seite bei Google, 3 auch auf der Ersten Hälfte.

Kenne also noch das alte Googleimpressum das als Privatunternehmen für wahr angegeben wurde

Verfasst: 24.02.2013, 14:15
von webbastler
PS.
Die Nebenprodukte sind über Unterordner ebenfalls als neue Indexseite wie die Startseite geordnet.

Die Hauptseite liegt auf einer Ebene, die Nebenprodukte auf der 2. Ebene.

Nur für Linkempfehlungen gehe ich bis zur 3. Ebene, und bei Portalen sogar noch auf die 4. in die Tiefe.

Verfasst: 24.02.2013, 14:41
von Melegrian
webbastler hat geschrieben:Nein, wahrscheinlich nicht, kann aber die genaue Bezeichnung des Wortes nicht richtig deuten.
Nun gut, hier sind mal zwei Beispiele für eine XML Sitemap, die zweite benötig zum Laden eventuell einige Sekunden:

https://developer.mozilla.org/sitemap.xml
https://www.google.com/sitemap.xml

Und die Eingangsfrage war, falls echt, wie man zu so einer bestehenden Sitemap mit 32.000 Einträgen weitere 10.000 ohne die erwähnten Folgen hinzufügen könnte.

Verfasst: 24.02.2013, 14:49
von webbastler
Danke für die Aufklärung!

Ich begreife anscheinend nur schleppent.
Verstehe den Sinn noch immer nicht.

bedeutet das Linkfarmengründungen ohne Abstufung?

Verfasst: 24.02.2013, 14:57
von Melegrian
webbastler hat geschrieben: Verstehe den Sinn noch immer nicht.

bedeutet das Linkfarmengründungen ohne Abstufung?
Nein, bei Deinen Projekten, wie von Dir beschrieben, wird ein Crawler auch so alle Seiten finden. Bei größeren Projekten soll aber so eine XML-Sitemap dem Crawler helfen, auch intern schlecht verlinkte Seiten in tieferen Ebenen zu finden.

Verfasst: 24.02.2013, 15:34
von webbastler
Danke, habe jetzt begriffen, als mathematisch denkender ist ein chronologisches Ordnersystem für mich zu selbverständlich.

Bei willkürlichen ungeordneten Seiten ist eine sogenannte Sidemap natürlich zwingend anzuraten.

Vorallem die mathematisch programmierte Suchmaschine Google, kann die dann möglicherweise willkürliche Linkanordnung wegen fehlendem chronologischen Sinn nicht erkennen.

Zu meiner Zeit galt man nach 4 Wochen in der Endablage und Kellerassel - Dienst als diplomiert.


Danke, das ist nunmal der Zeitgeist.

Verfasst: 24.02.2013, 16:08
von webbastler
Melegran, noch einmal vielen Dank für die Aufklärung!

Ich denke, ich kann mich jetzt konstruktiv zum Thema äußern.

Wenn also ein sogenanntes Ersatzordnungssystem namens Sitemap zur Chaosverhinderung nötig wird, bedarf aber auch dieses einer sauberen Standard-Verlinkung.

Das bedeutet:
1. Startseitenlink zur Sidemap,
Auflistung aller Html-Seiten,

2. auf diesen dann Backlinks zur Startseite und wenn möglich auch zu der vorhandenen sitemap.

Aber Google wird wahrscheinlich zur Akzeptanz der Seitenauflistung auf der sogenannten Sidemap, pro Link einen Textblock mit einem darin eingebundenen Linktextwort wünschen, oder diese mit Sicherheit höher bewerten.