Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neues sitemap führt zu Traffikverlust

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
mhbj1111
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 22.02.2013, 01:34

Beitrag von mhbj1111 » 22.02.2013, 01:44

Hallo zusammen,

Ich optimiere ein kleines Kleinanzeigenportal und ich kämpfe in die letzte Wochen mit einen Sitemap Problem.

Ich habe ein neues super kompliziertes Algoritmus geschrieben, der neue Internelinks generiert. Diese neue links möchte ich von Google indexieren lassen.

Ich habe auch ein 2 Jahre altes sitemap, der schön nicht ganz aktuell ist, mit ca. 32K Einträge.

1. Versuch
- Ich habe alle alte URL gelöcht und und 10 neue URL reingeschriebe.
- Traffic fiel um 10% in die ersten 1-2 Tage
- ich hbe die alte Sitemap reingemacht, alles hat sich nach ein paar Tage stabiliziert

2. Versuch
- Ich habe der alte Sitemap ergänzt mit ca. 10K neue Links, also insgesamt 42K links
- Traffic ist nach ca . 1-2 um 10-15% runtergegangen
- habe noch 3-4 Tage gewartet, keine Änderung
- habe der alte Sitemap reingemacht(mit 32K Links), sehr kleine positive Änderung, allerdings immer noch ca 10% unten normale Traffic.

Hat jemanden eine Ahnung wie mann es richtig macht? Ich habe insgesame ca- 50K neue links und habe keine ahnung wie ich die richtig indexieren soll.

Danke im Voraus.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MidnightDancer
PostRank 5
PostRank 5
Beiträge: 277
Registriert: 15.09.2005, 13:20
Wohnort: Bayern

Beitrag von MidnightDancer » 22.02.2013, 08:36

Zum Thema Sidemap, kann ich ned viel sagen, den ich nutze keine.
Zum Thema indexieren da ist halt die interne und externe Verlinkung das wichtigste.
Wenn das stimmt und der Inhalt bei sooo vielen Seiten ok ist, dann klappt es auch mit der Indexierung.

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 23.02.2013, 18:03

Jede Strukturänderung kann zu Rankigverlusten führen, jede Wort mehr oder weniger, ob als Linktext oder Normaltext wird anders gewertet

Vor allem auf der oberen Hälfte der Seite reagiert Google sehr sensibel.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Spann-Ung
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 16.04.2009, 20:47

Beitrag von Spann-Ung » 23.02.2013, 20:20

Herrlich. Danke.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 24.02.2013, 00:26

Spann-Ung hat geschrieben:Herrlich. Danke.
Ja, da entsteht Spannung beim Lesen.
mhbj1111 hat geschrieben:Ich habe ein neues super kompliziertes Algoritmus geschrieben, der neue Internelinks generiert. Diese neue links möchte ich von Google indexieren lassen.
Du solltest lieber Seiten statt Links indizieren lassen.
mhbj1111 hat geschrieben:Ich habe insgesame ca- 50K neue links und habe keine ahnung wie ich die richtig indexieren soll.
Vielleicht liegt es ja nicht an der Sitemap, sondern an dem super komplizierten Algorithmus, dass zu viele neue Seiten mit nur einer Anzeige pro Seite über die Sitemap auffindbar werden? Wenn Google davon bisher 32.000 indizierte, dann würden 10.000 neue ohnehin eine Neubewertung nach sich ziehen, die nicht unbedingt besser sein muss, falls die Seiten plus Inhalte sich zu sehr gleichen.
MidnightDancer hat geschrieben:Wenn das stimmt und der Inhalt bei sooo vielen Seiten ok ist, dann klappt es auch mit der Indexierung.
Was für ok-Inhalt bei Anzeigen?
webbastler hat geschrieben:Vor allem auf der oberen Hälfte der Seite reagiert Google sehr sensibel.
Was unterscheidet die obere von der der unteren Hälfte bei eine sitemap.xml bei 32.000 bis 42.000 Einträgen?

Spann-Ung
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 16.04.2009, 20:47

Beitrag von Spann-Ung » 24.02.2013, 10:50

Ach komm, Melegrian, der ist doch nich echt!?

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 24.02.2013, 11:03

Mr. Pages wollte als chronologisch erzogener Mensch offensichtlich normale Seitentexte mit dem Grundaufbau eines Produkt-Exposees.

Die Ersten Suchmaschinen-Eintragungs-Softwares waren auch auf diese Grunderkenntnis aufgebaut.

Das bedeutet, daß der Anfang, bzw. der Titel und die Ersten 1000 Zeichen den Inhalt der Seite ausdrücken sollten.

Die Grundprogrammierung von Google wird danach ausgerichtet worden sein, auf zusätzliches Blog erkennen und Überschriften dieser.

Da sich die Google-Programmierung nicht geändert haben wird, sucht Google das wichtigen Schlüsselworte vorwiegend am Anfang der Seiten.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 24.02.2013, 12:34

Spann-Ung hat geschrieben:der ist doch nich echt!?
Ob mhbj1111 echt ist, weiß ich nicht, doch ein Bot würde sicherlich mit Text gefüttert, der weniger Fehler enthält. Bliebe noch ein Spaßvogel, der etwas provozieren möchte oder so, doch so liest es sich die Fragestellung eigentlich auch nicht. Von MidnightDancer habe ich mal schnell die letzten Antworten durchgesehen, die er bisher so zum Besten gab, die lesen sich eigentlich ganz vernünftig und von webbastler bin ich nichts anderes gewohnt, wobei mir seine Antworten zunehmend besser gefallen.
webbastler hat geschrieben:Da sich die Google-Programmierung nicht geändert haben wird, sucht Google das wichtigen Schlüsselworte vorwiegend am Anfang der Seiten.
Deine Antwort trifft auf normale Webseiten zu, nicht auf die Einträge in eine XML-Sitemap. Führst Du eine XML-Sitemap und kennst Dich damit bestens aus?

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 24.02.2013, 14:02

Nein, wahrscheinlich nicht, kann aber die genaue Bezeichnung des Wortes nicht richtig deuten.

Ich habe 4 Hauptdomains mit einer klaren Ordnerstrucktur, immer in 2 Versionen.

Startseite,
1x
Katalogseiten,
Produktexposees,
Preisseiten.

und 6 x Nebenproduckte, die ebenfals wieder mit

Katalogseiten,
Produktexposees,
und Preisseiten funktionieren.

Auf der Startseite gibt es also nur Links zu den jeweiliegen Katalogen, und zu den Haupt-Nebenprodukten.

Außerdem Sonderangebote, wo einige mit Bild und Kurztext beschriebene Endprodukte, am Katalog vorbei, direkt auf das jeweilige Exposee verlinkt sind.

2 dieser Domains sind in reinem HtmL, nur mit einigen Skipten und Stylesheets. etwas der aktuellen Form angepasst.

Dann 2 Domains auf Html5-Basis mit php die dynamisch über einen Datenspeicher geladen werden.

Der Grundaufbau und die Ordnerstruckturen sind aber alle gleich.

Schreibe bei allen 4 noch den Quelltext selber.


Diese 4 Domains befinden sich schon seit ca. 12 Jahrem im Netz, und stehen mit dem Haupt-Keyword der titel auch alle, nach wie vor auf der Ersten Seite bei Google, 3 auch auf der Ersten Hälfte.

Kenne also noch das alte Googleimpressum das als Privatunternehmen für wahr angegeben wurde

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 24.02.2013, 14:15

PS.
Die Nebenprodukte sind über Unterordner ebenfalls als neue Indexseite wie die Startseite geordnet.

Die Hauptseite liegt auf einer Ebene, die Nebenprodukte auf der 2. Ebene.

Nur für Linkempfehlungen gehe ich bis zur 3. Ebene, und bei Portalen sogar noch auf die 4. in die Tiefe.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 24.02.2013, 14:41

webbastler hat geschrieben:Nein, wahrscheinlich nicht, kann aber die genaue Bezeichnung des Wortes nicht richtig deuten.
Nun gut, hier sind mal zwei Beispiele für eine XML Sitemap, die zweite benötig zum Laden eventuell einige Sekunden:

https://developer.mozilla.org/sitemap.xml
https://www.google.com/sitemap.xml

Und die Eingangsfrage war, falls echt, wie man zu so einer bestehenden Sitemap mit 32.000 Einträgen weitere 10.000 ohne die erwähnten Folgen hinzufügen könnte.

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 24.02.2013, 14:49

Danke für die Aufklärung!

Ich begreife anscheinend nur schleppent.
Verstehe den Sinn noch immer nicht.

bedeutet das Linkfarmengründungen ohne Abstufung?

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 24.02.2013, 14:57

webbastler hat geschrieben: Verstehe den Sinn noch immer nicht.

bedeutet das Linkfarmengründungen ohne Abstufung?
Nein, bei Deinen Projekten, wie von Dir beschrieben, wird ein Crawler auch so alle Seiten finden. Bei größeren Projekten soll aber so eine XML-Sitemap dem Crawler helfen, auch intern schlecht verlinkte Seiten in tieferen Ebenen zu finden.

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 24.02.2013, 15:34

Danke, habe jetzt begriffen, als mathematisch denkender ist ein chronologisches Ordnersystem für mich zu selbverständlich.

Bei willkürlichen ungeordneten Seiten ist eine sogenannte Sidemap natürlich zwingend anzuraten.

Vorallem die mathematisch programmierte Suchmaschine Google, kann die dann möglicherweise willkürliche Linkanordnung wegen fehlendem chronologischen Sinn nicht erkennen.

Zu meiner Zeit galt man nach 4 Wochen in der Endablage und Kellerassel - Dienst als diplomiert.


Danke, das ist nunmal der Zeitgeist.

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 24.02.2013, 16:08

Melegran, noch einmal vielen Dank für die Aufklärung!

Ich denke, ich kann mich jetzt konstruktiv zum Thema äußern.

Wenn also ein sogenanntes Ersatzordnungssystem namens Sitemap zur Chaosverhinderung nötig wird, bedarf aber auch dieses einer sauberen Standard-Verlinkung.

Das bedeutet:
1. Startseitenlink zur Sidemap,
Auflistung aller Html-Seiten,

2. auf diesen dann Backlinks zur Startseite und wenn möglich auch zu der vorhandenen sitemap.

Aber Google wird wahrscheinlich zur Akzeptanz der Seitenauflistung auf der sogenannten Sidemap, pro Link einen Textblock mit einem darin eingebundenen Linktextwort wünschen, oder diese mit Sicherheit höher bewerten.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag