Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

XML-SiteMap aufteilen / optimieren?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Stefan26
PostRank 4
PostRank 4
Beiträge: 104
Registriert: 02.05.2010, 23:41

Beitrag von Stefan26 » 29.07.2010, 17:50

Ich habe für mein Forum schon vor längerem eine SiteMap bei Google eingereicht. Die regelmäßig aktualisierte Version liegt im root-Verzeichnis bereit wo sie alle 24h vom Google-Bot abgerufen wird.

Lt. WMT habe ich ca. 35.000 URLs übermittelt, ~ 18.000 befänden sich im Web-Index und mittels site:domain.tld-Abfrage komme ich auf ~9.500; mittels robots.txt sind ca. 7.000 gesperrt (99% davon sind search.php?... und memberlist.php?...).

Wodurch kommt es zu diesen Differenzen z.B. zwischen übermittelten URLs und im Web-Index befindlichen? Sollte ich die SiteMap irgendwie aufteilen? Gibt es hier sonstige Optimierungsmöglichkeiten?

Vielen Dank!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 29.07.2010, 18:16

Stefan26 hat geschrieben: Wodurch kommt es zu diesen Differenzen z.B. zwischen übermittelten URLs und im Web-Index befindlichen? Sollte ich die SiteMap irgendwie aufteilen? Gibt es hier sonstige Optimierungsmöglichkeiten?
Die Menge dürfte für Google noch kein Problem sein, schau aber mal nach der Dateigröße. Ich nutze keine Sitemaps mehr, Google ist eine Suchmaschine. Wenn ich mich richtig erinnere, solltest Du sie aber ab 1 MB aufteilen (???).

Ich kenne Deine URL nicht, aber die Ursache Deines Problems findet sich sehr oft in einem Mangel an hinreichend starken Backlinks und auch Deeplinks. Es ist nicht so sehr die reine Menge der Backlinks. Was von schlecht verlinkten Domains kommt, kann Dir auch nichts weitergeben. Es sind in erster Linie die Links von selbst sehr gut verlinkten Domains, die dazu führen, dass Google Deine Site als "wichtig" erachtet, oder eher nicht so wichtig.

Wenn das Die Ursache sein sollte, lies dir das hier gründlich durch, BEVOR Du Dich an die Arbeit machst: https://www.abakus-internet-marketing.d ... undlag.htm

Gerade am Linkaufbau scheitern hier viele.

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 29.07.2010, 18:45

google hat geschrieben:Eine XML-Sitemap-Datei darf höchstens 50.000 URLs enthalten und in unkomprimiertem Zustand höchstens 10 MB groß sein.
;-)

Erstellen von XML-Sitemaps