Das Problem hab ich nicht i.d.R. sind alle Seiten meiner Sitemap im Index. Ich hab dafür nen anderes Problem mit google . Trotz eigener Fehlerseite die in der .htaccess richtig eingetragen wird findet google 404 Seiten. Naja vielleicht kennt ja jemand ne Lösung zu beiden Problemen.
Grüße aus Weißenfels nach Naumburg (Weißenfels wäre die bessere Kreisstadt gewesen )
Das Problem kenn ich. Ne Sitemap fördert zwar das Crawlen der Seite jedoch führt es nicht zwangsläufig zur Aufnahme neuer Seiten in den Index.
Ich geh mal davon aus, dass deine Seiten auch tatächlich intern verlinkt sind (man weiss ja nie ...) Aber setzt einfach mal paar schöne Backlinks auf die jeweiligen Hauptrubriken mit den neuen Seiten. Deeplinks wirken in diesem Bereich Wunder
@ Fantastix: [quote="Ich geh mal davon aus, dass deine Seiten auch tatächlich intern verlinkt sind (man weiss ja nie ...) Aber setzt einfach mal paar schöne Backlinks auf die jeweiligen Hauptrubriken mit den neuen Seiten. Deeplinks wirken in diesem Bereich Wunder [/quote]
Meinst Du das mit dem Backlink setzten so, dass eine Unterseite, die intern verlinkt ist (<a href="beispiel.html"), einen (externen) Link (<a href="https://www.meine-homepage.com"> z. B. zur Startseite enthält???
Ich habe mir nämlich ein paar Quellcodes von Websites angeschaut die bei google platz 1 haben (keine Anzeigen). Da habe ich festgestellt, dass viele dieser Seiten Ihre Unterseiten extern verlinkt sind. Das schaut dann so aus:
>>> Da habe ich festgestellt, dass viele dieser
>>> Seiten Ihre Unterseiten extern verlinkt sind
ja sicher, wenn du deeplinks von aussen kriegen kannst ist das sehr gut
>>> Ne Sitemap fördert zwar das Crawlen der Seite
>>> jedoch führt es nicht zwangsläufig zur Aufnahme
>>> neuer Seiten in den Index.
stimmt, sogar auf keinen fall.
seiten, die etwa NUR auf einer sitemap gelistet sind, werden zwar gekrabbelt aber nicht indiziert! zur indizierung brauchst du in JEDEM fall einen link. das was auf der sitemap steht wird (logischerweise) NICHT als link sondern als listung verstanden (was es ja auch ist)
uzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]
Q
Wie sieht es denn dann aus wenn ich Google die Sitemap anbiete auf der lediglich die "letzten" Seiten stehen und die "Überseiten", also die Navigation zu den letzten Seiten, stehen nicht mit auf der Sitemap.
Also Google müsste als erstes die komplette Navigation per Bot abgrasen um zu schauen ob alle "letzten" Seiten der Sitemap verlinkt sind.
Ich kann Dir nicht direkt auf deine Frage antworten. Ich kann Dir nur sagen, das ich Seiten ohne Google Sitemap habe, die ständig aktuell im Cach stehen und Seiten mit Google Sitemap besessen habe, bei denen es irgendwie seit der Google Sitemap nicht wirklich klappen wollte.
Optimiere meine Seiten alle in dem selben Stil. Also jede Optimierung trägt meine Handschrift.
Ich bin zu dem Fazit gekommen, das ich gut und gerne auf die Google Sitemaps verzichten kann.
ich versuche, für ein mit VBSEO optimiertes vBulletin eine vernünftige g-sitemap zu generieren, aber das geht ständig in die Hose.
GSite von SOFTplus crawlt mir zuviel, z.B. jeden einzelnen Beitrag nooch einmal als extra html-Datei, dazu noch die verschiedenen Thread-Ansichten (hybrid/linear etc). Ich denke, wenn ich das Teil einriche, fliege ich wegen DC sofort aus dem Index.
VBSEO hat ja auch eine Sitemap genereiert, die geht bis zur ersten Forumebene.
Frage:
hilft es überhaupt bei der Indizierung, wenn ich zusätzlich eine g-Sitemap einreiche? Wenn ja, kannt jemand ein gutes Programm, mit dem ich eine solche Map erstellen kann?
Wenn man nach der Idee von Google-Sitemap geht, dann sollte es Sinn machen eine Sitemap bei denen einzureichen.
Ich kann jedoch nur auf meinen ersten Beitrag verweisen .... "seit Monaten eingereicht und nicht mehr Seiten als vorher indexiert" Was jedoch auch an mir liegen kann, da ich lediglich die "letzten Seiten" eingereicht habe und die "Navigation zu diesen Seiten" nicht mit erstellt habe.
Das habe ich nun nachgeholt und hoffe das es nun Besserung gibt und die letzten 300k Seiten nun auch indexiert werden.
Gute Progis sind relative, da diese ja die Sitemap aus Deiner DB erstellen müssen, nehme ich zumindest an, da ich Dein vBulletin nicht kenne.
Es ist sicher besser,selbt ein paar Zeilen zu proggen, dann kannste es so machen wie Du es willst und musst nicht ewig suchen.
Ich erstelle eine Mega-Sitemap von einem Forum; dort sind alle Thread-URLs enthalten, aber zusätzlich erhält jeder einzelne Beitrag auch noch eine URL (postN.html)
Insgesamt kommen so gut 20k URLs für die Sitemap zusammen.
Gugl indiziert sowieso teilweise die einzelnen Beiträge, die sind auch z.T. so schon im Index enthalten.
WIrd die Tante sauer, wenn ich jetzt diese Mega-Map einreiche??
wenn 2 URL`s den gleichen Inhalt/Content anzeigen, dann ist das DC und wird im günstigsten Fall nicht indexiert und im schlimmsten Fall fliegt die Domain.
Wenn alle Seiten schon indexiert sind dann brauchste im normalen Fall nicht nochmal einreichen, doch wird es auch nicht schaden.
Nur wenn Du damit DC erzeugst, dann solltest Du es lassen und gleichzeitig Dir Gedanken machen, wie das unterbindest. z.B. URL Design / mod_rewrite etc. Google wird es früher oder später "sehen" und die Konsequenz trägst Du.
Wenn Google sich an das halten würde Sie versprechen, dann wäre die Sitemap ne geile Geschichte, doch leider werden die Seiten nicht schneller indexiert (bei mir) und man könnte meinen das man es auch sein lassen kann.