Seite 1 von 1

Sitemaps auch "ueberlastet"?

Verfasst: 16.06.2006, 07:37
von Tifflor
Hi,

abgesehen vom wohl immer noch existierenden Problem der Indizierung (meine seite ist inzwischen auf grade noch 27 Eintraege angelangt) habe ich dann mal Sitemaps angemeldet um zu schauen ob das was bringt.
Ich nutze dafuer den GSitecrawler.
Sitemaps Datei hochgeladen, wurde auch akzeptiert, soweit alles in Order. Nur mal zum einen, einige Leute meinen Ihre Sitemap wird 2mal am Tag runtergeladen, bei mir wars alle 2 tage, soweit aber erstmal nicht so schlimm...
Dann erfolgte ein kleines Redesign der Seite (einige seiten raus) und auch die sitemaps datei habe ich aktualisiert. Google zog sie sich (alle 2 tage)
behauptete dann aber zuletzt am 10.06. es wuerden sich 404er in der SItemap befinden (worauf sich google bezog waren aber seiten aus der alten sitemap die ja schon locker 3 wochen nicht mehr existierte)
status stand jetzt die ganzen tage auf: zuletzt heruntergeladen am 10.06. (wann google ja auch den fehler anmerkte) und seit heute morgen steht da ploetzlich : zuletzt heruntergeladen : -
status : ausstehend

haeh ? was soll das denn jetzt ? Will google dass ich erst den nicht existierenden fehler behebe ?
hat jemand noch aehnliches (traeges verhalten) bei google sitemaps festgestellt?

wann ist der ganze schlotz mal vorbei mit dem index ? ich meine heute nacht hatte ich auch wieder einen deepcrawl des Googlebots, so wie fast jeden tag ;-) aber der index sinkt und sinkt...

gruss

Verfasst:
von

Verfasst: 16.06.2006, 14:38
von pip
habe ein ähnliches problem. angeblich 100% HTTP-Fehler, obwohl die Seite komplett indiziert, und accessible (w3-validiert) ist. Es steht seit wochen 100% HTTP-Fehler und PR noch nicht zugewiesen da.

Hat jemand ähnliche erfahrungen oder Lösungen?

Re: Sitemaps auch "ueberlastet"?

Verfasst: 16.06.2006, 14:57
von Gunda
Tifflor hat geschrieben:Hi,

abgesehen vom wohl immer noch existierenden Problem der Indizierung (meine seite ist inzwischen auf grade noch 27 Eintraege angelangt) habe ich dann mal Sitemaps angemeldet um zu schauen ob das was bringt.
Ich nutze dafuer den GSitecrawler.
Sitemaps Datei hochgeladen, wurde auch akzeptiert, soweit alles in Order. Nur mal zum einen, einige Leute meinen Ihre Sitemap wird 2mal am Tag runtergeladen, bei mir wars alle 2 tage, soweit aber erstmal nicht so schlimm...
Dann erfolgte ein kleines Redesign der Seite (einige seiten raus) und auch die sitemaps datei habe ich aktualisiert. Google zog sie sich (alle 2 tage)
behauptete dann aber zuletzt am 10.06. es wuerden sich 404er in der SItemap befinden (worauf sich google bezog waren aber seiten aus der alten sitemap die ja schon locker 3 wochen nicht mehr existierte)
status stand jetzt die ganzen tage auf: zuletzt heruntergeladen am 10.06. (wann google ja auch den fehler anmerkte) und seit heute morgen steht da ploetzlich : zuletzt heruntergeladen : -
status : ausstehend

haeh ? was soll das denn jetzt ? Will google dass ich erst den nicht existierenden fehler behebe ?
hat jemand noch aehnliches (traeges verhalten) bei google sitemaps festgestellt?

wann ist der ganze schlotz mal vorbei mit dem index ? ich meine heute nacht hatte ich auch wieder einen deepcrawl des Googlebots, so wie fast jeden tag ;-) aber der index sinkt und sinkt...

gruss
hi tifflor, du bist nicht allein...Ich hab genau das gleiche Problem :wink:

lg gunda

Verfasst:
von

Verfasst: 28.06.2006, 12:56
von Christophe
Die Aktivität von Google hängt von der Aktualisierungsrate der Sitemap ab. Wenn man die Sitemap täglich aktualisiert, kommt Google auch täglich vorbei. (Ansonsten nicht) 404-Fehler in der Sitemap sind für Google kein Grund, sie nicht mehr runterzuladen.

Davon abgesehen, scheint es zur Zeit ein paar technische Probleme mit dem ganzen Sitemap-Dienst zu geben, das geht aber sicherlich vorbei.

Verfasst: 28.06.2006, 13:32
von MonikaTS
seit heute Nacht hat eine Domain 10.100 Seiten im Index,

bei einer Kontrolle erkannte ich, die habe ich wirklich alle, und kein DC ist dabei,


Sitemap wurde vor drei Stunden erfolgreich heruntergeladen, die letzte Änderung-neuer Artikel- gab es heute Nacht irgendwann.

ich hatte http Fehler und fand die Lösung dafür in den Error Logs,

ich filtere Spam so wie Hunderttausend andere auch,
dies ist sogenannter Trackbackspam, (eine eigne Technik)
da der Bot diese Trackbacks dann nicht mehr fand, gab es logischerweise aufgrund dieser Technik http Fehler,

seitdem der Bot die dafür zuständige Datei nicht mehr spidern darf, habe ich keinen einzigen Fehler, wenn ich bei der Sitemap von G nachschauen geh.

darauf hatte ich einfach vergessen als ich diese Antispamdatei installierte ..
war also meine Schuld und nicht die des Bots.


(achja und die Serps -- momentan liebe ich sie--wer weiß wielange ;) )

lg

Verfasst: 28.06.2006, 14:44
von Dendemann
Ich habe für die verschiedenen Bereiche meienr Website auch verschiedene Sitemaps angelegt, die ich einzeln angemeldet habe, um zu sehen, wann Google welche zieht. Vorher hatte ich eine Sitemap-Indexdatei. Aber nur kurz für vielleicht 5 Stunden oder so. Das war vor einer Woche. Google versucht noch heute, die Dateien, die in der Indexdatei standen, zu holen. Stört mich aber nicht weiter.

Im Regelfall holt Google die neuen Sitemaps ein bis zweimal am Tag. Nicht umsonst kann man Google anpingen, wenn es eine neue Sitemap gibt. Das geht ganz fix in PHP über

Code: Alles auswählen

@fopen('http://www.google.com/webmasters/sitemaps/ping?sitemap=...','r');
(... = urlencode('https://example.com/sitemap.xml.gz'); )

Die 404er, die Google im Diagnose-Tab meldet, beziehen sich *nicht* nur auf die URLs aus der Sitemap. Das steht auch ausdrücklich drüber. Die gemeldeten 404er beziehen sich auf *alle* Crawler-Anfragen von Google. Ob die URLs in der Sitemap später 404er erzeugen, interessiert Google beim Runterladen der Sitemap nicht um Geringsten.

Im Endeffekt kommt der Googlebot pro Woche gut 1100 mal bei mir vorbei, im letzten Monat bin ich von 32 auf gut 650 Seiten gestiegen. Allzuviele Backlinks habe ich nicht, hauptsächlich Google-SERPs und dmoz-Clones.