Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sitemaps auch "ueberlastet"?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Tifflor
PostRank 5
PostRank 5
Beiträge: 281
Registriert: 07.10.2005, 09:05

Beitrag von Tifflor » 16.06.2006, 07:37

Hi,

abgesehen vom wohl immer noch existierenden Problem der Indizierung (meine seite ist inzwischen auf grade noch 27 Eintraege angelangt) habe ich dann mal Sitemaps angemeldet um zu schauen ob das was bringt.
Ich nutze dafuer den GSitecrawler.
Sitemaps Datei hochgeladen, wurde auch akzeptiert, soweit alles in Order. Nur mal zum einen, einige Leute meinen Ihre Sitemap wird 2mal am Tag runtergeladen, bei mir wars alle 2 tage, soweit aber erstmal nicht so schlimm...
Dann erfolgte ein kleines Redesign der Seite (einige seiten raus) und auch die sitemaps datei habe ich aktualisiert. Google zog sie sich (alle 2 tage)
behauptete dann aber zuletzt am 10.06. es wuerden sich 404er in der SItemap befinden (worauf sich google bezog waren aber seiten aus der alten sitemap die ja schon locker 3 wochen nicht mehr existierte)
status stand jetzt die ganzen tage auf: zuletzt heruntergeladen am 10.06. (wann google ja auch den fehler anmerkte) und seit heute morgen steht da ploetzlich : zuletzt heruntergeladen : -
status : ausstehend

haeh ? was soll das denn jetzt ? Will google dass ich erst den nicht existierenden fehler behebe ?
hat jemand noch aehnliches (traeges verhalten) bei google sitemaps festgestellt?

wann ist der ganze schlotz mal vorbei mit dem index ? ich meine heute nacht hatte ich auch wieder einen deepcrawl des Googlebots, so wie fast jeden tag ;-) aber der index sinkt und sinkt...

gruss

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

pip
PostRank 6
PostRank 6
Beiträge: 465
Registriert: 24.10.2005, 11:59

Beitrag von pip » 16.06.2006, 14:38

habe ein ähnliches problem. angeblich 100% HTTP-Fehler, obwohl die Seite komplett indiziert, und accessible (w3-validiert) ist. Es steht seit wochen 100% HTTP-Fehler und PR noch nicht zugewiesen da.

Hat jemand ähnliche erfahrungen oder Lösungen?

Gunda
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 24.04.2005, 21:22
Wohnort: Frankfurt

Beitrag von Gunda » 16.06.2006, 14:57

Tifflor hat geschrieben:Hi,

abgesehen vom wohl immer noch existierenden Problem der Indizierung (meine seite ist inzwischen auf grade noch 27 Eintraege angelangt) habe ich dann mal Sitemaps angemeldet um zu schauen ob das was bringt.
Ich nutze dafuer den GSitecrawler.
Sitemaps Datei hochgeladen, wurde auch akzeptiert, soweit alles in Order. Nur mal zum einen, einige Leute meinen Ihre Sitemap wird 2mal am Tag runtergeladen, bei mir wars alle 2 tage, soweit aber erstmal nicht so schlimm...
Dann erfolgte ein kleines Redesign der Seite (einige seiten raus) und auch die sitemaps datei habe ich aktualisiert. Google zog sie sich (alle 2 tage)
behauptete dann aber zuletzt am 10.06. es wuerden sich 404er in der SItemap befinden (worauf sich google bezog waren aber seiten aus der alten sitemap die ja schon locker 3 wochen nicht mehr existierte)
status stand jetzt die ganzen tage auf: zuletzt heruntergeladen am 10.06. (wann google ja auch den fehler anmerkte) und seit heute morgen steht da ploetzlich : zuletzt heruntergeladen : -
status : ausstehend

haeh ? was soll das denn jetzt ? Will google dass ich erst den nicht existierenden fehler behebe ?
hat jemand noch aehnliches (traeges verhalten) bei google sitemaps festgestellt?

wann ist der ganze schlotz mal vorbei mit dem index ? ich meine heute nacht hatte ich auch wieder einen deepcrawl des Googlebots, so wie fast jeden tag ;-) aber der index sinkt und sinkt...

gruss
hi tifflor, du bist nicht allein...Ich hab genau das gleiche Problem :wink:

lg gunda
Linkpartner für www.lyrics.de gesucht

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 28.06.2006, 12:56

Die Aktivität von Google hängt von der Aktualisierungsrate der Sitemap ab. Wenn man die Sitemap täglich aktualisiert, kommt Google auch täglich vorbei. (Ansonsten nicht) 404-Fehler in der Sitemap sind für Google kein Grund, sie nicht mehr runterzuladen.

Davon abgesehen, scheint es zur Zeit ein paar technische Probleme mit dem ganzen Sitemap-Dienst zu geben, das geht aber sicherlich vorbei.

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 28.06.2006, 13:32

seit heute Nacht hat eine Domain 10.100 Seiten im Index,

bei einer Kontrolle erkannte ich, die habe ich wirklich alle, und kein DC ist dabei,


Sitemap wurde vor drei Stunden erfolgreich heruntergeladen, die letzte Änderung-neuer Artikel- gab es heute Nacht irgendwann.

ich hatte http Fehler und fand die Lösung dafür in den Error Logs,

ich filtere Spam so wie Hunderttausend andere auch,
dies ist sogenannter Trackbackspam, (eine eigne Technik)
da der Bot diese Trackbacks dann nicht mehr fand, gab es logischerweise aufgrund dieser Technik http Fehler,

seitdem der Bot die dafür zuständige Datei nicht mehr spidern darf, habe ich keinen einzigen Fehler, wenn ich bei der Sitemap von G nachschauen geh.

darauf hatte ich einfach vergessen als ich diese Antispamdatei installierte ..
war also meine Schuld und nicht die des Bots.


(achja und die Serps -- momentan liebe ich sie--wer weiß wielange ;) )

lg

Dendemann
PostRank 2
PostRank 2
Beiträge: 51
Registriert: 20.05.2006, 21:50
Wohnort: Möringen

Beitrag von Dendemann » 28.06.2006, 14:44

Ich habe für die verschiedenen Bereiche meienr Website auch verschiedene Sitemaps angelegt, die ich einzeln angemeldet habe, um zu sehen, wann Google welche zieht. Vorher hatte ich eine Sitemap-Indexdatei. Aber nur kurz für vielleicht 5 Stunden oder so. Das war vor einer Woche. Google versucht noch heute, die Dateien, die in der Indexdatei standen, zu holen. Stört mich aber nicht weiter.

Im Regelfall holt Google die neuen Sitemaps ein bis zweimal am Tag. Nicht umsonst kann man Google anpingen, wenn es eine neue Sitemap gibt. Das geht ganz fix in PHP über

Code: Alles auswählen

@fopen('http://www.google.com/webmasters/sitemaps/ping?sitemap=...','r');
(... = urlencode('https://example.com/sitemap.xml.gz'); )

Die 404er, die Google im Diagnose-Tab meldet, beziehen sich *nicht* nur auf die URLs aus der Sitemap. Das steht auch ausdrücklich drüber. Die gemeldeten 404er beziehen sich auf *alle* Crawler-Anfragen von Google. Ob die URLs in der Sitemap später 404er erzeugen, interessiert Google beim Runterladen der Sitemap nicht um Geringsten.

Im Endeffekt kommt der Googlebot pro Woche gut 1100 mal bei mir vorbei, im letzten Monat bin ich von 32 auf gut 650 Seiten gestiegen. Allzuviele Backlinks habe ich nicht, hauptsächlich Google-SERPs und dmoz-Clones.
https://klassenfeind.org

Suche keine Linkpartner, sondern lesenswerte Blogs ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag