Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Mein Beileid! Ich dachte, meine durchschnittlichen 50K auf einer Site wären schon viel. Hast Du den Wert aus den Webmastertools oder aus dem Log?profo hat geschrieben:Seit ein paar Wochen hab ich das Vergnügen, Google auf einer Site mit etwa 400K Crawler-Queries pro Tag (etwa 5 Queries / Sekunde) zu beobachten.
Das könnte an Caffeine liegen. Die neue Infrastruktur soll ja für schnelleres Erfassen neuer Inhalte sorgen. Wenn die Bots zu viele URLs bekommen, ist die Gefahr groß, dass sie an langsamen (bzw. defekten) Sites hängen bleiben. Durch ein detailiertes, zentral gesteuertes Scheduling kann Google seine Ressourcen effektiver einsetzen.A - streng kontrollierte Lastverteilung: Spannend finde ich jetzt, wie Google die Last verteilt. Logischerweise bekommt offenbar jeder Crawler seinen Satz an URLs zugeordnet. Es ist jetzt aber nicht so, dass der eine Crawler Adressen ab A und der andere Adressen ab M bearbeitet, sondern sie teilen sich in vielen Fällen die A's, gehen dann zu B über usw.
Manchmal sind solche Änderungen rein technischer Natur: Es wurde eine neue Infrastruktur eingeführt, damit wurde ein neues Entwicklerteam beauftragt und hat die Dinge einfach neu Entwickelt und sich selbstverständlich nicht bemüht, althergebrachte Verfahren beizubehalten.Heute ist es ganz klar alphabetisch. Das heißt jetzt aber nicht, dass grundsätzlich A vor B kommt, sondern nur, dass die aktuell gecrawlte Untermenge der URLs immer alphabetisch ist.
das bald die Freds kommenSloMo hat geschrieben:Die eigentlich wichtigen (variablen) Inhalte sind dynamische Unterseiten,
Wenn man nun alphabetisch sortiert,
bedeutet das ja