Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Was soll ich da nur sagen?Wie auch immer, es wäre jedenfalls toll, wenn 1. der Googlebot mal wieder aktiver wird (kann mir nicht vorstellen, dass der Adsense Bot nun diese Aufgabe übernimmt) und 2. der Index wieder anteigt und zu guter Letzt, dass die Besucher dann auch wieder zuschlagen.
Wenn ich mir allerdings das hiesige Klagen anhöre und das mit meinen Beobachtungen vergleiche, ist zu vermuten, daß das so bleibt.
Denk doch an das Hantier mit Jagger... Das hat ebenfalls Wochen gedauert...oldInternetUser hat geschrieben:Und drei Wochen sind mir eine etwas zu lange Zeit, als daß ich denke, daß sich da noch allzuviel ändert.
Fragen:x-plosiv hat geschrieben:... ich habe einen onlineshop realtiv neu (ca. 7monate). ... seit gut einer woche habe ich noch genau 1 seite im index...und das ist nicht einmal die haupseite/starseite sondern ein einzelner artikel.
Das ist bei mir genauso. Ob da die eine Suchmaschine von der anderen abgeschaut hat?x-plosiv hat geschrieben:noch schlimmer ist, dass ich das selbe nun auch bei MSN feststelle....was geht da ab? ich hoffe mal ihr habt recht und das kommt wieder...aber das MSN auch gleich mitmacht ist schon komisch.
Die Seite die bei mir betroffen ist, hat 400 Seiten, ist über ein Jahr alt und hat auch verschiedene Title, metatags etc.ich weis nicht warum so etwas phänomenisiert wird.
Solange man mehrere Seiten mit dem gleichem "title" hat wird es eng werden
- und das ist so bei vielen Shops.
und mal ehrlich, ich habe einen Shop gemacht vier Artikel reingesetzt und die Seite vergessen. Nach einigen Wochen bei Google nachgeguckt - 750 Seiten. Was zum Teufel hat er da gefunden. Nach fünf Wochen waren es wieder nur noch um die dreizig Seiten drin - zu recht.
Ressourcen sparen kann man intern (Speicherplatz, Server, Rechenleistung) oder extern (Bandbreite), wobei das eine Sparziel dem anderen entgegenläuft (mir ist klar, dass diese Trennung nicht 100%-ig zu ziehen ist, aber prinzipiell hauts hin). Will sagen: Brauche ich einige Server für internen Quatsch und damit meine Entwickler was zum spielen haben, muss ich u.U. anschließend oder zwischendurch den Bot fressen schicken um den Datenbestand wieder aktuell zu halten. Also nicht unbedingt ein Widerspruch. Zumal diese Beobachtung (Wiederholtes, scheinbar sinnfreies Grasen des Bots) ja um jedes "Googlebeben" herum gemacht werden konnte...oldInternetUser hat geschrieben:Seit drei Wochen habe ich durchgehend ein Verhältnis von etwa 4:1, google produziert 400 Hits und holt sich etwa 100 Dateien, jede Datei wird im Schnitt viermal pro Tag überprüft, fast immer gibt es 304 (die tatsächlichen Zahlen sind natürlich andere). Ferner wird nicht auf jede Datei viermal, sondern zwischen zwei und achtmal zugegriffen. Die Gesamtzahl der geholten Einzelseiten hat sich nur unwesentlich verändert.
Wenn also google Ressourcen sparen wollte, könnte er das seit drei Wochen bei mir machen.