Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 19.04.2006, 19:34

mark007,

kein Adsense. Aber dafür ca. 5000 statische HMTL Seiten. Ca. 1 monatlich geändert.
Was ich bemerkt habe ist, das die Besucher über 3 bis 4 PHP Seiten mit wechselnden Kontent kommen ( DB gestützt ). Das Verhalten war vor ca 3 Wochen schon mal zu sehen. Kaum Seiten im Index und die PHP Seiten schossen nach oben. Irgendsowas wie ein "die Seite ist sehr aktuell" Filter dingen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 19.04.2006, 20:50

Wenn ich nicht wüßte das ich keine Ahnung habe würde ich sagen das sieht aus wie eine schrittweise Wiederauferstehung des Vorbigdaddy-Indexes.... 0X

mark007q
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 11.09.2005, 15:43
Wohnort: Bochum

Beitrag von mark007q » 19.04.2006, 21:57

Wie auch immer, es wäre jedenfalls toll, wenn 1. der Googlebot mal wieder aktiver wird (kann mir nicht vorstellen, dass der Adsense Bot nun diese Aufgabe übernimmt) und 2. der Index wieder anteigt und zu guter Letzt, dass die Besucher dann auch wieder zuschlagen.

Wenigstens kommen derzeit bei mir über Yahoo ungeahnte Mengen an Besuchern. Naja, der Bot ist ja schon immer deutlich aktiber gewesen.

Google sollte sich nicht auf den besagten Beeren ausruhen, sondern mal wieder Gas geben 0X

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 19.04.2006, 22:15

Wie auch immer, es wäre jedenfalls toll, wenn 1. der Googlebot mal wieder aktiver wird (kann mir nicht vorstellen, dass der Adsense Bot nun diese Aufgabe übernimmt) und 2. der Index wieder anteigt und zu guter Letzt, dass die Besucher dann auch wieder zuschlagen.
Was soll ich da nur sagen?

1. google spidert bei mir seit der Umstellung auf den Mozilla so viel wie noch niemals zuvor.
2. In meinen Bereichen habe ich kaum verkleinerte Indices.
3. So viele Besucher wie heute hatte ich noch nie - und das, obwohl noch Ferien sind.

Wenn ich mir allerdings das hiesige Klagen anhöre und das mit meinen Beobachtungen vergleiche, ist zu vermuten, daß das so bleibt.

x-plosiv
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 13.09.2005, 18:52
Wohnort: Basel/Bottmingen

Beitrag von x-plosiv » 19.04.2006, 22:25

Wenn ich mir allerdings das hiesige Klagen anhöre und das mit meinen Beobachtungen vergleiche, ist zu vermuten, daß das so bleibt.

ich ja mal hoffen du hast nicht recht. denke auch dass du nicht recht hast, denn ich kann dieses phänomen bei 3 domains von mir/kunden feststellen. habe aber auch domains die davon nicht betroffen sind. auch schwanken bei mir die pr3 in der google toolbar wieder wie sie wollen hin und her. neue seiten haben einen hören pr als hauptseite und und und. und ich mir das so richtig überlege, stellen wir ja seit ca. februar 06 immer wieder solch komische sachen fest. komischer weise spidert der google bot von adsense auch seit februar......könnte das ev. einen zusammenhang geben. richt einwenig schwer danach.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 19.04.2006, 22:51

Daß der Mozilla-Bot statt des alten spidert, ist nun genau drei Wochen so:

Siehe https://www.abakus-internet-marketing.d ... ight-.html

Und drei Wochen sind mir eine etwas zu lange Zeit, als daß ich denke, daß sich da noch allzuviel ändert.

Abgesehen davon: Seit diesem Zeitpunkt vor drei Wochen habe ich niemals mehr gegen 00:00 FreshTags gesehen. Früher tauchte dieses Phänomen vielleicht alle zwei Wochen auf. Es sieht danach aus, als ob google Berechnungen, die früher in größeren Abständen durchgeführt wurden, nun täglich erledigt.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.04.2006, 23:53

oldInternetUser hat geschrieben:Und drei Wochen sind mir eine etwas zu lange Zeit, als daß ich denke, daß sich da noch allzuviel ändert.
Denk doch an das Hantier mit Jagger... Das hat ebenfalls Wochen gedauert...

Fuer mich ist BigDaddy noch nicht durch... Einfach zuviele Inkonsistenzen im Index...

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 20.04.2006, 00:12

Annahme:

Google führt gerade große interne Unstrukturierungen durch, die (vorübergehend) sehr viel Kapazität brauchen. Wo würdet ihr denn an Power sparen, wenn ihr nicht wollt, dass die User das merken?

Ich würde bevorzugt neuere Seiten nicht indexieren, da die ja (noch) niemand ausser dem der sie gemacht hat im Index vermisst. Alte, eingeführte Seiten (Authorities) werden nach wie vor gespidert, denn Google hat ja erwiesenermaßen für den Normaluser so eine Art Favoritenleistenfunktion, hier würden fehlende Seiten sehr schnell sehr vielen Usern auffallen :wink:

Seiten die sich irgendwo im Mittelfeld befinden, leiden unter einem gewissen Cacheschwund (wie meine :cry: ), seltsamerweise sind aber hier gerade die Hauptkeys nicht betroffen. Es wird scheinbar versucht, das weitestgehend unauffällig zu machen.

Ich gebe Chris recht, das ist noch nicht fertiggekocht...

Und Tee kann ich auch nicht mehr sehen, aber was solls...

Grüsse :D

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 20.04.2006, 08:47

Naja es sind genau wie vor BigD alle meine Seiten im Index nur mit der Zählweise... :lol:
Also meine Domain hat mindestens drei Unterkategorien die jeweils allein angeblich mehr Seiten im Index haben als die Domain beim Zusammenzählen insgesamt- so war das vor Big Daddy auch.
Also abwarten.

web_worker
PostRank 8
PostRank 8
Beiträge: 893
Registriert: 12.12.2005, 13:00
Wohnort: Karlsruhe

Beitrag von web_worker » 20.04.2006, 10:02

hatte heute über nacht bei einem projekt nochmal eine halbierung der seiten im index- halbwertszeiten von nicht mal einer woche :o - wenn das so weitergeht versucht google in ein paar tagen die letzte verbliebene seite im index zu spalten und mir halbe seiten zu präsentieren :-)

naja, wird schon wieder. kann ich die vorhalle des projektes mal richtig durchwischen, läuft ja kaum noch jemand durch derzeit...

gruß,
w_w

Gastro
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 25.05.2005, 12:26

Beitrag von Gastro » 20.04.2006, 10:52

Hallo!
ich weis nicht warum so etwas phänomenisiert wird.
Solange man mehrere Seiten mit dem gleichem "title" hat wird es eng werden
- und das ist so bei vielen Shops.
und mal ehrlich, ich habe einen Shop gemacht vier Artikel reingesetzt und die Seite vergessen. Nach einigen Wochen bei Google nachgeguckt - 750 Seiten. Was zum Teufel hat er da gefunden. Nach fünf Wochen waren es wieder nur noch um die dreizig Seiten drin - zu recht.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 20.04.2006, 10:57

@Gurgelboot: Theoretisch kann ich deiner Vermutung zustimmen.

Praktisch gibt es das folgende Problem:

Der alte GoogleBot hat bei mir täglich mit x Zugriffen y Dateien geholt, wobei x:y fast gleich 1:1 war: Mit 102 Zugriffen wurden 100 verschiedene Dateien geholt.

Seit drei Wochen habe ich durchgehend ein Verhältnis von etwa 4:1, google produziert 400 Hits und holt sich etwa 100 Dateien, jede Datei wird im Schnitt viermal pro Tag überprüft, fast immer gibt es 304 (die tatsächlichen Zahlen sind natürlich andere). Ferner wird nicht auf jede Datei viermal, sondern zwischen zwei und achtmal zugegriffen. Die Gesamtzahl der geholten Einzelseiten hat sich nur unwesentlich verändert.

Wenn also google Ressourcen sparen wollte, könnte er das seit drei Wochen bei mir machen.

Den schwankenden Zahlen im Index messe ich keine große Bedeutung zu. Aber wenn google früher sehr viel auf einzelnen Domains war und jetzt seit drei Wochen kaum mehr kommt, dann finde ich das - kombiniert mit meinen Beobachtungen - dramatisch und mit inzwischen drei Wochen 'zu lang'.

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 20.04.2006, 11:29

x-plosiv hat geschrieben:... ich habe einen onlineshop realtiv neu (ca. 7monate). ... seit gut einer woche habe ich noch genau 1 seite im index...und das ist nicht einmal die haupseite/starseite sondern ein einzelner artikel.
Fragen:
Ist der Shop von anderen Seiten verlinkt?
Ist die eine Seite eine "statische" URL ohne Parameter (sowas wie www.dom.de/meine/statische/seite.hmt)
Ist diese eine Seite von außen verlinkt?
x-plosiv hat geschrieben:noch schlimmer ist, dass ich das selbe nun auch bei MSN feststelle....was geht da ab? ich hoffe mal ihr habt recht und das kommt wieder...aber das MSN auch gleich mitmacht ist schon komisch.
Das ist bei mir genauso. Ob da die eine Suchmaschine von der anderen abgeschaut hat?

Vodka, Georgi

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 20.04.2006, 12:11

ich weis nicht warum so etwas phänomenisiert wird.
Solange man mehrere Seiten mit dem gleichem "title" hat wird es eng werden
- und das ist so bei vielen Shops.
und mal ehrlich, ich habe einen Shop gemacht vier Artikel reingesetzt und die Seite vergessen. Nach einigen Wochen bei Google nachgeguckt - 750 Seiten. Was zum Teufel hat er da gefunden. Nach fünf Wochen waren es wieder nur noch um die dreizig Seiten drin - zu recht.
Die Seite die bei mir betroffen ist, hat 400 Seiten, ist über ein Jahr alt und hat auch verschiedene Title, metatags etc.
Alle zwei Tage werden es weniger Seiten. Man kann mittlerweile auch nachschauen welche rausfallen da die auch den Cache verlieren.

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 20.04.2006, 12:44

oldInternetUser hat geschrieben:Seit drei Wochen habe ich durchgehend ein Verhältnis von etwa 4:1, google produziert 400 Hits und holt sich etwa 100 Dateien, jede Datei wird im Schnitt viermal pro Tag überprüft, fast immer gibt es 304 (die tatsächlichen Zahlen sind natürlich andere). Ferner wird nicht auf jede Datei viermal, sondern zwischen zwei und achtmal zugegriffen. Die Gesamtzahl der geholten Einzelseiten hat sich nur unwesentlich verändert.

Wenn also google Ressourcen sparen wollte, könnte er das seit drei Wochen bei mir machen.
Ressourcen sparen kann man intern (Speicherplatz, Server, Rechenleistung) oder extern (Bandbreite), wobei das eine Sparziel dem anderen entgegenläuft (mir ist klar, dass diese Trennung nicht 100%-ig zu ziehen ist, aber prinzipiell hauts hin). Will sagen: Brauche ich einige Server für internen Quatsch und damit meine Entwickler was zum spielen haben, muss ich u.U. anschließend oder zwischendurch den Bot fressen schicken um den Datenbestand wieder aktuell zu halten. Also nicht unbedingt ein Widerspruch. Zumal diese Beobachtung (Wiederholtes, scheinbar sinnfreies Grasen des Bots) ja um jedes "Googlebeben" herum gemacht werden konnte...

*Nochmal_ne_Kanne_Tee_koch* :puppydogeyes:


Naja, wahrscheinlich eh alles daneben spekuliert, und die Googleguys lachen sich gerade in der Kantine über diesen Thread kaputt...

Grüsse :D

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag