Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
dexter
PostRank 4
PostRank 4
Beiträge: 108
Registriert: 11.11.2004, 15:53
Wohnort: ennepetal

Beitrag von dexter » 05.05.2006, 10:28

evtl. eine positive nachricht:

die talsohle scheint bei einer meiner sites durchschritten. maximalverlust rund 85% der mitte märz indexierten seiten vor etwa vier tagen, seitdem geht es wieder aufwärts -- langsam und unstetig. neue inhalte werden übernommen, machen aber interessanterweise nur ca 10% der "wiedergewonnenen" seiten aus. der google-traffic erholt sich annähernd linear zur anzahl indexierter seiten -- gefühlt, zu früh für harte stats.

michael

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 05.05.2006, 11:29

dexter hat geschrieben:evtl. eine positive nachricht:

die talsohle scheint bei einer meiner sites durchschritten. maximalverlust rund 85% der mitte märz indexierten seiten vor etwa vier tagen, seitdem geht es wieder aufwärts -- langsam und unstetig. neue inhalte werden übernommen, machen aber interessanterweise nur ca 10% der "wiedergewonnenen" seiten aus. der google-traffic erholt sich annähernd linear zur anzahl indexierter seiten -- gefühlt, zu früh für harte stats.

michael
na da bist du aber der wohl der einzige. Bei mir tut sich nischt. Hunderte von alten nicht mehr vorhandenen Seiten im Index. Keine neuen Seiten werden aufgenommen. Referers von google momentan mit nem fetten Minus. Schätzung 3% der ehemaligen Refs.
Hab allerdings eine Seite gefunden, die nicht ein einzige Problem hat. Über 12.000 Seiten im Index. Davon ca. 8000 nur Produktseiten mit bestimmt 90% gleichen Inhalt. IMmer in den Top Ten und sehr stabil. Das gibt mir wieder Hoffnung, dass es bald wieder aufwärts geht.

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 05.05.2006, 12:25

MeNoZony hat geschrieben:Mal im ernst: eineinhalb Milliarden für Hardware? In nur zwölf Monaten? Welche Lagerhallen sollen da mit Neunzehn-Zöllern vollgepflastert werden?
Es gibt Schätzungen, die gehen von bis zu einer Millionen (!) Servern aus. Und gerade Anwendungen wie Google Video oder das kommende Google Drive verbrauchen massiv Speicher und Rechenleistung.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 05.05.2006, 12:32

vielleicht suchen die ja bei einer solchen masse noch putzfrauen, kennt wer eine die man bei google einschmuggeln kann ? *g* :P

Clemens81
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 15.04.2006, 16:32

Beitrag von Clemens81 » 05.05.2006, 12:40

Meine neuen Links wurden ja vor ein bis zwei Wochen übernommen. Zwar nur geschätzte magere 20% bis 30% davon, aber immerhin. Die ganzen Alten Links waren auf 10 Stück reduziert worden. Von vorher ca. 2000 ... jetzt sind wieder ein paar Alte reingeschwemmt worden, die teilweise auf dem Stand von ein bis zwei Jahren sind.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 05.05.2006, 14:16

Hüpfstock-Google: eine Domain innerhalb der letzten 30 Tage
17000
84000
35000
18000
1200
17000
Lachnummer. :crazyeyes:

Clemens81
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 15.04.2006, 16:32

Beitrag von Clemens81 » 05.05.2006, 15:41

So krass sind die Hüpfereien bei mir nicht. Die hat irgendwann angefangen abzubauen und pendelt jetzt immer zwischen 16000 und 18000. Hatte aber mehr als das Doppelte vorher.

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 05.05.2006, 19:21

So nun hat Matt the law Cutts was zu den fehlenden Seiten gesagt:
https://www.mattcutts.com/blog/snuffle- ... /#comments

Wenn man es liest, bekommt man es mit der Angst zu tun.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 05.05.2006, 19:37

Ich schmeiß mich wech.

Einige der 'betroffenen Seiten' haben einen Penalty - und ansonsten gilt:
There will be cases where Bigdaddy has different crawl priorities, so that could partly account for things.
Tja, das ist dann eben doch größtenteils die 'neue Realität'.

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 05.05.2006, 19:45

Vor allem weil es so toll erklärt, warum die ganzen Seiten aus dem Index geflogen sind. Ich habe eine Seite gefunden die 12000 Seiten nur mit Produkten hat. Simpelst gestrickt, vielleicht ein Satz + Link + Preis + Bild. Fast immer unter den Top Ten. Content rules? Ich weiss nicht.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 05.05.2006, 19:48

Der Blog Post von MC erklaert auch nicht, warum einige Seiten ploetzlich wiederkommen...

Alles "Schwachsinn". Sorry ... Die haben zuviel am DC bzw. Supplemental Filter rumgeschraubt u haben jetzt das Problem das langsam wieder zurueckzudrehen. Dass das natuerlich nicht offiziell zugegeben wird ist doch klar.

Clemens81
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 15.04.2006, 16:32

Beitrag von Clemens81 » 05.05.2006, 20:04

Hmm... ich finde die Erklärung relativ unzufriedenstellend.
Penalty z.B. kommt bei mir gar nicht in Frage, da ich noch nie Backlinks gekauft oder getauscht habe, wenn es nicht auch etwas mit dem Thema zu tun hatte. Alles worauf ich mich beschränkte war, Google die Arbeit zu erleichtern indem ich die Keywords klarer rausstellte.
Differen Crawl Prioties... erklärt für mich gar nichts, da ich keine Abnahme beim Crawling merke, sondern lediglich eine Abnahme der Seiten.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 05.05.2006, 20:11

Google crawl und crawl und crawl und nix passiert im Index... Da stimmt doch irgendwas nicht ...

web_worker
PostRank 8
PostRank 8
Beiträge: 893
Registriert: 12.12.2005, 13:00
Wohnort: Karlsruhe

Beitrag von web_worker » 05.05.2006, 20:23

dexter hat geschrieben:die talsohle scheint bei einer meiner sites durchschritten.
ich gebe dir recht. heute ist irgendwas passiert. seit langem eigentlich nur talfahrt, nur seiten raus - tag für tag - kein einziger zuwachs. heute auf einmal haben sich die besucher verdreifacht und es ist ein 20%er anstieg meiner seiten im index zu verzeichnen.

hoffentlich hält das an... das würde zum wetter passen *g*

gruß und sonniges wochenende,
w_w

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 05.05.2006, 20:34

Es könnte zwei Effekte geben: Zum einen dürfte die gesamte PR-Architektur neu berechnet worden sein, das könnte bei einigen Domains zur Abschwächung oder zum Verlust von Links, damit zu einem schwächeren Crawlen gekommen sein. Sind auf den rausfallenden Seiten Links, dann hat das natürlich wieder Folgeeffekte für die Linkziele, die auch schwächer werden.

Zum anderen könnte es sein, daß google Inhalte, die sich relativ stark ändern (Forenbeiträge), erst einmal mehrfach spidert und sie erst dann in den Index aufnimmt, wenn der Inhalt stabil bleibt. Das Problem ist relativ simpel: Neuer Content auf einer Einzelseite entwertet den bisherigen Content auf dieser Seite - warum soll man das unverzüglich ständig indizieren?

Bei mir werden Änderungen auf Altseiten innerhalb eines Tages berücksichtigt, seltene neue Seiten sind nach zwei Tagen und mehrfachem Anfassen drin. Nicht viele - aber ich habe eben keine Massenproduktion.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag