Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 15.05.2006, 19:40

Also wenn ich mir die Domänen, die Wolfgang67, bgx und web_worker in der Signatur haben so betrachte, dann sind die Anzahl der Seiten im Index linear zur Backlinkpower. Sicherlich schaffen andere mit weniger Backlinks mehr in den Index rein, aber wenn man nur diese Problem-Domänen betrachtet (mehr habe ich auch nicht) sieht das alles Einheitlich und Nachvollziehbar aus. Web_worker hat ein Paar Seiten mehr drin, aber entsprechend auch mehr Backlinkpower.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mark007q
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 11.09.2005, 15:43
Wohnort: Bochum

Beitrag von mark007q » 15.05.2006, 19:51

naja, bei mir gehts seit gestern wieder bergauf -> +100% neue Seiten im Index, also mal eben eine Verdopplung, alles superaktuell, cache Datem ab dem 07.05.2006

bin mal gespannt, denn gleichzeitig ging natürlich auch die Anzahl der Besucher nach oben

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 15.05.2006, 20:01

Ja, ich habe eben auch gerade eine Suchanfragen über https://suche.t-online.de/fast-cgi/tsc?... hereinbekommen, dies wird von Google gefüttert. Das interessante ist, dass die Seite weder in Google noch in der T-Online-Seite für mich sichtbar ist.

Also scheinbar wieder ein "Index-Switching", welches für manche schon sichtbar geschaltet ist. Und obwohl die site: ... - Abfrage bei mir noch keine Änderungen zeigt (die gefundene Seite ist nicht in der site-Abfrage), gehe ich doch mal davon aus, dass da was die nächsten Tage passiert.

Vodka, Georgi

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Thor
PostRank 7
PostRank 7
Beiträge: 643
Registriert: 21.05.2003, 20:14
Wohnort: Sankt Ingbert

Beitrag von Thor » 15.05.2006, 21:02

mein Forum ist wieder mit 10.000 Seiten im Index, die Besucher wieder da, die falsche Seite weg und aktueller Cache auch für neue Beiträge.
Seit 2 Tagen stabil...das wird wieder :wink:

mark007q
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 11.09.2005, 15:43
Wohnort: Bochum

Beitrag von mark007q » 15.05.2006, 21:07

@Thor: bis auf wieviele Seiten war es denn runter bei dir?

Thor
PostRank 7
PostRank 7
Beiträge: 643
Registriert: 21.05.2003, 20:14
Wohnort: Sankt Ingbert

Beitrag von Thor » 15.05.2006, 21:18

ca. 800

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 15.05.2006, 22:25

@Thor

Freu Dich nicht zu früh :-)

Nachdem Google die letzten Tage wieder 30.000 Seiten mehr anzeigte, gings die nächsten Tage wieder runter...101.000 69.000 10.400...9.100

Zwischenzeitlich wurden auch mal nur 997 Seiten angezeigt.

Gruß Scubi

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 16.05.2006, 07:34

dann sind die Anzahl der Seiten im Index linear zur Backlinkpower. Sicherlich schaffen andere mit weniger Backlinks mehr in den Index rein, aber wenn man nur diese Problem-Domänen betrachtet (mehr habe ich auch nicht) sieht das alles Einheitlich und Nachvollziehbar aus
... das ist auch so eine Sache für sich. Seit ein paar Tagen zeigt Domain-pop nur noch 169 links an, vor kurzem waren das noch über Tausend.

Das Forum hatte ursprünglich PR4, nur nach einem Umzug wurde nichts auf die neue Startseite vererbt. Die Besucherzahlen und Neuanmeldungen sind jedoch die ganze Zeit recht konstant geblieben, wobei mein Forum auf einem recht niedrigen Niveau rangiert... gestern 5 neue User (für meine Verhältnisse sogar eher viel). Ist aber auch ein Nischen-Thema.

Ich konnte übrigens bei der site-Abfrage eine weiter oben geäußerte Behauptung ebenfalls beobachten. Gibt man site:www.domain.de keyword ein, dann erscheinen sehr wohl auch schon mal Seiten, die bei der normalen site-Abfrage nicht sichtbar sind.

Mittlerweile hält sich die Anzahl der Seiten konstant um die 70-80 Seiten. Es geht seit einiger Zeit nicht mehr weiter bergab. Außerdem wird dieser (kleine) Inhalt nun von Google gut gepflegt und aktualisiert. :D Wer weiß, ob man da nicht mal einfach seinen Index per Zwangsmaßnahme von unnötigem Ballast und Schrott befreien wollte... also eine Art Neuaufbau des Indexes.

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 16.05.2006, 07:43

bei mir gehts bei meinem problem projekt (was hiervon betroffen war) auch dicke wieder hoch. es war auf circa 1000 seiten geschrumpft gestern abend waren circa 45.000 sites wieder im index heute morgen sogar schon wieder 82.000 - fehlen zwar noch ungef. 150.000 aber naja wird schon *g* caches alle vom 14.05

bonneville
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 02.09.2005, 14:58

Beitrag von bonneville » 16.05.2006, 10:32

Mein 10% vom Umsatz Projekt ist am Sonntag von site: 250.000 auf 1.6 Mio/ 5.5 Mio (50/50 auf den DCs) hoch, aber der Traffic ist noch wie vorher :o

Mein großes Projekt ist nach wie vor bei 90.000/ 120.000 Seiten, aber der Traffic ist um 10-18% hoch. Ich habe, wie hier auch schon beschrieben wurde, bei der site:www.D0main.de Abfrage weiterhin recht ähnliche Werte, jedoch bei site:www.D0main.de Keyword steigende Werte.

Mal sehen, was die nächsten Tage so bringen.

@oldInternetUser: Was bedeutet das, wenn der GBot auf http 1.1 läuft? Könnte es da Probleme geben, die es bei http1.0 noch nicht gab?
Kann ich mit einem SEO Tool mit meine Seiten mal mit http1.1 Perspektive anschauen?

Gruß Bonneville

p.s.: Kaputt ists trotzdem noch: Gebt mal umkämpfte Gattungsbegriffe in dreifacher ausführung ein. (z.B. Preisvergleich u.ä. allgemeine Keywords) - da ist nach 80 Serps von 4.2 Mio Schluss.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 16.05.2006, 10:47

bonneville hat geschrieben:@oldInternetUser: Was bedeutet das, wenn der GBot auf http 1.1 läuft? Könnte es da Probleme geben, die es bei http1.0 noch nicht gab?
Probleme kann es eigentlich keine geben, da alle Webserver Http 1.1 unterstützen dürften (das ist ja nicht gerade neu). Für google hat das Vorteile, bsp. KeepAlive + GZip. Tools kenne ich keine - im Prinzip die 'Feature-Liste' von 1.1 durchsehen.

Von Donnerstag bis Sonntag waren einige gekickte Projekte wieder im Index, die ab gestern (Montag) wieder draußen waren (Quelle: suchmaschinen-infos.info).

Es kann also sein, daß es bis einschließlich Montag (Spidern) zu 'alten Beobachtungen' kommt, die wohl ab heute wieder verschwinden müßten.

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 16.05.2006, 22:02

Abend an alle ohne Seiten im Index,

geht mal auf

www.mattcutss.com/blog

Matt hat mal ein paar klärende Worte abgelassen. Sieht so aus als wenn es so gewollt ist....

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 16.05.2006, 22:19

Tja:
The sites that fit “no pages in Bigdaddy” criteria were sites where our algorithms had very low trust in the inlinks or the outlinks of that site. Examples that might cause that include excessive reciprocal links, linking to spammy neighborhoods on the web, or link buying/selling
Und weiter unten kommen Beispiele - exzessive, themenfremde Footer, offenbar werden auch Affili-Links ausgewertet.

Damit ist es wohl so ziemlich endgültig die 'neue Realität' geworden.

PS: Wenn Artikelportale von gekauften Links leben und Leute aus dem hiesigen Forum ihre Domains mit Artikeln und Links von solchen Portalen unterstützen (was ziemlich häufig passiert), dann sind die Auswirkungen relativ naheliegend.

lloy
PostRank 7
PostRank 7
Beiträge: 638
Registriert: 23.08.2005, 17:19

Beitrag von lloy » 16.05.2006, 23:51

Mmmh, also mir kommt das alles etwas zu fadenscheinig daher.
Some folks that were doing a lot of reciprocal links might see less crawling.
Aha, nur was würde das bringen? Eine solche Maßnahme dürfte vor allem die kleinen Webmaster treffen, stammt doch der "Linktausch" noch aus den Anfangstagen des Internet. Die Seos und Spammer mit ihren etlichen Seiten können hier sehr schnell umstellen, wenn sie es nicht schon längst getan haben.
And if you’ve got an affiliate site, it makes sense to think about the amount of value-add that your site provides; you want to provide a reason why users would prefer your site.
Welche grösssere Portal hat seine Affili-Links denn überhaupt noch
"Klartext" im Quellcode stehen? Kleine Spam-Seiten erwischt man so vielleicht, aber alles andere... Manuell ja, aber nicht per Algorithmus.

Eine Verschärfung des DC-Filters kann man meiner Ansicht nach tatsächlich schon seit Dezember beobachten, obwohl einige Leute auch hier widersprechen dürften.

Das klingt mir ehrlich gesagt alles zu plausibel und zu sehr nach erhobenem Zeigefinger. Seit schön artig und dann hat G euch auch wieder lieb. Vor allem bei der angeblichen Neubewertung der Links kommen mir da ergebliche Zweifel. Sollte eine solche Neubewertung tasächlich stattgefunden haben, haben sie auch haufenweise "unschuldige" Domains dabei erwischt. Andere, weniger "natürlich" ausschauende Seiten profitieren wiederum hiervon und sind kräftig nach oben gekommen.

Naja, mir solls recht sein, ich kann damit leben.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 17.05.2006, 00:16

lloy hat geschrieben:Das klingt mir ehrlich gesagt alles zu plausibel und zu sehr nach erhobenem Zeigefinger. Seit schön artig und dann hat G euch auch wieder lieb.
Sehe ich ganz genauso. Google ist aufgrund der Masse an Seiten (von denen die meisten Google erst provoziert hat) gar nicht mehr in der Lage, ordentliche Mülltrennung zu machen- fadenscheiniges Gesülze der menschlichen Nebelkerze also.
Ansonsten möchte ich mal anmerken daß das letzte, was das Netz und mit ihr Seitenbetreiber brauchen, ein amerikanischer Blockwart ist, der über Wohl und Wehe anderer glaubt entscheiden zu können.
Dafür ist der Laden zu konspirativ, suspekt und unfähig- aber leider küßt ihn das Glück jeden Tag auf beide Arschbacken...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag