Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 17.05.2006, 01:24

MeNoZony hat geschrieben:
lloy hat geschrieben:Das klingt mir ehrlich gesagt alles zu plausibel und zu sehr nach erhobenem Zeigefinger. Seit schön artig und dann hat G euch auch wieder lieb.
Sehe ich ganz genauso.
Also Leute, mal ehrlich, das sagt Google schon seit Jahren. Iloy, das geht imho eher gegen "professionelles" Linkexchange, so in die Richtrung "überall in (allen) Footer" oder bei stark übertriebenen Netzwerken und schon deswegen nicht unbedingt gegen die kleinen Seiten. Ich lese den Cutts-Blog-Eintrag da etwas anders: Von den {180-200} Parameter, die Google wohl hat, sind diese Parameter jetzt halt ein bisschen fester angezogen worden. Basta.
Google ist aufgrund der Masse an Seiten (von denen die meisten Google erst provoziert hat) gar nicht mehr in der Lage, ordentliche Mülltrennung zu machen- fadenscheiniges Gesülze der menschlichen Nebelkerze also.
Ja, dann mal eine ehrliche Frage: Wo hat denn "die Masse" angefangen? Bei einer Milliarde? Bei zwei, bei acht? Wo war die kritische Masse erreicht? Wann? Gabs damals weniger Spam? Hmmm... kein Argument, tut mir leid.
Ansonsten möchte ich mal anmerken daß das letzte, was das Netz und mit ihr Seitenbetreiber brauchen, ein amerikanischer Blockwart ist, der über Wohl und Wehe anderer glaubt entscheiden zu können.
Dafür ist der Laden zu konspirativ, suspekt und unfähig- aber leider küßt ihn das Glück jeden Tag auf beide Arschbacken...
Auch hier eine einfache Frage: Warum wird denn Google der Arsch geküsst? Ich wills einfacher formulieren: Schonmal mit msn/yahoo gesucht? Scheinbar liefert Google für die Masse immer noch die relevantesten Ergebnisse, denn jede andere Suchmaschine ist (für jeden User!!) ja nur einen Link weit entfernt. Aber immerhin: Dir bleibt ja, statt zu lästern, noch die Wahl für jede andere Suchmaschine zu optimieren. Gerade bei msn hast Du da sicher keine Probleme.

Um jetzt wieder sachlicher zu werden: Google Sitemaps schätzt jetzt nur noch 1/3 meiner (ca. 5000 Test-)Seiten mit vergebenem PR ein (vorher: Alle) und die anderen 2/3 nicht mehr. Diese Änderung habe ich das erste mal vor 2 oder 3 Tagen gesehen. Was wiederum heißt, dass meine Seite jetzt reeller bewertet wird: Kaum eingehende Links. Und was bedeuten könnte, dass meine Seite halt nicht im (site: ... -)Index so vorhanden ist, wie sie es vor den BD-Indexen wohl war.

Vodka, Georgi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 17.05.2006, 10:23

Eine Neuigkeit ist damit bestätigt:

Früher: Alles gecrawlte kam auch in den Index
Mit BigDaddy: google crawlt absichtlich mehr als das, was im Index erscheint

Eine Differenz zwischen der Zahl gecrawlter und indexierter Seiten weist also auf irgendwelche Probleme hin

Siehe https://www.mattcutts.com/blog/indexing ... ment-27035

Zur Frage der PR-Abschaffung (aus demselben Kommentar):
arubicus, typically the depth of the directory doesn’t make any difference for us; PageRank is a much larger factor.

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 17.05.2006, 11:37

Es wundert mich, das hier alles so ruhig ist. Da wurde doch einiges Neues und auch interessantes von MC los gelassen in Bezug auf BigDaddy.

-Abwertung reziproker Links
-neue Linkbewertung
-Themenrelevanz
-Footerlinks
-Indizierungsverhalten
-affili Domänen Abwertung

Vieles was sich schon angedeutet hat und oder nur noch weiter angezogen wurde. Viele hatten sich schon darauf vorbereitet und es hat wie so oft viele Langsame und White Hats getroffen.

Diese Sache mit
PageRank is a much larger factor.
bezieht sich auf das Crawl Verhalten ist aber eigentlich nichts Neues. Höchstens, dass man jetzt mit mehr Trusty PR auch mehr Seiten in den index schaufeln kann.

Mir kommt es teilweise, so wir Georgi es schon angedeutet hat, dass hier mit erhobenen Zeigefinger gearbeitet wird und manchmal der Wunsch Vater des Gedankens ist.

Wobei sich die Katze in den Schwanz beißt, wenn man Seiten aus dem Index wirft, gehen viele Backlinks an dritte Domänen verloren und es entsteht eine Spirale, die zu weiterem Seitenverlust führt.

Rund ist das aber immer noch nicht, da wird eventuell noch was nachkommen, sonst würde da nicht so um Feedback seitens MC gebettelt werden.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

busTa
PostRank 5
PostRank 5
Beiträge: 312
Registriert: 19.02.2006, 13:36
Wohnort: Hannover

Beitrag von busTa » 17.05.2006, 12:35

Sehr interessant:
- Okay, let’s check one from May 11th. The owner sent only a url, with no text or explanation at all, but’s let’s tackle it. This is also a real estate site, this time about a Eastern European country. I see 387 pages indexed currently. Aha, checking out the bottom of the page, I see this:


Linking to a free ringtones site, an SEO contest, and an Omega 3 fish oil site? I think I’ve found your problem. I’d think about the quality of your links if you’d prefer to have more pages crawled. As these indexing changes have rolled out, we’ve improving how we handle reciprocal link exchanges and link buying/selling.
Themenrelevanter Linktausch wird also immer wichtiger. Denke das ist auch vielleicht für einige hier der Grund warum so viele Seiten aus dem Index sind.
Google Ranking überwachen - Bis Platz 1000 - mit History

CMA
PostRank 9
PostRank 9
Beiträge: 1013
Registriert: 16.07.2003, 16:34

Beitrag von CMA » 17.05.2006, 12:42

1.) Sicher wird noch stärker als bisher auf linkquellen geachtet, und es werden immer mehr linkquellen nötig um seiten komplett im index zu halten und zu ranken, das war aber auch schon laaaaange absehbar. Auch die meisten whitehats haben wohl reagiert.

2.) Kleiner hinweis, bei foren die sids haben (seo-phpbb.org fehler, sollte weg sein) für bots, haut diese raus.. >hat mich einiges an seiten gekostet

3.) Ich würde empfehlen, weiterzuarbeiten, hier mitzulesen und neuen CONTENT zu erstellen der diesen Begriff wirklich verdient, was auch mit den artikelverzeichnissen etc weniger geworden ist.

Den Blogpost von Matt werd ich mir noch ansehen, wird aber wohl wie immer gegen die bösen seos sein und die lieben loben :)

Wünsche allen einen schönen Tag , hier ists extrem sonnig und das Ende der schrifltichen Matura muss gefeiert werden. Die Rankings sind für mich derzeit auf dem richtigen Weg, die indexierung muss ich noch genauer beobachten.. vermutungen siehe oben > reziprok, zuwenig linkquellen, junge domains.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 17.05.2006, 14:05

ts hat geschrieben:Es wundert mich, das hier alles so ruhig ist. Da wurde doch einiges Neues und auch interessantes von MC los gelassen in Bezug auf BigDaddy.

-Abwertung reziproker Links
-neue Linkbewertung
-Themenrelevanz
-Footerlinks
-Indizierungsverhalten
-affili Domänen Abwertung
Von 'Ruhe' konnte hier eigentlich, auch angesichts dieses Threads, keine Rede sein. Eher habe ich den Eindruck, daß einige nun kapieren, daß es sich nicht um ein temporäres Problem (Platzmangel, Plattencrash), sondern um den neuen Dauerzustand handelt.

ts hat geschrieben:Wobei sich die Katze in den Schwanz beißt, wenn man Seiten aus dem Index wirft, gehen viele Backlinks an dritte Domänen verloren und es entsteht eine Spirale, die zu weiterem Seitenverlust führt.
Diese Spirale hat wahrscheinlich zu den Abrutschern der letzten Tage geführt.

Caschi
PostRank 8
PostRank 8
Beiträge: 705
Registriert: 23.04.2003, 09:03

Beitrag von Caschi » 17.05.2006, 15:17

Hört mal auf zu Träumen. Google spuckt zum Teil den gleichen Mist fehlende Seite wie kurz vor BD aus! Das nicht gewollt, die versuchen mal wieder nen Fehler zu vertuschen. Eine meiner Seiten mit Schwund hat keine Links auf den Seiten. Trotzdem 90% raus ...

bonneville
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 02.09.2005, 14:58

Beitrag von bonneville » 17.05.2006, 15:51

@Caschi:
Dem stimme ich zu - so sieht vertuschen aus.

Ich gebe Matt Cutts recht dahingehend, wenn er sagt, dass junge Seiten mit wenig Backlinks ein schlechtes Crawlverhalten haben. (Das war aber schon immer so)

Weiterhin recht hat er, dass rezibroke Linktauschszenarien zu Abstufungen führen - das kennen wir auch von div. G-Updates in 2005.

Aber: Warum trifft das site dropping Problem dann auch und vor allem viele Foren?
Foren haben meist wenig / keine gekauften Links und keine / wenig affili-outLinks!

Ich glaube ich las in seo-marketing-blog.de (Blogpost vergessen), dass vier der großen Businessforen in UK unter dem Seitenverlustproblem leiden:
site:www.platinax.co.uk/forum/
site:www.ukbusinessforums.co.uk
site:www.teneric.co.uk/forums/
und auch
site:www.pcwelt.de/forum/
site:forum.golem.de

Außerdem trifft es alle Möglichen Seiten: Seiten, welches es schon vor 2005 gab (haben dann supplemental probleme und meines Erachtens interne Linkpop-Probleme durch die Suppl.) und auch Seiten, die erst Jan 2006 (re)launchten.

Ich bin weiter ratlos, konnte mir nun nur aus Matts Kommentar mehr Hoffnungslosigkeit generieren. Außerdem kann man weiter _alle_ Probleme des Monats April beobachten:
-Fehlende Seitentitel
-Fehlende Descritions und oder Import der DMOZ Daten
-neue Opfer (also Seiten, die erst in diesen Tagen Seiten verlieren!)
-steigende und fallende Werte beim site: Operator - täglich ohne Korrelationen
-unabhängig von der Site: Angabe fluktuierender Traffic
-zu zeitige Zusammenfassungen von SERPS mittels "Ab hier nur noch zusammengefasste Ergbnisse"

Krankes Beispiel:
https://www.google.de/search?num=100&hl ... uche&meta=

Gruß Bonneville

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 17.05.2006, 15:57

bonneville hat geschrieben:Aber: Warum trifft das site dropping Problem dann auch und vor allem viele Foren?
Weil die Anzahl/Qualität der eingehenden Links nicht (mehr) für die doch teils massive Zahl indexierter Seiten ausreicht.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 17.05.2006, 16:25

bonneville hat geschrieben:Krankes Beispiel:
https://www.google.de/search?num=100&hl ... uche&meta=
Hm, also ich muß gestehen, ich finde dieses Ergebnis nicht krank, sondern hervorragend.

Ich hatte mich bei meiner eigenen Programmierarbeit schon immer wieder geärgert, daß ich nach irgendeiner Spezialkombination von Begriffen gesucht habe, google bsp. 100 Ergebnisse gelistet hat - und ein Durchsehen der ersten 50 ergab zu meiner ziemlich großen Frustration, daß es nur vielleicht fünf verschiedene Originale waren (also fünf tatsächlich verschiedene Fundstellen) - der Rest waren irgendwelche Kopien, Klone und ähnliches, die inhaltlich nichts neues brachten.

Wenn mir google hier nur 5 - 10 Ergebnisse anzeigt und den Rest rausschmeißt, dann erspart mir dies ein mühsames Kontrollieren per Hand.

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 17.05.2006, 16:34

hmm naja ich denke ist weniger relevant die suche dort ...
auf jeden fall verstehe ich unter "relevanz" etwas anderes...
https://img114.imageshack.us/img114/3483/hgfds5ls.jpg

hier des paper zum trustrank:

https://dbpubs.stanford.edu:8090/pub/sh ... 004-17.pdf

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 17.05.2006, 16:54

Hab mir das nun mal einen Tag durch den Kopf gehen lassen... irgendwas stimmt vom Gefühl an den Reden des Hrn. Cutts nicht, ich weiß nur noch nicht genau was...

Die haben so viel Zeug (besonders antquiertes) aus dem Index geschmissen, dass es mir eher den Anschein hat, dass sie einfach eine monströse Aufräumaktion starten, um Altlasten loszuwerden. Dabei kommt dann halt die ein oder andere Seite erstmal unter die Räder.

Wenn ich eine Datenbank hätte, die nur noch inkonsistent ist und Uralt Zeug enthält, das ich einfach nicht mehr in den Griff bekomme, dann würde ich auch erstmal den Hahn zudrehen und die Inhalte verifizieren/löschen, um dann, wenn das überflüssige Zeugs raus ist, einen Neuanfang zu machen. Die haben übrigens bei meiner Alt-Domain nun alles gelöscht, was noch im Index war. Ein paar Tage war sie ganz raus... und nun ist die Startseite wieder drin (als einziger Link) :wink: ... das entspricht auch der tatsächlichen Situation. Bis vor ein paar Tagen waren da noch Uralt-Links in der site Abfrage von vor einem Jahr.

...ich glaube die fegen einfach nur durch.

Bei der Gelegenheit kann man die Gunst der Stunde direkt auch noch nutzen, um den Linkverkäufern und Powerlinkern mal so richtig schön Angst zu machen :wink:

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 17.05.2006, 17:22

SEO Kastration

Ich glaube das ist das richtige Wort für den jetzigen Zustand!

Irgendwo ist es ja logisch:
Domains gehen mit über 200.000 Seiten an den Start.
Soviel defekte Tastaturen und wunde Finger gibt es einfach nicht.

RW

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 18.05.2006, 09:13

bonneville hat geschrieben:Weiterhin recht hat er, dass rezibroke Linktauschszenarien zu Abstufungen führen - das kennen wir auch von div. G-Updates in 2005.
https://www.abakus-internet-marketing.d ... =reziproke
SISTRIX hat geschrieben:Weil die Anzahl/Qualität der eingehenden Links nicht (mehr) für die doch teils massive Zahl indexierter Seiten ausreicht.
Die Frage ist doch welchen Sinn es haben soll sauber Seiten nicht in den Index zu nehmen (ob wegen zu wenig eingehender Links oder warum auch immer ist fast egal).
RW hat geschrieben:SEO Kastration
vs. Gehirnamputation. Regt sich hier jemand darüber auf, daß Spam o.ä. entfernt wurde? Nein.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 18.05.2006, 10:12

Hasenhuf hat geschrieben:
bonneville hat geschrieben:Weiterhin recht hat er, dass rezibroke Linktauschszenarien zu Abstufungen führen - das kennen wir auch von div. G-Updates in 2005.
https://www.abakus-internet-marketing.d ... =reziproke
Hm, aber die Seite von AnjaK - sofern sie immer nur noch reziproke Links hat - steht immer noch für "T0pl|ste" oben dick drinne. Oder hat sie einfach genug Power, den "Nachteil" der Reziproken Links wieder wettzumachen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag