Seite 1 von 1
site: Abfrage
Verfasst: 16.12.2005, 11:17
von Apotheker
Es gab zwar schon ein paar Diskussionen zur site-Abfrage, aber irgendwie keine sinnvollen Erklärungen. Dass sie nicht zuverlässig ist, schein klar zu sein. Aber manches ist schlicht unerklärlich:
Ein Projekt mit 10.000 Seiten startet neu. Erst sind laut site-Abfrage 10 Seiten im Index, nach ein paar Tagen 200, dann 1000. Jede dieser "Entwicklungsstufen" läuft parallel zum Anstieg des Traffics. Alles normal und auch plausibel.
Dann liefert site: plötzlich 20.000 Seiten, der Traffic bleibt aber auf dem Niveau von 1000 Seiten.
1. hat das Projekt nur 10.000 Seiten. Sonst heißt es immer, da sei noch alter Müll im Index, aber das kann bei einem neuen Projekt nicht sein. Wo kommen die 20.000 her?
2. sagt mir der konstante Traffic, dass sich eigentlich gar nichts verändert haben kann. Entweder waren vorher schon alle Seiten im Index und es wurden nur 1000 mit site: angezeigt (was aber aufgrund des Verhältnisses Seitenzahl/Traffic unwahrscheinlich ist) oder derzeit sind immer noch nur 1000 Seiten im Index und die Anzeige von 20.000 ist "einfach so" entstanden, ohne dass sich zu diesem Zeitpunkt die Anzahl der indizierten Seiten geändert hat.
Wie denkt Ihr darüber?
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
site: Abfrage
Verfasst: 17.12.2005, 20:52
von bonneville
Hi Apotheker,
ein Kollege von mir hat eine sehr gute und rel. komplexe Produktsuche für unsere Seite geschrieben. Dabei wird auch angezeigt "Ergebnis 1-14 von ungefähr 35".
Dieser Schätzwert aller Ergebnisse ist mit wesentlich weniger Serverpower anzeigbar, als wenn man bei großen Treffermengen nochmal ein select count * über den eigentlichen Datenbestand schicken müsste, um das genaue Ergebnis anzuzeigen.
Soll heißen: Meiner Ansicht nach funzt die site: Abfrage nach einem ähnlichen Schema und du hast gerade den Schwellwert zwischen genauem Zählen (deine 1000 Erg.) und dem "Schätzen" entdeckt (deine 10.000) und die Ungenauigkeit des Googleschätzens bewiesen.
Das dieser Fehler aber systemimmanent und bei allen gleich ist, eignet sich die site: Abfrage trotzdem für den Vergleich zw. dir und der Konkurrenzusw.
Gruß Bonneville
site: Abfrage
Verfasst: 19.12.2005, 09:24
von Apotheker
Das hieße aber, dass Google sich ganz arg verschätzt. Wenn der Traffic drastisch zugenommen hätte, wäre ich davon ausgegangen, dass jetzt alle 10000 Seiten im Index sind und Google halt 20000 anzeigt (verschätzt um Faktor 2, na ja...). Da der Traffic aber gleich geblieben ist, muss ich davon ausgehen, dass die Zahl der indizierten Seiten sich nicht oder nur minimal geändert hat. Nehmen wir an minimal, dann wäre hier gerade die von Dir beschriebene Schwelle überschritten worden. Stellt sich die Frage, ob der Schritt von genauem Zählen zum Schätzen eine Ungenauigkeit von annähernd Faktor 20 mitbringen darf...
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Re: site: Abfrage
Verfasst: 19.12.2005, 10:44
von lrosen
Apotheker hat geschrieben:Ein Projekt mit 10.000 Seiten startet neu. Erst sind laut site-Abfrage 10 Seiten im Index, nach ein paar Tagen 200, dann 1000. Jede dieser "Entwicklungsstufen" läuft parallel zum Anstieg des Traffics. Alles normal und auch plausibel.
Dann liefert site: plötzlich 20.000 Seiten, der Traffic bleibt aber auf dem Niveau von 1000 Seiten.
G. hat 1000 Seiten durchgelesen. Auf diesen befinden sich Texte sowie Links zu weiteren 9000 Seiten.
Phase 1: Die Texte werden bearbeitet und in den Index eingetragen.
Ergebnis: 1000 Seiten
Phase 2: Die Links werden bearbeitet. Dabei werden 9000 weitere Seiten entdeckt und
leer (sog. nur-URL) in den Index eingetragen.
Ergebnis: 10000 (oder so) Seiten
Da G. nichts über den Inhalt der 9000 Seiten weiss, können diese auch nicht als Ergebnis von realen Suchabfragen auftauchen. Der Einfluss auf die Besucherzahlen ist deshalb gleich Null.
Essenz:
G.'s Indizierungsprozess läuft in mehreren Stufen ab. Der reine Text wird schneller als die Linkstrukturen bearbeitet.
Ich wage sogar zu behaupten, dass der Gesamtvorgang noch viel komplexer ist und sich über mehrere Wochen/Monate hinzieht.
site: Abfrage
Verfasst: 19.12.2005, 20:48
von Apotheker
Eigentlich eine ganz gute Erklärung! Überprüfen kann man ja nur maximal 1000 Seiten, deshalb ist hier nicht zu ergründen, ob es tatsächlich 9000 weitere "Nur-URLs" sind. Bei einem kleineren Projekt sollte es aber möglich sein, einen solchen Zwischenstand abzupassen und auch im Index zu überprüfen.
site: Abfrage
Verfasst: 20.12.2005, 11:18
von lrosen
Versuch mal
site:example.com -impressum
(oder ein anderes Wort, das garantiert auf jeder Seite vorkommt)
site: Abfrage
Verfasst: 20.12.2005, 12:34
von Apotheker
Ergebnis: 1 Seite (die einzige wo es tatsächlich nicht draufsteht) Man könnte also annehmen, dass Google tatsächlich auch die Inhalte der Seiten kennt.
Ebenso liefert site:example.com impressum 19999 Ergebnisse und mit anderen Wörtern, die auf machen Seiten stehen, kommen verschiedene Werte zwischen 0 und 20000 raus, die ich aber nicht verifizieren kann.