Hallo,
ich habe ja auch mit dem doublecontent problem gekämpft. hatte vorher 22.00 seiten im index, obwohl meine website vielleicht gerade mal 5000-8.000 seiten besitzt. seit gestern sind nur noch 850 drin (laut ranking-hits). kann es sein, dass meine robots.txt endlich wirkung zeigt? warte da schon länger drauf. komme ich endlich aus dem filter raus??
bin total nervös.
Eine meiner Seiten fiel von 400'000 auf ca. 150'000 Seiten (gemäss Ranking-Hits). Eventuell wurde ein altes DC abgefragt. Denn geändert habe ich nichts...
Gruss,
Nikochan
Domainmonitor.ch findet freigewordene .CH und .LI Domains mit PR und DMOZ-Eintrag.
Die Pages-Zahl bei r-h schwankt gerne mal - auch massiv. Da heisst's erstmal nen paar Tage abwarten. Wenn sich das _dann_ auf nen neuen Wert eingependelt hat => mit Freuen/Aergern anfangen.
hehe, tatsächlich ist die Anzeige wieder nach oben gegangen. War wohl ein Fehler.
Kann es trotzdems ein, dass ich gar keinen doublecontent mehr habe?
Es werden bei google mit der site Abfrage 21.000 Ergebnisse gezeigt. Wenn ich mir die aber anschaue, dann haben alle Seiten die ich mittels robots ausgesperrt habe, keinen Beschreibungstext. Das sieht so aus:
komischerweise wird aber nur eine ergebnis mit description angezeigt. alle anderen erscheinen erst wenn ich auf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen. klicke.
Meine Vermutung ist jetzt, dass ich keinen doublecontent mehr habe, meine seite aber ausgefiltert wird. lieg ich da richtig?
ich hoffe mein post is verständlich
hallo yel nats, danke für deine antwort. ich meinte aber meinen letzten post.
es würde mich nur interesieren, ob ich mit meiner vermutung richtig liegen könnte, dass ich gar keinen dc mehr habe und jetzt lediglich abwarten muss bis ich aus der sbox draussen bin.
die "site: abfrage" könnt ihr im skat drücken. es scheint wohl eher so zu sein, daß Google auf diese Weise den "größten index" haben möchte.
das diese werte schwanken, liegt an den update was im momo im gange ist und die daraus resultierenden unterschiedlichen datencenter-daten.
bei mehrfacher "site:abfrage" werden in der regel unterschiedliche datencenter abgefragt und dadurch kommt es zu diesen schwankungen.
Bei mir ist es mal eben von knapp 2.000 auf 9.000 hoch gegangen.
Das blöde ist, es liegt an meinem Forum das Suchmaschinenoptimiert ist.
Leider nimmt ja Google auch Seiten auf die per robots.txt gesperrt sind, zwar ohne Beschreibung aber sie stehen bei der site Abfrage drin. *grrrr*