aber da werden auch Threads mit verschiedenen Einstellungen (z.B. viewtopic/t-1737/postdays-0/postorder-asc/start-60.html, /viewtopic/t-7597/view-previous.html) und Einzelposts aufgeführt
die beiden Suchanfragen sind ja nicht identisch. Bei Dir ist es ein Link, bei mir normaler Text und nur in Abakus vorhanden. Den site:, allinurl:, allinanchor habe ich nie so richtig vertraut...
Wie auch immer, die Anzahl deiner erfassten Posts gibt die Zahl 963 wohl nicht wider, da Google ja die Seiten zählt und sich auf einer Seite oft mehrere Posts befinden
Was wirklich hilft für diese forum ist dynamische sitemap denk ich. natürlich die PR 6 heist auch regelmäßige deepcrawlsa. Ohne die 6-7 installierte mods wird nur eine sehr kleine prozent von threads indiziert. Ich hab immer ein bischen anmgst das während die ganze p-xyz.html und die ganze andere url möglichkeiten die auf gleiche content geht das ich irgendwann in eine duplikat filter landen wird. Ich glaube aber das wenn ich eine filter für duplikaten landen könnte, wird ich schon lange drin sein.
wie vor kurzem schon behandelt, wird doppelter Content offenbar nicht wirklich bestraft, höchstens eine der doppelten Seiten anders bewertet. Sonst wäre eine Tabelle deren Inhalt von einer Datenbank erstellt wird und zu 99% immer aus dem gleichen Grundtext und 1% aus variablen Zahlen besteht, doppelter Content.
Oder Datenbanken die von verschiedenen Domains aufgerufen werden können und damit 1:1 Kopien erzeugen, wären längst abgestraft.
Ich hoffe Deine Bedenken richtig verstanden zu haben und wenn dem so ist, brauchst du Dir kaum Sorgen zu machen.