Seite 1 von 1
Google spidert Abakus richtig gut...
Verfasst: 13.11.2004, 16:19
von mario
von 1000 meiner Posts hat Google immerhin 963 schon im Kasten...Stichtag 13.11.04
https://www.google.de/search?q=%22Mario ... =&filter=0
nicht schlecht, wie ich meine...
Verfasst: 13.11.2004, 16:37
von Jörg
bei mir sind's 3850 Fundstellen bei knapp 1000 Beiträgen:
https://www.google.de/search?num=100&hl ... uche&meta=
aber da werden auch Threads mit verschiedenen Einstellungen (z.B. viewtopic/t-1737/postdays-0/postorder-asc/start-60.html, /viewtopic/t-7597/view-previous.html) und Einzelposts aufgeführt
Verfasst: 13.11.2004, 18:21
von mario
Hi Jörg
die beiden Suchanfragen sind ja nicht identisch. Bei Dir ist es ein Link, bei mir normaler Text und nur in Abakus vorhanden. Den site:, allinurl:, allinanchor habe ich nie so richtig vertraut...
liebe Grüße
Mario
Verfasst: 13.11.2004, 18:55
von Jörg
Naja, mit der site: Abfrage Einschränkung ändert sich bei dir fast nichts:
https://www.google.de/search?num=100&hl ... uche&meta=
Wie auch immer, die Anzahl deiner erfassten Posts gibt die Zahl 963 wohl nicht wider, da Google ja die Seiten zählt und sich auf einer Seite oft mehrere Posts befinden
Verfasst: 13.11.2004, 19:35
von mario
muss mir mal die Listung genauer ansehen... aber prinzipiell hast Du natürlich recht. Excel hilft da weiter.
Verfasst: 14.11.2004, 15:03
von Webby
Was wirklich hilft für diese forum ist dynamische sitemap denk ich. natürlich die PR 6 heist auch regelmäßige deepcrawlsa. Ohne die 6-7 installierte mods wird nur eine sehr kleine prozent von threads indiziert. Ich hab immer ein bischen anmgst das während die ganze p-xyz.html und die ganze andere url möglichkeiten die auf gleiche content geht das ich irgendwann in eine duplikat filter landen wird. Ich glaube aber das wenn ich eine filter für duplikaten landen könnte, wird ich schon lange drin sein.
Alan
Verfasst: 14.11.2004, 15:46
von Jesaja
Sowas kann doch nicht passieren oder Webby?

))
Verfasst: 14.11.2004, 16:51
von mario
Hi Alan
wie vor kurzem schon behandelt, wird doppelter Content offenbar nicht wirklich bestraft, höchstens eine der doppelten Seiten anders bewertet. Sonst wäre eine Tabelle deren Inhalt von einer Datenbank erstellt wird und zu 99% immer aus dem gleichen Grundtext und 1% aus variablen Zahlen besteht, doppelter Content.
Oder Datenbanken die von verschiedenen Domains aufgerufen werden können und damit 1:1 Kopien erzeugen, wären längst abgestraft.
Ich hoffe Deine Bedenken richtig verstanden zu haben und wenn dem so ist, brauchst du Dir kaum Sorgen zu machen.