Beitrag
von linux » 14.05.2005, 22:11
ich kann euch 100 seiten nennen die versuchen mit unserem content eigene "suchmaschinen" aufzubauen. Das problem ist, daß die wie ich schon oft gesagt habe die seiten aus dem google cache nehmen und reinstellen also eine "echte" doppelte content seite. nun hats sogar eine ehemalige pr 5 seite erwischt die rauschte von 500.000 seiten auf 8000. nun mit pr 6 und mehr links und so weiter kommt der googlebot wieder und die seiten kommen zurück. ich kann pagemaker nur recht geben diese looser die bei ebay ein script kaufen und den contetn klauen braucht keiner. ich bin eh der meinung daß"wir" mal eine gemeinschaft gründen sollten um die zum ruin zu klagen.
google kann den doppelten content erkennen ist ein fakt! mal nur so bei linux gibts einem befehl diff damit kann man 2 teste verleichen!!! also es geht und klar man braucht rechenpower aber nicht so viel wie ihr denk. google hat die definitiv.
es ist im moment leider möglich seiten durch doppelten content "abschmieren" zu lassen, aber man kann ja klagen aber meist dann gegen eine ltd in ireland oder sonst wo! aber ich denke bald wirde nen weg geben das zu stoppen
gruß
linux