Das kommt immer drauf an, wie viel Google von dem duplicate Content indexiert. Tauchen die Seiten mit dem Webcontent samt Links in den Suchergebnissen auf, dass zählen sie auch. Tauchen sie nicht auf, werden sie wohl auch nicht in die Gewichtung deiner Site einbezogen. Nehmen wir mal zur Veranschaulichung die englischen Artikelverzeichnisse: Die Amis knallen ihre Artikel auf 1000 Artikelverzeichnisse, davon landet ein Großteil in Google Katakomben , taucht nicht in den Suchergebnissen auf und wird nicht gewertet . Die Rechnung der Amis geht aber dennoch auf, wieso? Weil Google ein paar Seiten immer gestattet-wie viel ist ungewiss und ändert sich ständig. Aber wenn
nur 10 Artikel der Amis indexiert wurden, haben die immerhin mindestens 10 Links. Beispiel: Schaue Dir einmal einen englischen Artikel an. ---->
https://www.google.com/search?q=%225+De ... at+Crab%22
Gehe einmal die ersten 3 Seiten in Google durch und Du wirst sehen, dass von den anfangs 1700 Treffern nur noch ca. 20 im Index sind. Dieser Artikel mit dem Titel
5 Delicious Ways To Eat Crab wurde ebenfalls auf hunderte Article Directories geknallt. Das ein Großteil im Filter landet, wurde vom Autor berücksichtigt und in Kauf genommen. Du kannst davon ausgehen, dass die Links in diesen 20 Treffern gewertet werden-ist doch nicht schlecht für das Schreiben von nur einem Artikel. Oder?