Existieren mehrere Kopien (inhaltlich identische Seiten), werden diese im Suchergebnis unterdrückt.
Hier Ein Bsp.Google hat geschrieben: Während des Crawlens und bei der Ausgabe von Suchergebnissen achten wir sehr darauf, Seiten mit verschiedener Information zu indexieren und anzuzeigen. Wenn es z. B. auf eurer Website sowohl eine reguläre Version als auch eine Druckansicht für Artikel gibt, von denen keine durch robots.txt oder mittels eines noindex-Metatags blockiert wird, dann suchen wir uns aus, welche Version wir listen. In seltenen Fällen steht hinter Duplicate Content die Absicht, unsere Rankings zu manipulieren und unsere User zu täuschen. Falls wir dies feststellen, nehmen wir entsprechende Anpassungen der Indizierung und des Rankings der beteiligten Websites vor. Wir konzentrieren uns jedoch lieber auf das Filtern als auf Anpassungen des Rankings …
Ein kluger Kopf hat die Unaufmerksamkeit der Seitenbetreiber (dazu gehört auch OpenPR ) genutzt und den gleichen Artikel in verschiedene PR Portale - Artikelverzeichnisse Eingetragen. Von Überschrift bis hin zum Content ist alles identisch (kein Syndicat).
Wie ist es zu erklären, das alle dieser Seiten mit den gleichen Titel, Text sogar URL im Google-Index aufgelistet sind?
https://www.google.com/search?hl=de&q=E ... =Suche&lr=
Und hier die Seiten mit identischen Inhalt:
Bei Open-P wird sowohl die Seite selbst als auch PDF von der gleichen Artikel im Index aufgelistet (Siehe Google Zitat im Bezug auf Druckansicht etc.)?!
https://www.*******.**/article/e ... -29-1.html
https://www.openpr.de/news/139886/Ein-b ... frika.html
https://www.suchhamster.de/2007/06/11/e ... uedafrika/
Gruss
MB