Da ich mich mit diesem Thema bisher noch nie beschäftigt habe, da ich stets Inhalte nur 1 mal veröffentliche, war ich mir des Problemfalls von Duplicate Content nie bewusst. Jedoch muss ich unter der Menge der Indexierten Seiten meiner Homepage feststellen, dass viele Seiten in mehreren Ausführungen im Index vorkommen. Dies war mir in der Form zuvor nicht aufgefallen, da ich aufgrund der indexierten Bildergallerie davon ausgegangen bin, dass dies diese enorme Zahl ausmacht.
Die Doppelten Seiten
Die Seiten die "doppelt" vorkommen, sind in der Form NIE verlinkt worden. 100%ig nicht intern und, so nehme ich an, nicht extern.
So befinden sich Seiten in dieser Ausführug (gewollt) im Index: url.de/fische/
Es wird logischerweise der Inhalt der index.php angezeigt, wenn man diesen Ordner aufruft. Aus irgendeinem Grund befindet sich ebenfalls url.de/fische/index.php im Index. Unerklärlich aus meiner Sicht.
Des weiteren habe ich Urls wie diese im index: url.de/?kat=links
Hierbei wird der inhalt von index.php?kat=links angezeigt. Ungewollterweise befindet sich diese Datei ebenfalls im Index, ohne dass diese je so verlinkt wurde.
Dies geht sogar so weit, dass z.b: url.de/fische/index.php?kat=links im Index erscheint. Völlig unlogisch! Die Parameter haben keinen Inhalt auf diese Seite, und es entsteht zurecht Duplicate Content.
Ich dachte Google indexiert nur Links die tatsächlich existieren.
Die ungewollten URLs werden jedoch in keiner Ergebnisseite geführt. Kann man hier von DC sprechen?
Zur Entfernung?
Ich würde mir die Mühe machen, und diese Seiten mit der Removal-Console entfernen, jedoch habe ich diese vor kurzem bereits für eine robots.txt entfernung genutzt. Zudem überschreitet die Anzahl der, zu entfernenden Seietn, höchstwahrscheinlich die maximale bandbreite.
Wie WÄRE es, bei erfolgreicher entfernung, anzustellen, damit selbes nicht noch einmal passieren kann? Wie kann ich das bei neu erstellten Verzeichnisen vorbeugen?
dynamische seiten werden öfters durch irgendwelche paramater erzeugt, die auf irgendwelchen seiten vorhanden sind. hatte auch so ein problem.
hab alle seiten einzeln per rewrite umgeleitet. war eine menge arbeit, aber hat gefunzt.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
das problem war, dass es ein shop-system ist und da in der .htaccess noch andere rewriterules drin sind und manche dynamische url's davon nicht weitergeleitet werden sollten, und daher eine generelle umschreibung nicht möglich war.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
Wenn ich in der removal console eine index.php entferne, wird dann eventuell auch der ordner oder die seiten mit querystring gelöscht?
Wie kann ich verhindern dass diese nochmals ungewollt indexiert werden?
Kann man es vermeiden in jeden Ordner eine .htaccess zu legen die bei zugriff auf die index.php auf den ordner weiterleitet? Wie sieht es bei dieser Weiterleitung mit Querystrings aus?