Unsere Portale sind alle DB gestützt, phpsitemap ist da nicht wirklich sinnvoll, leider

Müsste demnach eine Art crawler sein, der alle Links auf der Seite verfolgt.
Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
hmm limit 300 seiten, was soll man damit anfangen..?redcan hat geschrieben:dann schau mal hier
https://www.tarrantit.com/googlesitemap/
Ja. Ist mir schon klar. Das funktioniert auch mit dem 301er. Ich bezog mich auf die tausenden 301er. Vielleicht kannst Du die Seiten schrittweise anmelden.Armi hat geschrieben:301-redirect soll eigtl. die anerkannte Methode sein - Problem ist halt dass Google diese Information mangels Verlinkung (-> keine Bot-Besucher mehr dieser URL) nie bekommt.
Da könnte auch die robots.txt helfen. Ich verstehe aber garnicht, warum Du die Seiten gewaltsam aus dem Index entfernen willst. Google behandelt unverlinkte Seiten schon angemessen, denn darauf basiert ja die ganze Linkpopularity-Idee.Armi hat geschrieben:Es geht ja darum, dass Google endlich die https://domain.de Versionen löscht und nur noch die https://www.domain.de Versionen im Index hat.
301-redirect soll eigtl. die anerkannte Methode sein - Problem ist halt dass Google diese Information mangels Verlinkung (-> keine Bot-Besucher mehr dieser URL) nie bekommt.
Nein. Es sind genau die gleichen URLs.Da könnte auch die robots.txt helfen.
https://www.webmasterworld.com/forum30/29815.htmIch verstehe aber garnicht, warum Du die Seiten gewaltsam aus dem Index entfernen willst. Google behandelt unverlinkte Seiten schon angemessen, denn darauf basiert ja die ganze Linkpopularity-Idee.