Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Fragen zur URL-Löschung per Google Webmastertools

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
suchsuchsuch
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 28.01.2007, 14:38

Beitrag von suchsuchsuch » 25.07.2007, 20:54

Durch einen Fehler einer Forensoftware wurden Seiten mit Session-IDs indiziert und es entstand natürlich eine Menge Duplicate Content.
Von ungefähr 160 indizierten Seiten waren so 120 DC.
Ich entschloss mich dann, die Seiten per Hand in den Webmastertools zu löschen und sie, wie beschrieben, auch in die robots.txt einzutragen.
Als ich ca 80 eingetragene URLS auf die Löschenliste setzen wollte, kam jedes mal ein Fehler, ich solle es nochmals versuchen. Nach vergeblicher Klickerei schaute ich in der Löschliste nach und es standen nun 800 Urls drinnen (also so 80 verschiedene, allerdings 10x).
Bis auf einen Antrag (komisch, unterschied sich in keiner Weise von den anderen) wurden alle URLs gelöscht. Allerdings merkte ich, dass unsere SERPS ziemlich verrückt spiel(t)en und ungefähr die Hälfte der "richtigen" URLs (also ohne SIDs) sind auch verschwunden. Ebenso gab es im Ranking nochmals einen riesigen Schritt nach hinten.
Weiß da jemand mehr drüber? Ob Google solche Url-Löschung - zumindest im größeren Stile - (hart) abstraft?

Nach dem Löschen der URLs mit SID kamen neue (?) URLs mit SID in die SERPS (10-20). Allerdings bin ich mir ziemlich sicher, dass die Forensoftware seit geraumer Zeit keine SIDs mehr für google ausspuckt.
Ist es so, dass Google weitere gespiderte URLS mit SID "im Hinterkopf" hatte, welche durch die vielen doppelten Seiten in den SERPS dort allerdings nicht auftauchten, nachdem ich jetzt Platz gemacht habe, allerdings schon?
Das würde ja dann auch bedeuten, dass Google noch viele andere URLs mit SID im Hinterkopf hat, welche alle auf die richtige Seite führen und somit auch niemals gelöscht werden. Das könnte ja eine Abstrafung bedeuten, gegen die ich garnichts machen kann, wenn die URLS nicht im Index auftauchen, kann ich sie schließlich auch nicht löschen?

Oder sollte ich vielleicht die ganze Domain löschen aus dem Googleindex lösche und von vorne spidern lassen, oder würde das zu weiteren Abstrafungen führen?

Wurde etwas lang, würde mich umso mehr über hilfreiche Antworten freuen.

Gruß, Tim

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

twitch
PostRank 9
PostRank 9
Beiträge: 1222
Registriert: 09.04.2005, 14:01

Beitrag von twitch » 30.07.2007, 08:07

Oder sollte ich vielleicht die ganze Domain löschen aus dem Googleindex lösche und von vorne spidern lassen, oder würde das zu weiteren Abstrafungen führen?
dann dauert es viele Monate, bis du wieder in den SERPS bist...
gibt es in den Webmaster-Tools nicht neuerdings ein Kommunikationstool von Google? Wenn ja, dan frag doch mal nach... :-)

SEO - History, Tools, Videos, Downloads und mehr auf https://www.seo-ranking-tools.de/

suchsuchsuch
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 28.01.2007, 14:38

Beitrag von suchsuchsuch » 04.08.2007, 12:18

Hi twitch, schön dass mir du mir geantwortet hast. :)

Dieses Kommunikationstool funktioniert glabe ich nur einseitig, habe da keine passende Anlaufstelle zum Fragen gefunden.
Bei den Webmastertools steht, dass eine (Unter-)Seite mindestens 6 Monate nicht mehr indiziert wird, auch wenn sie gespidert wird, falls man sie gelöscht hat und keinen Antrag auf Reindizierung stellt.
Ich seh als letzten Ausweg die Möglichkeit, die ganze Seite zu löschen und dann die Indizierung der Seite wieder zu bentragen. Allerdings habe ich ein mulmiges Gefühl bei der Sache..

Habe letztens wieder Seiten mit Sids löschen lassen und es kamen schnell 1-2 Tage) andere Seiten mit Sid nach. Doch ich bin mir mittlerweile sehr sicher, dass keine neuen seiten mit SID gespidert werden. Es scheinen alte URLS mit SIDs zu sein, welche halt auch funktionieren und deswegen nicht von Google gelöscht werden. Würde ein "Disallow: /*?" in der robots.txt da helfen?
Und wenn ja, wie lang dauert das Ganze dann bis zur Entfernung aus dem Index ungefähr?

Würde mich über Antworten freuen, Gruß