Ich überlege, ob ich meine Webseite www.meineseite.net über die webmastertools entfernen lasse. Also die gesamte Seite. Vielleicht werde ich so ja mal den https://www.meineseite.net Eintrag ganz los.
Wenn ich das tue, da steht, daß die Seite dann 90 Tage lang mindestens raus ist. Ganz egal, ob ich per robots.txt das crawlen wieder gestatte?
Oder wie ist das, muss ich mindestens 90 Tage warten, bis die Seite wieder aufgenommen werden kann?
Und wenn ich dann aber die Funktion, Webseite wieder aufnehmen mache, würde dann die falsche https:// Webseite auch wieder mitaufgenommen werden? Weil dann ginge es ja schneller mit der Wiederaufnahme insgesamt. Da müsste ich nicht 90 tage warten. 90 tage sind ne lange Zeit!
Und was ist mit dem PR, geht der verloren, wenn ich die Seite komplett entfernen lasse? Und bekomme ich den wieder, wenn ja?
Ist schon ne schwierige Überlegung, aber viel schlechter als jetzt kann die Seite bald nicht mehr gerankt werden.
LG Daniela[/url]
Zuletzt geändert von DaniP1976 am 28.07.2009, 14:43, insgesamt 1-mal geändert.
DaniP1976, kann es sein das du bissel Ungeduldig bist? Ich hab mir manchmal auch gewünscht Google würde schneller reagieren aber Google ist es egal ob einer ein Problem hat, Google ist eine Maschine die eben Zeit braucht und bei der Änderungen Tage/Wochen und manchmal Monate dauern und dann sogar nach Monaten wieder alte Seiten und Probleme wieder auftauchen können.
Bevor du nun unüberlegte Schritte gehst wie Webseite komplett entfernen aus dem Index. Lass doch Google erstmal Zeit die neuen Gegebenheiten zu erfassen und diese umzusetzen und das braucht Zeit. Wenn ich mich recht entsinne ist nichtmal ne Woche oder 2 um nachdem du die robots.txt usw. angelegt hast für die https://
Geduld ist angesagt. Ich weiss ist leicht dahergesagt immerhin geht Geld flöten.
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! | -------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}
Geduld ist nicht meine Stärke. Wenn ich wüsste, das sich das problem lösen würde, wäre ich geduldig. Aber leider glaube ich nicht, daß es sich von alleine mit abwarten lösen lässt.
Die Seite wird am Montag nochmal nach möglichen Absturzquellen inspiziert. Wenn sich da aber nichts findet, werde ich klären, ob ich die Seiten löschen lasse. So zumindest gehts nicht weiter.
Bitte nicht für jeden neuen Gedankengang einen neuen Thread aufmachen.
Du hast den 301er ganz offensichtlich über die index.php gemacht. Wie soll Google die aber finden, wenn Du die Seite über die robots.txt komplett auf disallow setzt? Aber egal, der DC verschwindet so auch (jedenfalls früher oder später).
Das bringt Dir aber nur das gewünschte Ergebnis, wenn der Absturz am DC liegen würde. Das hätte ich schon im Mai nicht geglaubt. Im Juni glaube ich es erst recht nicht.
ich verstehe nicht was du meinst, über die Index.php habe ich AUCH eine 301er gemacht. Und wenn ic die https:// nicht auf disallow setze wie soll google sonst verstehen, daß er die https:// nicht indexieren soll?
Das mit früher oder später ist eben die Sache, ich habe Domains, da ist der Inhalt nach Jahren noch nicht aus dem Index... ein Rest bleibt irgendwie immer.
Ich glaube auch nicht, daß es am DC läge, aber wenn google wirklich die https:// Domain als meine Startseite interpretiert, kann die kaum gelistet sein, ich meine die Backlinks hat nur die http:// Seite, aber nicht die https:// Seite.