Hallo, und zwar habe ich die Suche benutzt und nichts gefunden und nun bitte ich um etwas hilfe.
Problem ist folgendes ich hab ne gute seite mit ca 3000 Internen Links, Sprich Themen, google hat davon nur 1500 Indexiert. Aber jetzt kommt der fehler, Ich hatte leider sehr oft experimentiert und öfters mal die Links bearbeitet aus =p-21 =beitrag-21 usw...
Aber kein 301 Rediect reingepackt, weil es nur ein Paar tage drinne war, in der zeit muss google meine seite besucht haben und die bearbeiteten Links genommen haben, jetzt heissen meine links =Beitrag-von-fred-21
So nun das desaster :
Kategorie:
Fehler für URLs in XML-Sitemaps ‎(52)‎
HTTP-Fehler ‎(0)‎
Nicht aufgerufene URLs ‎(28)‎ Nicht erreichbare URLs ‎(1.385)‎ Nicht gefunden ‎(948)‎
URLs durch robots.txt eingeschränkt ‎(0)‎
Zeitüberschreitung beim Aufrufen von URLs ‎(342)‎
Jetzt brauche ich eure hilfe, ich hab leider noch nirgends was von gelesen :
Ich würde gerne, das der GoogleBot alle meine Links neu Crawlt meine alten funktionierenden Links drinne läst und sich meine Platzierungen nicht sehr stark verschlechtern, wie geht das. Ich wäre über jede antwort sehr glücklich