Seite 1 von 1

Dashboard - alte Daten

Verfasst: 28.07.2009, 09:47
von Madraxx
Hallo,

im Dashboard hat er 300 URLs die er nicht erreichen kann, dass sind die kompletten Seiten meiner uralten Seite bevor ich Joomla genutzt habe.

Kann man das irgendwie Tante Google sagen, dass dies schon lang nicht aktuell ist oder nen reset machen ?

Mad

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 28.07.2009, 11:59
von loody
reset:www.domain.tld und dann den Suchbutton länger als 10sek drücken..danach ist alles wie am anfang

Verfasst: 28.07.2009, 15:02
von bennos
:lol:

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 29.07.2009, 00:17
von Madraxx
ihr wollt mich ärgern???

Verfasst: 29.07.2009, 00:26
von r-alf
Ich habe auch noch einen guten Vorschlag! Geh auf die Comandooberfläche und gebe ein:

cd: www.google.tld >Enter
del: www.domain.tld >Enter

Zum Überprüfen:
Dir: www.google.tld >Enter

:lol:

Verfasst: 29.07.2009, 04:08
von bennos
@madraxx
nein wir wollen dich nicht ärgern.
1. sollte es des nicht jucken das da die alten URL als Fehler auftauchen.
2. Über die Suche hättest du herausgefunden das es mit mod_rewrite Möglichkeiten gibt im Header einen statuscode auszugeben wie 301 für moved permanent.

Verfasst: 29.07.2009, 08:53
von xoni
1. sollte es des nicht jucken das da die alten URL als Fehler auftauchen.
nun ja, wenn sich die Seiten noch im Index befinden und mitunter wertvolle
Backlinks besitzen, sollte man schon handeln.
Der Hinweis auf modrewrite ist hier also wertvoll und sollte beachtet werden.
Beispiele wie das funktioniert, findest Du hier im Forum genug, ansonsten hier ein kleiner Einstieg...

https://sw-guide.de/webdesign-und-entwi ... -und-blog/

Verfasst: 29.07.2009, 09:02
von ErwinRommel
Die nicht erreichbaren Seiten über die robots.txt sperren und dann über die Google Webmasterkonsole manuell ausschließen. Dann sind die ruckzuck raus und du hast Ruhe.