Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Viele alte Seite im Google Cache - was mach ich damit?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
bakanahito
PostRank 2
PostRank 2
Beiträge: 60
Registriert: 21.09.2006, 14:13
Wohnort: München

Beitrag von bakanahito » 24.10.2006, 17:02

Hallo zusammen, ich habe vor einigen Monaten eine Seite übernommen, die in google anscheinend im Februar diesen Jahres ganz gut vertreten war. Ich habe komplett neue Inhalte auf die Site gestellt, da der Vorgänger wohl eher ein Spammer war. Na ja, wie dem auch sei, im Google Index sind immer noch so an die tausend Seiten vom Februar im Cache von google. Meine Frage ist nun, was mache ich denn da? Momentan führt ein Klick auf einen der Links auf meine Startseite. Kann ich etwas unternehmen, dass die alten URLs nicht mehr im Index auftauchen und dafür meine aktuellen aufgeführ werden? Wie würdet Ihr denn vorgehen? würde mich über ein paar Ratschläge freuen! Vielen Dank schon mal

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 24.10.2006, 17:10

Das machst Du z.B. über die robots.txt - guck mal hier.

Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 24.10.2006, 17:12

Gibt's mehrere:

- Ausschluß über robots.txt
- 301er auf eine existierende Seite
- Abwarten

Und in allen 3 Fällen brauchst du Geduld. Gibt noch die URL Console für die ganz Ungeduldigen, aber davon würde ich dringendst abraten, wenn man nicht ganz genau weiß, was man tut!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

bakanahito
PostRank 2
PostRank 2
Beiträge: 60
Registriert: 21.09.2006, 14:13
Wohnort: München

Beitrag von bakanahito » 24.10.2006, 17:49

Ausschluss über die robots.txt wäre wirklich etwas Arbeit, da über 1000 Listings ausgeschlossen werden müssten. Merkt google das eigentlich nicht mit der Zeit selber? Bzw. kann ich mir einen Vorteil verschaffen, wenn ich die Seiten entferne oder per 301 weiterleite? Die existierenden Seiten sind eigentlich nur Spam und haben meiner Meinung nach keinerlei Relevanz.

Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 24.10.2006, 20:23

Wenn die Seiten einen sauberen 404er senden, merkt das Google auch irgendwann selbst, ja. Ist aber die Variante, die meist am Längsten dauert.

Mamboo
PostRank 8
PostRank 8
Beiträge: 823
Registriert: 16.02.2006, 14:25

Beitrag von Mamboo » 25.10.2006, 00:24

Wenn es zu viele Seiten sind, benutzt du am besten .htaccess

Erstelle eine 404 Seite, füge ins MetaTag robots noindex nofollow ein und warte es ab, bis die Seiten aus dem Googie-Cache verschwunden sind.

Metatags:

Code: Alles auswählen

<meta name="robots" content="noindex,nofollow"> bei xhtml />
.htaccess:

Code: Alles auswählen

ErrorDocument 404 /fehler/404.html
{->} Meiner Favoriten für SEO-Massnahmen: {<-}
Webkatalog -> Web-Ranking Directory
Artikelverzeichnis -> OA-News & PR-Portal
Social News & Bookmark -> reddit.com: what's new online!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag