Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seite aus dem Index entfernen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
dreg
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 05.12.2006, 09:54

Beitrag von dreg » 17.02.2007, 11:24

Hallo,
ich möchte eine Unterseite aus dem Google-Index entfernen.
Reicht das aus, wenn ich diese Seite in der robots.txt Datei unter Disallow eintrage?

Viele Grüße
dreg

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 17.02.2007, 11:33

Es reicht in Grunde genommen aus. Je nach dem wie oft Du Besuch von Googlebot bekommst, kann es eine Weile dauern bis diese Seiteninhalte aus dem Index verschwinden.
Wenn es dringend ist, könntest Du zusätzlich das "URL Removal Tool" von Google in Anspruch nehmen.

Gruß
Hasso

Datibesol
PostRank 3
PostRank 3
Beiträge: 96
Registriert: 22.01.2007, 00:03
Wohnort: Köln

Beitrag von Datibesol » 17.02.2007, 14:07

Wenn es wichtig ist (rechtliche Gründe o.ä.), dann solltest du zur Sicherheit:
- Unter der Seiten-URL nur noch einen 404 (not found) zurückgeben
- Anschließend das URL Removal Tool benutzen
In der Regel ist die Seite dann nach 24h draussen

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


muskelbody
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 03.10.2003, 18:08

Beitrag von muskelbody » 17.02.2007, 18:03

Datibesol hat geschrieben:
Unter der Seiten-URL nur noch einen 404 (not found) zurückgeben
- Anschließend das URL Removal Tool benutzen
In der Regel ist die Seite dann nach 24h draussen
wenn ich jetzt aber z.b. die linkstruktur etwas geändert habe, weil ich z.b. aus einem link wie details-123.html einen link wie text-123.html mache, wie ist dann das genaue vorgehen ?

könnte ich in der robots evtl. details****.html sperren ?

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 17.02.2007, 18:43

muskelbody hat geschrieben:wenn ich jetzt aber z.b. die linkstruktur etwas geändert habe, weil ich z.b. aus einem link wie details-123.html einen link wie text-123.html mache, wie ist dann das genaue vorgehen ?

könnte ich in der robots evtl. details****.html sperren ?
Warum solltest Du in diesem Fall etwas sperren? Du hast die URL umbenannt, bzw. alte Datei "details-123.html" auf´m Server gelöscht und die neue "text-123.html" hochgeladen.

Richte eine "301 Redirect Permanent" - Weiterleitung welche von der alten auf die neue Datei verweist in .htaccess ein.

Gruß
Hasso

muskelbody
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 03.10.2003, 18:08

Beitrag von muskelbody » 18.02.2007, 10:26

es geht hier aber um mehrere hundert dieser urls. die kann ich doch nicht alle mit 301 umleiten. oder ?

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 19.02.2007, 02:33

muskelbody hat geschrieben:es geht hier aber um mehrere hundert dieser urls. die kann ich doch nicht alle mit 301 umleiten. oder ?
Doch schon, je nach dem wie die alten und die neuen URL´s „konstruiert“ sind, kann man´s sogar mit wenigen Zeilen mithilfe der .htaccess -Datei schon realisieren.

Haben die alten und die neuen URL´s ein Muster über welches die eingeordnet werden können? Wie sehen Deine URL´s aus?

Gruß
Hasso

muskelbody
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 03.10.2003, 18:08

Beitrag von muskelbody » 19.02.2007, 07:52

die alten:

details-id.html (id = zahlenkombination)

die neuen:

titel-id.html (individueller seitentitel + id von oben)

muskelbody
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 03.10.2003, 18:08

Beitrag von muskelbody » 01.03.2007, 15:42

möchte das thema nochmal kurz aufgreifen, da ich noch keine lösung habe.

zusatzfrage hierzu:

ich hatte über eine livesuche dateien im stil von webkatalog-suchbegriff.html drin, aber da kam soviel mist, dass dies nicht mehr zu überwachen ist.

ich hab die weiterleitung in der htaccess jetzt gerade draussen, aber dann bekommt google nen 404 er.

was sollte ich hier tun ? und vor allem wie.

für alle hinweise dankbar.

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 01.03.2007, 15:48

muskelbody hat geschrieben:es geht hier aber um mehrere hundert dieser urls. die kann ich doch nicht alle mit 301 umleiten. oder ?
Grundsätzlich kannst Du beliebig viele Seiten umleiten, ist ggf. etwas Tipparbeit. :wink:
titel-id.html (individueller seitentitel + id von oben)
Da wird eine Automatik wohl versagen... :roll:

muskelbody
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 03.10.2003, 18:08

Beitrag von muskelbody » 01.03.2007, 18:50

das dachte ich mir.

hier müsste doch aber etwas machbar sein ? 404 oder 310 ?
webkatalog-suchbegriff.html

[btk]tobi
PostRank 8
PostRank 8
Beiträge: 890
Registriert: 11.10.2004, 05:02
Wohnort: Stuttgart

Beitrag von [btk]tobi » 01.03.2007, 19:29

Du könntest unter details-id.html eine Seite hochladen die den Titel zu der ID aus der DB ausliest und dann mit PHP auf die richtige URL per 301 weiterleiten.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag