Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seite aus Google Index entfernen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Balboa
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 08.02.2005, 14:09

Beitrag von Balboa » 25.11.2005, 08:19

Ich will einige Teile meiner Seite aus dem google index nehmen. Auf google steht, dass man dies am besten mit der robots.txt macht.
Ich habe jetzt die Seiten die nicht mehr gelistet werden sollen in die robots.txt geschrieben und folgendes ist passiert:

Die Beschreibung der Seite wird nicht mehr in google angezeigt, den link gibt es aber immer noch.

Bsp.:

vorher:
NameDerSeite
Beschreibung der Seite
www.domain.com/seite.html

nachher:
www.domain.com/seite.html

Wieso wird der link nicht aus dem google index gelöscht oder dauert es etwas bis die Seite nicht mehr erscheint? Ich warte schon ca 3 Wochen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 25.11.2005, 09:41

Ist bei mir genau so. Google hält sich eben nicht an den Exclusion Standard.
Diese Ebay Links sind sogar mit Beschreibung und Title drin:
cgi.ebay.de/ws/eBayISAPI.dll?ViewItem& item...

Ist alles bei Ebay in der robots.txt gesperrt. Kümmert sich Google nicht drum.

Red Bull
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 03.11.2005, 09:45
Wohnort: Mannheim

Beitrag von Red Bull » 25.11.2005, 09:42

Morsche,

früher hat das ein paar Tage gedauert und jetzt warte ich auch schon seit Wochen drauf. Hat vielleicht irgendwas mit dem Jagger Update zu tun, dass die das im Moment nicht berücksichtigen. Einfach noch etwas warten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


1azrael
PostRank 7
PostRank 7
Beiträge: 588
Registriert: 04.06.2004, 15:21

Beitrag von 1azrael » 25.11.2005, 10:56

Ich hab zu der Bedienung der Console mal ne Frage. Kann ich da jede beliebeige Seite löschen lassen? Oder wird die Seite wirklich nur dann gelöscht wenn die Seite nicht mehr gefunden wird also definitiv nicht mehr auf dem Server liegt?

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 25.11.2005, 11:35

Balboa hat geschrieben:Ich will einige Teile meiner Seite aus dem google index nehmen. Auf google steht, dass man dies am besten mit der robots.txt macht.
Du musst die robots.txt noch zusätzlich der urlconsole melden.
https://services.google.com:8882/urlconsole/controller
Option:"Löschen Sie Seiten, Unterverzeichnisse oder Bilder mithilfe einer robots.txt-Datei. "

Innerhalb 12-48h sind Deine Einträge dann für 6 Monate aus dem Google Index.

Gruss

tron
PostRank 8
PostRank 8
Beiträge: 862
Registriert: 16.09.2003, 13:56
Wohnort: HUHU

Beitrag von tron » 25.11.2005, 11:40

Fridaynite hat geschrieben:Ist bei mir genau so. Google hält sich eben nicht an den Exclusion Standard.
Diese Ebay Links sind sogar mit Beschreibung und Title drin:
cgi.ebay.de/ws/eBayISAPI.dll?ViewItem& item...

Ist alles bei Ebay in der robots.txt gesperrt. Kümmert sich Google nicht drum.

https://cgi.ebay.de/robots.txt

ich seh kein dissallow fuer google?

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 25.11.2005, 18:55

tron hat geschrieben:
https://cgi.ebay.de/robots.txt

ich seh kein dissallow fuer google?
edit: hab ich nicht gesehen, dass die erste Zeile da drin steht. sorry.
Könnte schwören, dass das gestern noch nicht so war.

Mit dieser robots.txt ist jedem bot verboten da reinzugehen.
siehe hier: https://www.robotstxt.org/wc/exclusion.html#robotstxt

1azrael
PostRank 7
PostRank 7
Beiträge: 588
Registriert: 04.06.2004, 15:21

Beitrag von 1azrael » 12.12.2005, 19:46

Kann es sein das google durch die Rauten den Befehl für Disallow ignoriert?

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 15.12.2005, 14:42

Rauten zeichnen Kommentare aus. Kommentare werden natürlich nicht als Disallow oder sonstigen Befehl erkannt. Da hat Ebay mal was getestet und es wiederrum im Moment deaktiviert.
Ich kaufe Dein Forum!
Kontaktdaten

1azrael
PostRank 7
PostRank 7
Beiträge: 588
Registriert: 04.06.2004, 15:21

Beitrag von 1azrael » 15.12.2005, 15:05

Genau. Das Wort war mir nur entfallen.

Heisst ja dann wohl das zur Zeit Google bis auf die paar Unterordner alles wieder indexieren darf.

Aber was wäre, wenn Google die robots.txt nicht beachten würde, dann wäre es möglich jede Seite zu löschen ohne eine Kontrolle zu haben wer diesen Antrag gestellt hat oder nicht?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag