Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Loeschen von URLs aus Google Index: seit 25.10.: wird bearb.

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 09.11.2005, 18:16

Nein, das waren statische Seiten.

Wie der aktuelle Stand in Hinblick auf * in der robots.txt ist, weiss ich nicht. Fakt ist, dass Google diese Parameter beachtet (benutze ich bei mir im Blog / Forum und funktioniert wunderbar). Frueher war es aber so, dass der * von der URL Console bemaengelt wurde. Ich meine aber zu erinneren, dass Wildcards mittlerweile auch von der URL Console unterstuetzt werden. Dahingehend kann ich mich aber auch irren.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Milando
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 17.02.2005, 17:12

Beitrag von Milando » 09.11.2005, 19:18

... das ist keine dubiose Fehlermeldung ... die Fehlermeldung besagt, daß das löschen mittles Wildcards nicht möglich ist. Nachdem ich den Wildcardeintrag rausgenommen hab, gings.

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 19:31

Milando hat geschrieben:... das ist keine dubiose Fehlermeldung ...
doch, ist dubios, da google selber auf http;//www.google.de/webmasters/remove.html schreibt:

Code: Alles auswählen

Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:
User-agent: Googlebot
Disallow: /*?
warum schreiben die das, wenn es dann doch nicht geht und ne fehlermeldung zurückgegeben wird?!?

gruß,
blinks

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 09.11.2005, 19:32

@blinks: Das ist ja das Problem. Der Bot unterstuetzt Wildcards... die URL Console nicht ... :roll:

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 19:37

komisches ding... ich raff diese art von logik net :o

linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 09.11.2005, 20:18

servus,

ich hatte das schon mal gepostet. ich habe 400.000 seiten entfernen wollen die unter domain/p und domain/c lagen. ich habe das mit der konsole und der robots.txt gemacht.
User-agent: *
Disallow: /p/shop/
Disallow: /p/bewerten/

Disallow: /c/
Disallow: /p/

und er hat sie gelöscht, aber in wieweit denn

https://www.google.de/search?q=site:www ... rt=10&sa=N

zeigt 13 seiten im index aber er hat noch 389.000 seiten gefunden

ergo er zeigt sie nicht an im index hat sie aber noch mal sehen wie das weitergeht.

es kommt aber noch besser, der googlebot holt sich nun wieder seiten die unter /p/ liegen denn ich muß ja redirecten für die anderen sumas!!

dem googlebot ist die robots.txt egal und das remove tool löscht nicht sondern die seiten werden nur offline gestellt. und ich frage mich nun ist es für google dc wenn ich nun alles unter anderen verzeichnissen neu einspiele?



gruß

linux

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 10.11.2005, 12:50

Chris2005 hat geschrieben:Ich meine aber zu erinneren, dass Wildcards mittlerweile auch von der URL Console unterstuetzt werden. Dahingehend kann ich mich aber auch irren.
habs gerade eben nochmal probiert... geht immer noch nicht... :-?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag