Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

löschen über konsole... nun ein gag voller bugs?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 10.12.2005, 12:58

hi,

ich habe mich in der vergangenen zeit mit dem löschen von seiten via lösch-konsole beschäftigt. gerade schaue ich in meinen aktuellen auftrag und er ist als 'abgeschlossen' markiert. da freue ich mich, denn es sind genau 100 überflüssige seiten (mehr darf man nicht auf einmal löschen) aus dem index gelöscht worden... denkste! die anzahl der seiten im index ist immer noch exakt die gleiche, wie vor dem löschen der seiten. naja, dem wollte ich dann später mal nachgehen und habe erstmal die nächste ladung von wieder 100 (anderen) seiten in die robots.txt geladen und wollte einen neunen löschauftrag starten: geht nicht, weil der löschauftrag schon bearbeitet wird?!? absolut unmöglich, es sind zwar wieder 100 seiten der gleichen domain, aber definitv ANDERE seiten... bin ich zu dämlich dieses tool zu benutzen oder ist das ding einfach buggy und simuliert nur eine löschung, damit die webmaster und seos was zu löschen haben und beschäftigt sind? ich blick das nicht so richtig. wie ist das denn bei euch? klappts immer so wie ihr wollt? auch wenn ihr mehrere hundert seiten löschen wollt? und werden dann nach erfolgreicher löschung tatsächlich weniger seiten der jeweiligen domain im index angezeigt als vorher?

gruß,
blinks

ps: gibts eigendlich eine maximalgröße der robots.txt? (editiert...)
Zuletzt geändert von blinks am 10.12.2005, 13:18, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

marquis
PostRank 6
PostRank 6
Beiträge: 391
Registriert: 10.06.2003, 13:30
Wohnort: NRW, Deutschland

Beitrag von marquis » 10.12.2005, 13:13

@midestgröße der robots.txt?

Du meinst wohl maximale grösse ?!? max. wäre mir nicht bekannt.

@konsole
bei mir funktioniert diese einwandfrei...

ferndiagnose wie immer schwierig...

bg
m

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 10.12.2005, 13:17

marquis hat geschrieben:@midestgröße der robots.txt?

Du meinst wohl maximale grösse ?!? max. wäre mir nicht bekannt.

@konsole
bei mir funktioniert diese einwandfrei...

ferndiagnose wie immer schwierig...

bg
m
maximale größe... sciher ;)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Phillux
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 26.11.2005, 15:36

Beitrag von Phillux » 10.12.2005, 14:03

Habe auch das Löschtool bemüht, um ca. 50 alte Seite zu löschen, die es seit 2 Monaten nicht mehr gibt und eindeutig nen 404er zurückgeben. Seit heute lt. dem Tool auch bearbeitet. Das schöne ist, dass jetzt 50 neue (alte) Links zu nen 404er drin sind. Alle schön mit ner PHPSESSID. Das macht Freude...

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 10.12.2005, 16:18

Zur robots.txt:

Gelegentlich ist zu lesen, dass manche Sumas Probleme mit robots.txt-Dateien haben sollen, die größer als 1-2 kb sind. Ob das noch aktuell ist, weiß ich nicht.

Zum Google-Removal-Tool:

Das Ding sollte besser in Webmaster-Verarschungs-Tool umbenannt werden: Für ein paar Monate werden damit gelöschte Seiten tatsächlich (oder besser gesagt: scheinbar) aus dem Index entfernt.
Dann tauchen sie plötzlich wieder auf, wohlgemerkt mit Description - obwohl es die Seiten seit Monaten nicht mehr gibt! -, und produzieren über irregeführte Besucher hübsch 404er. Ich werde das Ding definitiv nicht mehr verwenden. Mir ist mittlerweile egal, welche existierenden oder nicht existierenden Seiten meiner Webpräsenz Google in seinem Index hat. Ich weiß meine Zeit besser zu nutzen als sie mit der Konsole zu verplempern.

Schönes Wochenende!
Hobby-SEO

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 10.12.2005, 16:35

Phillux hat geschrieben:Das schöne ist, dass jetzt 50 neue (alte) Links zu nen 404er drin sind. Alle schön mit ner PHPSESSID. Das macht Freude...
yap, genau das ist auch mein problem... früher war das übrigens nicht so... PHPSESSID wurde immer schön abgeschnitten. nunja, mittlerweile sind auch statische seiten im index, die in der robots.txt disallowed sind... warum kann ichmir nicht erklären :roll:
Hobby-SEO hat geschrieben:Mir ist mittlerweile egal, welche existierenden oder nicht existierenden Seiten meiner Webpräsenz Google in seinem Index hat.
naja, abgesehen von dem schönen traffic der dadurch verpufft, erzeugen alte seiten, die doppelt drinnen sind auch DC... mir ist es nicht so ganz egal, und ich denke, dass wenn so ein removal-tool zur verfügung gestellt wird, dieses auch 100%ig funktionieren sollte und löschen auch WRIKLICH löschen bedeutet...

gruß,
blinks

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 10.12.2005, 17:49

blinks hat geschrieben:naja, abgesehen von dem schönen traffic der dadurch verpufft, erzeugen alte seiten, die doppelt drinnen sind auch DC... mir ist es nicht so ganz egal, und ich denke, dass wenn so ein removal-tool zur verfügung gestellt wird, dieses auch 100%ig funktionieren sollte und löschen auch WRIKLICH löschen bedeutet...
1. Ja, sollte funktionieren. Tut es aber nicht. Deshalb ist das Removal Tool reine Zeitverschwendung.

2. Hübsche Fehlermeldungsseite mit weiterführenden Links erstellen und in die .htaccess folgende Zeile reinschreiben:

ErrorDocument 404 /404.htm

(Statt 404.htm halt den Namen der Fehlermeldungssseite reinsetzen und in dieser am besten noch ein <meta name="robots" content="noindex, nofollow, noarchive"> einbauen.)

3. Doppelter Content mit negativen Konsequenzen aufgrund von Seiten, die es seit Monaten gar nicht gibt und deren Aufruf immer nur einen 404er oder gar 410er provoziert? Kann ich mir ehrlich gesagt nur schwer vorstellen. Wäre aber ganz fraglos ein nettes Google-Feature. :roll: Nur keine Panik, bis das Gegenteil bewiesen ist! Lerne damit zu leben, dass Du über die site-Abfrage auch viel Schrott zu sehen bekommst.

LG, Hobby-SEO

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag