Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Loeschen von URLs aus Google Index: seit 25.10.: wird bearb.

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 01.11.2005, 08:21

Ich hatte gestern eine komplette Domain zum löschen freigegeben. Diese ist heute mit samt allen Unterseiten schon aus dem Index gelöscht.

Man, dass geht ja schnell
in 180 Tagen ist sie wieder drin, vor 3 Tagen hat google eine alte url von mir wieder reaktiviert, mit PR und Pos. 1 bei manchen Keys, allerdings gibt es den Inhalt von damals garnicht mehr.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 01.11.2005, 10:45

Die Konsole unterstuetzt uebrigens NICHT das Loeschen von https:// Seiten (wobei es sich ja eher um die gleiche Seite wie die http, aber eben um ein anderes Protokoll handelt) - etwas armselig ist das schon ;)
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 01.11.2005, 11:03

Airport1 hat geschrieben:Hm, mit der robots.txt wollt ichs nich versuchen
Hättest Du es mal mit der robots.txt gelöst, dann wären die URLs innerhalb weniger Stunden aus dem Index gelöscht gewesen!!

Und jetzt überleg mal ganz scharf, warum die Option "Löschen Sie einen veralteten Link" ca. 5-7 Tage dauert!

Gruss

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 01.11.2005, 11:30

Die robots.txt kann sehr gefaehrlich sein, je nachdem wie sie interpretiert wird. Google hat ja den robots.txt "Standard" etwas aufgebohrt, laesst jedoch im Unklaren ob es moeglich ist nur page.php?hase=huepf rauszuwerfen, und wenn ja wie muss ich das in der robots.txt angeben, er soll aber NICHT die page.php rauswerfen... weisst Du es [mir ist das echt zu riskant, angesichts der Probleme die Google sonst so hat trau ich denen noch einige Fehler mehr zu..]? Ansonsten widerspricht sich Google recht gut, denn auf der Seite steht mal was von 24h, dann von 48h, dann von 5-7 Tagen. Wer soll da noch durchblicken ;) Und einige berichten von einigen Wochen..
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 01.11.2005, 12:09

page.php?hase=huepf kann man die Seite noch aufrufen oder bekommt google ein 404 / 410 geliefert? Wenn man die Seite noch aufrufen kann wird es ewig dauern.

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 01.11.2005, 12:47

Bekommt fuer page.php?hase=huepf ein 404 geliefert, fuer page.php ein 200.
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

reichardt
PostRank 2
PostRank 2
Beiträge: 49
Registriert: 26.03.2005, 18:17

Beitrag von reichardt » 03.11.2005, 00:14

Kann man die DOmain dann wieder anmelden und wird sie auch wieder aufgenommen oder ist die Löschung "für immer"?

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 03.11.2005, 09:01

Airport1 hat geschrieben:Ansonsten widerspricht sich Google recht gut
wahre worte!

wollte gerade per robots.txt seiten löschen und erhalte folgede fehlermeldung von google:

Code: Alles auswählen

URLs dürfen keine Platzhalter enthalten (z.B. „*“). Die folgende Zeile enthält einen Platzhalter:
DISALLOW /*?

...

Um fortfahren zu können, müssen Sie eine robots.txt-Datei erstellen. Wenn Sie dies noch nicht getan haben, informieren Sie sich auf der Seite URL löschen über die Vorgehensweise.
auf der seite 'URL löschen' steht jedoch:

Code: Alles auswählen

Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:
User-agent: Googlebot
Disallow: /*?
hää?!?

gruß,
blinks

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 16:50

sorry, aber das hier würde ich gerne nochmal anschieben.... kann man nun dynamische seiten mittels

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*?
löschen oder doch nicht. G selber macht da ja zwei unterschiedliche aussagen (siehe voriges posting...) :roll: - hat das bei einem von euch schon geklappt?

danke und gruß,
der blinks :D

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 09.11.2005, 17:25

löschen oder doch nicht. G selber macht da ja zwei unterschiedliche aussagen (siehe voriges posting...) - hat das bei einem von euch schon geklappt?
ja das geht, aber nicht mit dem removetool, einfach in die robots.txt einfügen und warten, dauert aber 2-3 Wochen mindestens.

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 17:28

ok, danke... dann werde ich mal abwarten...

Bogomir
PostRank 2
PostRank 2
Beiträge: 61
Registriert: 07.11.2005, 12:51

Beitrag von Bogomir » 09.11.2005, 17:45

Hallo,

unter https://services.google.com/urlconsole/controller gibt es die Möglichkeit, Links innerhalb 24 Stunden entfernen zu lassen. Hierzu gibst Du einfach den Link zur robots.txt an. Hat bei mir 100% geklappt. Leider ist die Seite zur Zeit bei mir nicht erreichbar. Gefunden hab ich den Link auf der Google-Seite
https://www.google.de/webmasters/remove.html .

mfg
Bogomir

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 17:52

ja, das ding kenn ich (siehe oben)... habe aber nur eine widerprüchliche fehlermeldung bekommen... :-?

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 09.11.2005, 18:05

Ich habe kuerzlich einige Dateien per robots.txt loeschen lassen. Das war innerhalb von 2 Tagen erledigt.

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 18:11

hast du auch dynamische dateien per Disallow: /*? löschen lassen? da kommt bei mir nämlich, wie schon gesagt ;) , eine dubiose fehlermeldung... :roll:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag