Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL-Console - alte Links sollen raus

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Steffi
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 06.12.2004, 03:43

Beitrag von Steffi » 13.07.2005, 14:52

Hallo,

habe letzte Woche Freitag mal so etwas 10 alte dynamsiche Urls, die nicht mehr erreichbar sind jedoch in der Serps noch erscheinen direkt in die Console eingtragen.

Nun stehen die Anforderungen als "wird bearbeitet". Google schreibt das sie solche Anforderungen in der Regel innerhalb von 24 Stunden bearbeiten wollen. Naja und nun ist es bald ne Woche... :roll:

Hat jemand Erfahrungen dazu?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 13.07.2005, 15:45

klappt eigentlich, trag die noch mal in die robots.txt wenn es nur 10 sind, und prüfe ob wirklich nen 404 kommt.

robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 13.07.2005, 15:47

Ich hatte das auch schon, dass es eine Woche dauerte ... hab etwas Geduld.

cu, Robo :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Steffi
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 06.12.2004, 03:43

Beitrag von Steffi » 13.07.2005, 18:24

@axelm

habe erstmal nur etwa 10 zum probieren eingetragen, wenns klappt werdens noch einige mehr.

Das sind alles alte Urls, die seit meiner mod-rewrite Umstellung nicht mehr erreichbar sind. Daher wäre es sehr aufwendig die robots.txt zu nutzen...

Trotzdem Danke!

@robo

Ja, Geduld scheint da wieder mal nützlich zu sein, wie immer. :P

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 14.07.2005, 09:06

>Daher wäre es sehr aufwendig die robots.txt zu nutzen...

Ok, wenn du nächtes mal weißt dass deine URLs bald nicht mehr gehen, probier mal folgendes:
Xenu Link checker durchlaufen lassen
https://www.usability-now.com/tools/link-checker/
Report abwarten und alle Toten URLs aus dem Report in die Robots.txt packen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag