Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

php Datei mit "Anhang" in Webmaster Tools entferne

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
ixvor
PostRank 3
PostRank 3
Beiträge: 99
Registriert: 30.03.2007, 05:59

Beitrag von ixvor » 07.03.2011, 08:36

Hallo zusammen,

folgendes Problem: nach dem Upgrade einer meiner Seiten habe ich vergessen die robots.txt wieder hochzuladen. Nun sind ca. 20.000 "Seiten" nicht erreichbar. Es handelt sich um die attachment.php. Dies liegt daran, dass man diese Datei nur "erreicht", wenn man angemeldet ist.

Natürlich will ich diese Crawling Fehler wieder in den Griff bekommen und habe die attachment.php per robots.txt wieder gesperrt. Da das wohl ne ganze Weile dauern wird bis Google dies kapiert, habe ich einen Antrag auf Löschung der URL gestellt.

Die URLs sehen folgendermaßen aus: https://......./attachment.php?id...

Der Löschantrag sah so aus: ".../attachment.php*".

Leider hat dies nicht funktioniert.

Gibt es eine möglichkeit alle 20000 "Seiten" durch irgend ein "Anhängsel" aus dem index zu entfernen?


Vielen Dank!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


expansioN
PostRank 5
PostRank 5
Beiträge: 252
Registriert: 17.06.2010, 12:22

Beitrag von expansioN » 07.03.2011, 10:22

Natürlich will ich diese Crawling Fehler wieder in den Griff bekommen und habe die attachment.php per robots.txt wieder gesperrt. Da das wohl ne ganze Weile dauern wird bis Google dies kapiert,...
Gibt es eine möglichkeit alle 20000 "Seiten" durch irgend ein "Anhängsel" aus dem index zu entfernen?
Anhängsel nein, warten ja. Die Antwort hast du dir ja selber gegeben. :)

ixvor
PostRank 3
PostRank 3
Beiträge: 99
Registriert: 30.03.2007, 05:59

Beitrag von ixvor » 07.03.2011, 11:55

Alles klar, danke :)

querschlaeger
PostRank 3
PostRank 3
Beiträge: 99
Registriert: 07.04.2009, 00:18

Beitrag von querschlaeger » 07.03.2011, 12:49

Kann aber sehr lange dauern und der Bot scheint auch nicht wirklich "richtig" zu vergessen. Bei mir will der Bot auf URLs zugreifen, welche ich seit 5 Jahren(!) per robots.txt gesperrt habe (vorher kannte er sie leider 1-2 Wochen lang und indizierte auch fleißig).
Genauso verhält es sich mit 404-Fehlern. Obwohl eine bestimmte URL eindeutig nicht mehr verfügbar (und auch nirgends [auch extern] verlinkt) ist, schaut der Bot trotzdem jede Woche mal drauf.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag