Seite 1 von 1

robots.txt zu lang

Verfasst: 06.03.2007, 08:57
von NetLook
Hallo!

Ich wollte gerade hier https://services.google.com/urlconsole/ ... tcmd=login mit einer robots.txt fehlerhafte URLs entfernen. Nach der eingabe kam die Meldung:
Die Datei robots.txt ist zu lang. Schicken Sie eine E-Mail an url-remove@google.com, um Hilfe zu erhalten!
Das habe ich getan und als Antwort kam, das ich das Kontaktformular unter https://www.google.com/support/ verwenden soll. Dort kann ich aber keins finden?!

1. Weis jemand wie man das Problem mit einer zu langen robots.txt lösen kann?

2. Seht ihr dort ein Kontaktformular?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 07.03.2007, 14:15
von Kralle
Google unterstützt auch Wildcards in der robots.txt

Verfasst: 07.03.2007, 17:32
von NetLook
Ja stimmt, hab jetzt aber einfach immer 70 Fehler URLs eingefügt, eingetragen, dann die nächten 70 usw. Etwas primitiv, aber hat den Zweck erfüllt ;-)

Verfasst: 07.03.2007, 20:09
von Mamboo
Achtung: Die Nutzung von Wildcards ist eigentlich nicht im Standard für die robots.txt vorgesehen und wird von anderen Suchmaschinen wohl (leider) nicht unterstützt.

Verfasst: 07.03.2007, 20:37
von Kralle
Mamboo hat geschrieben:Achtung: Die Nutzung von Wildcards ist eigentlich nicht im Standard für die robots.txt vorgesehen und wird von anderen Suchmaschinen wohl (leider) nicht unterstützt.
Für den temporären Einsatz für die URL-Console erfüllen sie aber ihren Zweck :wink:

Verfasst: 07.03.2007, 23:16
von bbnetch
haben sie das endlich repariert ?
das gieng bei mir nie mit platzhalter :cry:

Verfasst: 07.03.2007, 23:32
von Kralle
Puh, keine Ahnung, weiß nur daß Google das offiziell unterstützt. Meine robots.txt (wie ist die Mehrzahl davon?) setzen das nicht ein. Mein letzter Stand war aber wohl daß es funktioniert.