Hm, irgendwie verstehe ich die Frage noch nicht wirklich. Was ist denn nun das Problem?
"Google Crawler erkennt meine robots.txt nicht": Wird der Zugriff verweigert, obwohl es so nicht sein soll? Oder greift Google drauf zu, obwohl es nicht so sein soll?
Wenn Dir die WMT "Durch robots.txt gesperrt Anzahl: 26" melden, dann klick da doch einfach mal drauf. Dann werden Dir auch die 26 Seiten angezeigt die durch die robots.txt gesperrt sind. Dann siehst Du ja ob es stimmt oder eben nicht
