IP gehört laut Whois zu Google.
Der Bot hat versucht die alten Urls, die von mir wieder unerwünscht in den Serps auftauchten, zu spidern.
Würde auch Sinn ergeben, warum bei so vielen Leuten wieder alte Urls auftauchen. --> Alte Urls rausholen und neuen Bot drüberjagen um den Index zu vergrösern.
Der prüft - ebenso wie "googlebot-urlconsole" - nur, ob Seiten noch existieren, die man versucht mit der URL-Console zu löschen.
Also kein Googlebot in dem Sinne, daß er zum Index beiträgt.
Java/1.4.2 ist nach wie vor im Einsatz. Bei mir ist er momentan auch wieder aktiv, obwohl ich mir nicht sicher bin, ob das Removal Tool überhaupt sinnvoll ist. (Bei einer Site-Abfrage tauchen plötzlich wieder alte Seiten auf, die ich schon einmal gelöscht hatte und die schon ewig nicht mehr existieren.)
"Mein" Java/1.4.2-Bot ist übrigens definitiv von Google, weil ausschließlich nach Seiten gefragt wird, deren Löschung ich beantragt habe.
mittlerweile ist für mich die Url Console gestorben, die Arbeit war umsonst und im Gegenteil, jetzt wo alte Seiten wieder hochgespült wurden kommt es dadurch zu duplicate content....toll. In Zukunft leite ich jetzt nur noch per 301 weiter. Das geht auch wirklich besser, entweder mit der .htacces oder eine Header Lösung. Der Vorteil liegt auch darin, das andere Sumas auch gleich mit aktualisiert werden.