Die Lösung: Der Robot durchsucht ja immer ein nicht vorhandenes Verzeichnis und ignoriert den 301. Deswegen verbietet man dem Robot in der robot.txt das indizieren des Verzeichnisses.
Hi, leider spamt mir Google derzeit das Errorlog voll. Es versucht Seiten aufzurufen, die nicht mehr existieren. Die IP auszusperren hate ich vorerst für eine schlechte Idee. Hat jemand das einmal erlebt? Was macht man dagegen? Thu Jun 1 03:18:14 2006] [error]...