Ist noch nicht lange her, da hatte ich selber mal die Validität mit einem Tool geprüft und dabei kamen viele Fehler raus. Hab das dann gleich als einen wichtigen Punkt aufgenommen die zu beseitigen.
Da hast du natürlich Recht das irgendwas irgendwo nicht so richtig funktioniert. Und das muß gefunden und beseitigt werden. Denn was nützt es, wenn alles funktioniert und man ständig gehackt wird beispielsweise.
Hmm, das versteh ich irgendwie net. Also so viele Bilder gibts doch auf meiner Seite gar nicht das es soooo viel GB ausmachen würde. Und so viele Bots gibts bestimmt auch net oder klauen die alles tausendfach ???
Was sollte denn da stehen in der robots.txt Vielleicht sollte man nur die Bots von den paar bekannten Suchmaschinen zulassen. Im Grunde würde ja schon fast nur der G Bot ausreichen, wenn ich mir die Statistik so anschaue. Also höchstens 10. Was schreibe ich denn da, um nur einzelnen Bots den Besuch zu erlauben?
Also ist ein CMS (open source), kein ganz Bekanntes. Auf jeden Fall nix selbstgestricktes.
