Wenn es nicht soviele Seiten sind, kannst du es ja sicherheitshalber
noch in die robots.txt mit aufnehmen. Doppelt hält besser.

Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Stimmt, ich bin so einerkanuddel hat geschrieben:Von Text in Form von Grafiken würde ich abraten. Gibt ja tatsächlich Leute die während dem lesen immer das bisher gelesene markieren. Die merken das dann schon und findens bestimmt uncool. Ich mache das zB nur wenn ich unterbrochen werde, aber manche fahren mit dem Cursor richtig mit. Warum auch immer, aber man muss sich halt damit arrangieren.
Aus dem Google Index habe ich noch nichts entfernen lassen, da halte ich mich heraus, doch über Meta-Tag noindex geht es halt nur über ein erneutes Crawlen der Seite. Wenn der Bot aber zuerst die robots.txt besucht, dort ein Disallow: /seite.html findet, könnte es theoretisch möglich sein, dass er seite.html nicht mehr besucht, um diese erneut zu crawlen und somit das noindex in der Seite nicht findet.Expression hat geschrieben:Ich habe sie sogar aus dem Google Index erfolgreich entfernen lassen, die Seiten stehen in der robots.txt und haben zusätzlich einen no-index eintrag.
Code: Alles auswählen
<script src="http://www.example.com/gesperrte/daten.js" type="text/javascript"></script>