ich möchte nur auf einer html-Seite die Spider/Robots der SuMas aussperren. Diese Seite liegt jedoch mit allen anderen html-Dokumenten in einem Ordner damit alles geordnet ist. Wie kann ich jetzt dieses einzelne Dokument aussperren, ohne dass die Spider direkt alles nicht mehr indexieren?
Um eine Datei vor den Spidern zu schützen muss die robots.txt so aussehen, richtig?
User-agent: *
Disallow: /directory/datei.html
Die Datei speichere ich dann in einer ganz normalen .txt und uploade sie in den Ordner wo meine Seite liegt, soweit richtig?
edit: Nochwas, wenn eine Datei bereits bei Google indexiert ist, ich diese dann jetzt aber ab jetzt mit der robots.txt aussperre, wird das html-Dokument dann nach einiger Zeit automatisch aus Google entfernt?
so brauchst du dich nicht wundern, wenn der googlebot nicht auf dich hört.
Jeder Bot ist zufrieden, wenn er sequenziell gelesen einen Eintrag findet,
auf den er hören kann.
Der Googlebot hört auch auf User-agent: * weshalb ihn der Rest nicht interessiert.
Richtig ist also diese Reihenfolge: