Seite 1 von 1

Dateinamen in robots.txt

Verfasst: 05.11.2009, 16:35
von payon
Hallo,

mein Problem ist folgendes. Joomla's Kunena Forum erstellt mir in Verbindung mit Artio SEF Paket zu jedem einzelnen Profil einen Link. Das Profil kann dann aber nicht angezeigt werden, da es nur von angemeldeten Usern einsichtbar ist. Somit habe ich eine Menge toter Links, die von Google indexiert werden und die Qualität meiner Seite verschlechtern.

Ich wollte deswegen diese Links in der robots.txt mit noindex bzw. disallow vermerken. Aber ich habe folgendes Problem.
Zwar ist der Dateiname immer profil.html , aber das Verzeichnis ist stets anders, angepasst an den Usernamen.. also z.B.

www.seite.de/marina/profil.html
www.seite.de/peter/profil.html
www.seite.de/Gerd1980/profil.html

Ist es nun möglich in der robots.txt alle Dateinamen profil.html unabhängig vom Pfad mit disallow zu versehen?

Ich wäre für eine Lösung sehr dankbar!

Vielen Dank!

Verfasst:
von

Verfasst: 05.11.2009, 17:00
von slider
In der Robots.txt wirds wohl nicht gehen.
Aber Du könntest den meta-tag "robots" in der profil.html auf noindex setzen.

Code: Alles auswählen

<meta name="robots" content="noindex">

Verfasst: 05.11.2009, 18:09
von Pompom
Klar geht das mit der robots.txt

User-agent: *
Disallow: /*/profil.html

Verfasst:
von

Verfasst: 05.11.2009, 18:11
von Texxter
Die Profil.html existiert ja nicht wirklich, der Bot landet immer auf einer Seite "Sie haben keinen Zugriff".

Kannst Du nicht Wildcards in der Robots verwenden? Google zumindest versteht die.

Edit: Sorry, zu langsam :D

Verfasst: 05.11.2009, 18:13
von Pompom
...tschuldigung, nächstes mal darfst du, Texxter. :oops: