Seite 1 von 1

Verzeichnisse schützen mit index.html ?

Verfasst: 06.09.2006, 18:56
von doolak
Hallo allerseits,

ich möchte die Unterverzeichnisse meiner Webseite vor Zugriff schützen.
Es geht mir um die Unterordner, in denen zum Beispiel die Bilder und Grafiken enthalten sind.

Die Möglichkeit, diese Ordner über die .htaccess zu sperren, finde ich nicht so toll - würde lieber bei Zugriffsversuch direkt auf die Startseite der Webseite umleiten.
Kann ich dieses tun, indem ich einfach in jeden Ordner die index.html packe, oder hat das zur Folge, dass Google Duplicate Content annimmt?

Wie verfahrt ihr denn, um eure Unterordner zu schützen?


Liebe Grüsse,

Doolak

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 06.09.2006, 19:11
von Nullpointer
.htaccess
sperrt, leitet um...und und und.

erläutere doch erst mal, vor welcher art von zugriffen du schützen möchtest.

Verfasst: 06.09.2006, 19:20
von doolak
Es geht mir eigentlich nur darum, die Unterverzeichnisse nicht völlig offen darzulegen.
Wenn jemand sich durch Rechtsklick eine Grafik anzeigen lassen würde, hat er ja auch Zugriff auf das Verzeichnis bzw. direkt auf die Datei. Aber das ist kein Problem.

An eine Umleitung habe ich auch schon gedacht - also in jedes Unterverzeichnis eine htacces hineinpacken und auf die Startseite umleiten.
Kann man aber nicht stattdessen einfach in jeden Unterordner eine index.html packen?
Oder führt das dann dazu, dass DC angenommen wird?

Liebe Grüsse,

Doolak

Verfasst:
von

Verfasst: 06.09.2006, 19:55
von Alpinist
doolak hat geschrieben:Es geht mir eigentlich nur darum, die Unterverzeichnisse nicht völlig offen darzulegen.Doolak
Du definierst doch im Root doch ein ein Standarddokument. Wenn dies nicht im Unterordner vorhanden ist, sollte es den Feheler 404 zurückgeben und an die entsprechende Stelle springen.
doolak hat geschrieben:An eine Umleitung habe ich auch schon gedacht - also in jedes Unterverzeichnis eine htacces hineinpacken und auf die Startseite umleiten.
Kann man aber nicht stattdessen einfach in jeden Unterordner eine index.html packen?
Oder führt das dann dazu, dass DC angenommen wird?
Da gibts mehrere Lösungen:

(a) siehe oben
(b) du listest nicht den Inhalt des Ordners auf (in der htaccess): Options -Indexes
(c) du machst ne htaccess Umleitung
(d) du machst ne index.html rein, z.B. mit robots=noindex
(e) ...
doolak hat geschrieben:Oder führt das dann dazu, dass DC angenommen wird?
sperr per robots.txt die Unterverzeichnisse und damit hat sichs


siehe auch
https://httpsd.apache.org/docs/1.3/howto/htaccess.html
https://de.selfhtml.org/servercgi/server/htaccess.htm
https://www.google.de/search?q=htaccess ... iso-8859-1



EDIT: es heisst natürlich robots=noindex und nicht robots=nofollow ;-)

Verfasst: 06.09.2006, 20:06
von Nullpointer
wird beim aufruf eines verzeichnisses auf deinem server der gesamte inhalt des verzwichnisses angezeigt?

dann mußt du das automatische directory listing in der htaccess abschalten:

IndexIgnore *
oder du kannst es für bestimmte dateien abschalten:
IndexIgnore *.pdf *.doc

Verfasst: 06.09.2006, 20:56
von doolak
Vielen Dank für Eure Antworten!

Das Abschalten des directory listings hört sich sehr gut an - habe eben auch entdeckt, dass sich dieses ganz einfach im cpanel einstellen lässt.
Allerdings wird dann nicht IndexIgnore * , auch nicht Options -Indexes, sondern folgendes in die htaccess eingetragen:

Options All -Indexes

Resultat ist ein "Forbidden", wenn man ein Verzeichnis anwählt. Könnte ja nun eine spezielle "403"-Seite erstellen, ist sicherlich auch eine nette Möglichkeit.

Aber eigentlich würde es ja ausreichen, wenn man beim Zugriff auf ein Verzeichnis einfach wieder auf die Startseite kommt.

Wenn ich nun doch einfach die index.html in jedes Unterverzeichnis kopiere, kann ich ja eigentlich auf die Anpasung der htaccess verzichten, oder?
Wird ja sowieso nichts gelistet, da automatisch die Startseite erscheint.

Muss ich dann, um DC zu vermeiden wirklich ein "nofollow" in den META packen? Müsste es nicht noindex, follow heissen?

Verfasst: 07.09.2006, 08:29
von ole1210
Dir haben jetzt 2 Leute gesagt, das es am besten, einfachsten und sichersten mit der htacces. Ich sags dir auch nochmal. Nimm ne htacces.

1.: Greift praktisch niemand auf diese Ordner zu. Den paar Vögeln die da rein schauen kannst du auch nen netten 403er präsentieren. Das ist absolut normal im Internet!

2.: Wenn du da ne Index.html reinlegst, dann musst du diese auch bei jeder Änderung updaten. Das vergisst du irgendwann bestimmt. Da ist nen 403er eheblich schöner als ne veraltete Startseite an einer Stelle wo niemand damit rechnet!

Die Smiley hier im Forum liegen in folgendem Ordner:
https://www.abakus-internet-marketing.d ... es/smiles/

Gibt ebenfalls nen 403er. Ist doch echt nix schlimmes bei!

Meine logfiles sagen mir, das ich letze Woche 0,053x den Error 403 zurückgegeben habe. Dafür so nen Aufstand mit zig Index.html machen?

Verfasst: 07.09.2006, 09:17
von Nullpointer
ole1210 hat geschrieben:....
Meine logfiles sagen mir, das ich letze Woche 0,053x den Error 403 zurückgegeben habe. Dafür so nen Aufstand mit zig Index.html machen?
ha! vielleicht liegen bei dir alle dateien im root und du hast gar keine verzeichnisse. also ist deine 403er statistik ohne einblick ins dateisystem nutzlos.



;-)

Verfasst: 07.09.2006, 11:51
von Monk
Wenn ich es recht verstehe, geht es doch nur darum, das Directory-Listing z.B. für Bildverzeichnisse zu unterbinden - nicht den gesamten Zugriff, weil diese Ressourcen ja weiter zugänglich sein sollen (?)

.htaccess wird leider zu gerne als eierlegende Wollmilchsau angepriesen, sollte aber wirklich solchen Fällen vorbehalten bleiben, in denen es auch gebraucht wird. Zur Unterdrückung von Directory Indexes sind solche Mittel klar mit Kanonen auf Spatzen geschossen. Man sollte nicht vergessen, dass .htaccess ein satter Performance-Hog ist, der alle möglichen Requests betrifft.

Standard ist eigentlich ein simples "-Indexes" oder eben nirgends ein "Indexes" in den "Options" für das Document Root bzw. höhere Verzeichnisse in der Server-Config. Dazu noch ein "AllowOverride All" für mögliche .htaccess-Ausnahmen, möglichst aber solche Ausnahmen auch per Server-Config. So ähnlich - jedenfalls mit erstmal unterdrückten Indexes und etwas restiktiverem AllowOverride - sollten eigentlich auch die meisten Umgebungen vorkonfiguriert sein.

Ohne eigenen Zugriff auf die Server-Config reicht als zweite Wahl ein sperrendes leeres index.html in jedem solchen Verzeichnis und allen möglichen Unterverzeichnissen. Bells and Whistles kann man reinpacken, wenn man's denn unbedingt braucht. Auch billig umleiten per Refresh - das hilft auch bei sicherer Vorkonfiguration und wäre in dem Fall dann sogar erste Wahl, wenn einem der 403 nicht passt... das sollte dann aber ziemlich der maximale Komfort sein, den man den doch eher mutwilligen manuellen Verzeichnisguckern bietet.
So ein index.html tut dem Server nicht weh, braucht keine Wartung (ausser Löschen wenn's nicht mehr gebraucht wird) und Crawler stolpern auch NICHT drüber. Links auf das Verzeichnis selber sollte es ja eh nicht geben, nur auf Inhalte (oder?). Also besteht DC-Gefahr nichtmal im Ansatz, selbst wenn man die DC-Hysterie nun partout noch auf Fehlermeldungen und allgemeine Hinweise ausweiten will.

Verfasst: 07.09.2006, 12:05
von Vermell
Auch billig umleiten per Refresh - das hilft auch bei sicherer Vorkonfiguration und wäre in dem Fall dann sogar erste Wahl, wenn einem der 403 nicht passt... das sollte dann aber ziemlich der maximale Komfort sein, den man den doch eher mutwilligen manuellen Verzeichnisguckern bietet.
Schliesse mich dem an; einfach, schnell und effektiv.

Verfasst: 07.09.2006, 14:13
von doolak
Hallo allerseits!
... Wenn du da ne Index.html reinlegst, dann musst du diese auch bei jeder Änderung updaten. Das vergisst du irgendwann bestimmt. Da ist nen 403er eheblich schöner als ne veraltete Startseite an einer Stelle wo niemand damit rechnet!
Das stimmt wohl - und man muss sich auf den Suchmaschinenspider verlassen, dass er die Datei nicht indexiert und somit kein DC entsteht...

Supergut finde ich diese Lösung:
Ohne eigenen Zugriff auf die Server-Config reicht als zweite Wahl ein sperrendes leeres index.html in jedem solchen Verzeichnis und allen möglichen Unterverzeichnissen. Bells and Whistles kann man reinpacken, wenn man's denn unbedingt braucht. Auch billig umleiten per Refresh - das hilft auch bei sicherer Vorkonfiguration und wäre in dem Fall dann sogar erste Wahl, wenn einem der 403 nicht passt... das sollte dann aber ziemlich der maximale Komfort sein, den man den doch eher mutwilligen manuellen Verzeichnisguckern bietet.
So ein index.html tut dem Server nicht weh, braucht keine Wartung (ausser Löschen wenn's nicht mehr gebraucht wird) und Crawler stolpern auch NICHT drüber. Links auf das Verzeichnis selber sollte es ja eh nicht geben, nur auf Inhalte (oder?). Also besteht DC-Gefahr nichtmal im Ansatz, selbst wenn man die DC-Hysterie nun partout noch auf Fehlermeldungen und allgemeine Hinweise ausweiten will.

So eine leere index.html oder zum Beispiel eine spezielle "Forbidden.html" mit META-Refresh finde ich persönlich die optimale Lösung, wenn man nicht lediglich die 403er-Meldung benutzen will.

Ist allerdings auch richtig, was ole1210 geschrieben hat:
Greift praktisch niemand auf diese Ordner zu. Den paar Vögeln die da rein schauen kannst du auch nen netten 403er präsentieren. Das ist absolut normal im Internet!

Danke Euch auf jeden Fall für die vielen guten Anregungen und Eure Hilfe!!!

Liebe Grüsse,

Doolak