Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt & .htaccess.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
--zz--
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 06.12.2004, 00:06
Wohnort: Berlin

Beitrag von --zz-- » 08.01.2005, 12:18

hallo,

ich habe zwar schon alle threads über die robots.txt gelesen, bin mir aber trotzdem noch etwas unsicher und will lieber nochmal nachfragen, ob alles richtig ist! bzw ob meine ziele auch durch die robots.txt umgesetzt werden.

Code: Alles auswählen

User-agent: *
Disallow: /agb.htm
Disallow: /kontakt.htm
Disallow: /phpcart/
agb.htm, damit rechtsanwälte nicht auf eventuelle ungereimtheiten in meiner agb aufmerksam werden!
kontakt.htm damit e-mail sammler meine email adressen nicht finden können (spam)
phpcart, hier werden die persönlichen kundendaten gespeichert und deshalb soll der ordner auch gesperrt werden.

nun zu meinen fragen:
1) ich meine mal gelesen zu haben, dass man keine dateien sondern nur ordner in der robots.txt sperren kann. stimmt das? denn dann müsste ich sie ja alle in einen ordner legen.
2) nicht alle bots halten sich an die robots.txt. dann würde es ja sinn machen, wenn ich den inhalt der robots.txt auch in die .htaccess.txt kopieren würde?
3) auf meinen produktseiten sehen die warenkorblinks folgendermassen aus: <a href="phpcart/phpcart.php?action=add&id=SE01&descr=produktname&price=22.00&quantity=1&pagename=https://www.meine-domain.de"><img border="0" src="bild.gif"></a> (es handelt sich um statische seiten und die infos werden per javascript an den warenkorb weitergeleitet) diese links sollten durch die sumas nich verfolgt werden. gibt es möglichkeiten, das über die robots.txt zu realisieren?

danke + gruss

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 08.01.2005, 12:40

Ist soweit alles richtig.

zu 1.) Nein. Es lassen sich auch einzelne Dateien sperren
zu 2.) die .htaccess.txt heißt .htaccess. Wenn du den Inhalt nur kopierst, nutzt das gar nicht, da die .htaccess vom Apache Webserver ausgewertet wird und entsprechende (gültige) Regeln enthalten sollte.
zu 3.) ja, wenn du z.B. das Verzeichnis, in dem die phpcart.php liegt, sperrst.
Ansonsten hilft Sperren über die .htaccess für Googlebot's.
Das heißt dann aber normalerweise Cloaking und ist nicht gern gesehen.

AskeT
PostRank 4
PostRank 4
Beiträge: 149
Registriert: 07.11.2004, 15:42

Beitrag von AskeT » 08.01.2005, 12:50

--zz-- hat geschrieben:agb.htm, damit rechtsanwälte nicht auf eventuelle ungereimtheiten in meiner agb aufmerksam werden!
Mittels robots.txt kann man unter Umständen Spidern den Zugriff auf bestimmte Ordner untersagen, aber doch nicht Rechtsanwälten! :wink:

Es ist auch nicht erforderlich, dass sich Deine AGBs reimen. :wink: Du kannst sie definieren wie Du willst. Wenn irgendein Passus darin dem BGB widerspricht, ist er ohnehin nicht rechtswirksam.

(Keine Rechtsberatung, sondern eine Laienansicht)

Gruß
AskeT