Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Bottrap sinvoll oder lieber Finger weg?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
MagMo
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 19.11.2005, 09:26

Beitrag von MagMo » 25.11.2005, 19:04

Hi,

ich habe mal 'ne Frage: Ist eine Bottrap, wie z.B. auf https://www.kloth.net/internet/bottrap.php beschrieben, sinvoll oder sollte man da lieber die Finger von lassen.

Ergeben sich eventuell bei Google & co. Nachteile?

Grüße
MagMo

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 25.11.2005, 19:38

Absolut sinnvoll... Alle guten Suchmaschinen halten sich an die robots.txt (und kriegen daher keine Probleme) und der Rest stolpert halt ab und da da rein...

Ich ziehe ab die Methode vor die bots per .htaccess auf IP Basis zu sperren. Dann ist naemlich *sofort* Feierabend.

D@ve
PostRank 8
PostRank 8
Beiträge: 731
Registriert: 03.02.2005, 22:05
Wohnort: Bretzfeld 74***

Beitrag von D@ve » 26.11.2005, 15:35

hmmmm also ich hab mich das auch schon gefragt. Ich sehe es bei mir aber immer wieder, dass der Google-Bot auch in Dateien rumfingert, die eigentlich in der robots gesperrt sind.

Gruß, Dave
Webkatalog für Musik: 2sound.de
Web In A Box

tron
PostRank 8
PostRank 8
Beiträge: 862
Registriert: 16.09.2003, 13:56
Wohnort: HUHU

Beitrag von tron » 26.11.2005, 17:12

sinnvoll? strafbar triffts eher.. siehe thread im rechts forum!

MagMo
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 19.11.2005, 09:26

Beitrag von MagMo » 26.11.2005, 18:04

Hi,

@ tron
Danke für den Hinweis. Habe das Thread bei der Suche nicht gefunden. Bin aber beim manuellen Durchblättern draufgstoßen. Auf 'Teergrube für böse Bots' muß man aber auch erst einmal kommen.

So wie ich das verstehe ist es nur ein rechtliches Problem, wenn ich den Bot 'einsperre'. Wenn ich ihn sofort auf eine Seite ohne (sinnvollen) Inhalt umleite, dann sollte es doch kein Problem sein. Letztendlich ist die Umleitung/Sperrung per .htaccess nichts anderes, nur das ich dort die IPs per Hand aktualisieren muß. Oder sehe ich das falsch?

Ein größeres Problem sehe ich allerdings darin, dass Google sich wohl auch nicht immer zu 100% an die robots.txt hält. (Habe ich zumindest hier im Forum gelesen.)

Grüße
MagMo

tron
PostRank 8
PostRank 8
Beiträge: 862
Registriert: 16.09.2003, 13:56
Wohnort: HUHU

Beitrag von tron » 26.11.2005, 19:01

vorsaetzlich schaden zufuegen ist natuerlich problematisch. auf ne spezielle seite leiten waere legal denk ich ;)

am besten gar keine seite ins netz stellen, dann kann niemand was klauen und sie wird auch von niemandem angeschaut ;)

ratze
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 03.11.2005, 09:59

Beitrag von ratze » 26.11.2005, 20:07

Ich habe einen Link(leeres Verzeichnis) in meine Seiten eingebaut, der per Robots.txt gesperrt ist.
Yahoo & Google waren da auch schon drin. :wink:
Sperre nur von Hand!

Falls Du dedizierte Server betreibst, sperre direkt in Deiner Firewall und nicht über die .htaccess.

mfg Jens

fiona
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 17.04.2004, 01:41

Beitrag von fiona » 27.11.2005, 11:53

MagMo hat geschrieben: Ein größeres Problem sehe ich allerdings darin, dass Google sich wohl auch nicht immer zu 100% an die robots.txt hält.
Kann ich auch bestätigen!

Was auch wichtig ist, wenn man die Bots per .htaccess oder etc/hosts aussperrt: aufpassen, dass die einem nicht die error_logs bis zum letzten Byte der Festplatte vollschreiben. So passiert bei mir mit dem Miragobot -> Systemabsturz!

robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 27.11.2005, 23:19

fiona hat geschrieben:Was auch wichtig ist, wenn man die Bots per .htaccess oder etc/hosts aussperrt: aufpassen, dass die einem nicht die error_logs bis zum letzten Byte der Festplatte vollschreiben. So passiert bei mir mit dem Miragobot -> Systemabsturz!
Wer seine Logfiles auf der Root-Partition liegen hat, ist selber schuld. Für /var legt man eine eigene Partition an!

cu, Robo :)

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 28.11.2005, 15:45

tron hat geschrieben:sinnvoll? strafbar triffts eher.. siehe thread im rechts forum!
Seit wann ist das Aussperren bestimmter IP Adressen strafbar? Es geht hier ja nicht um die Teergrube sondern um eine reine .htaccess Geschichte.

Antworten