Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Crawler von SEO Tools blockieren oder nicht?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Anton Meise
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 12.08.2013, 19:02

Beitrag von Anton Meise » 12.08.2013, 19:12

Hallo! Ich stelle fest dass meine Webseite von Bots diversert SEO-Tool Anbieter besucht wird. Mir ist schleierhaft was da für Daten gesammelt werden. Die Werbung der Dienste erscheint mir teilweise recht suspekt. Können diese Crawler schädlich für das eigene Ranking werden, weil die Nutzer dieser Tools diverse Informationen über meine Webseite bekommen?

Wie haltet ihr es mit diesem Crawlern?

Sollte man die Crawler blockieren wenn man sie entdeckt, genau wie Content Scraper, oder einfach crawlen lassen sofern sie sich gut benehmen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 12.08.2013, 20:58

Anton Meise hat geschrieben:Hallo! Ich stelle fest dass meine Webseite von Bots diversert SEO-Tool Anbieter besucht wird. Mir ist schleierhaft was da für Daten gesammelt werden.
Dinge, für die Dumme später Geld bezahlen.
Anton Meise hat geschrieben: Die Werbung der Dienste erscheint mir teilweise recht suspekt.
Teilweise ist gut.
Anton Meise hat geschrieben: Können diese Crawler schädlich für das eigene Ranking werden,
Nein.
Anton Meise hat geschrieben: weil die Nutzer dieser Tools diverse Informationen über meine Webseite bekommen?
Nur wenn sie überhaupt mit diesen Informationen was anfangen können und diverse andere Voraussetzungen erfüllen. Da diese Scraper punktuell arbeiten, werden sie nie einen nützlichen Datenstamm liefern können, immer nur Ausschnitte. Mit anderen Worten: halbgaren Schrott. Und was man mit halbgarem Schrott anfangen kann, weiß man seit dem Orakel von Delphi: "Gehe. Nicht. Gefährlich."
Anton Meise hat geschrieben: Wie haltet ihr es mit diesem Crawlern?
Es sind elende Parasiten, nicht mehr und nicht weniger. Sie bereichern sich an anderer Leute Infrastruktur und Arbeit.
Sie sind (für mich) eine reine Pest.
Anton Meise hat geschrieben: Sollte man die Crawler blockieren wenn man sie entdeckt, genau wie Content Scraper, oder einfach crawlen lassen sofern sie sich gut benehmen?
Die benehmen sich nicht gut. Allein schon deswegen, weil sie Deinen Traffic klauen ohne Gegenleistung.
Blockieren ist die Devise. Wenn Du richtig fies bist (und über ein paar nützliche Fähigkeiten verfügst) dann machst Du das, was man mit Schmeissfliegen so macht: Dreck zum Fressen geben.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 12.08.2013, 23:03

Mal ernsthaft, wenn du so denkst was machst du dann in diesem Forum?

Glaubst du ohne solche Daten würde es viel hier zu bereden geben?

Z.B. Projekte ohne Backlinkschecks durch ein externes Tool zu kaufen ist wie Blindkauf bei Autos.

Immer die Schwarz-Weiß Sichtweisen.