Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ein paar Fragen zur automatisierten Backlink-Überprüfung

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 13.11.2005, 05:43

Hallo,

mich würde mal interessieren, welche Programme und/oder Online-Tools Ihr zur Überprüfung Eurer Linkpartnerschaften benutzt.

Insbesondere würde mich interessieren, welche User-agents dabei mitgeschickt werden! Ich frage das deshalb, weil ich an meiner .htaccess-Datei herumbastele und im Aussperren böser Bots möglichst restriktiv sein möchte. Gleichzeitig will ich aber natürlich keine Linkpartnerschaften aufs Spiel setzen, indem ich auch die oben angesprochenen Programme/Tools blockiere.

Existiert vielleicht schon eine Liste mit den User-agents von Backlink-Checkern?

Eine weitere Frage, die mich sehr interessieren würde: Wie reagiert Ihr, wenn Euer Backlink-Checker beim Überprüfen einer Linkpartnerschaft einen 403-Error erhält? Guckt Ihr dann "per Hand" nach, ob der Link zu Euch noch existiert?

Schönen Sonntag Euch allen!
Hobby-SEO

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 13.11.2005, 08:47

ich benutze diesen: https://www.backlink-check.de/

die logfiles sehen dann z. b. so aus:
85.197.79.37 - - [01/Nov/2005:08:56:35 +0000] "GET /verzeichnis/seitenname.htm HTTP/1.1" 200 9888 "https://www.backlink-check.de/bot.html" "Backlink-Check.de (+https://www.backlink-check.de/bot.html)"
85.197.79.37 - - [01/Nov/2005:08:56:35 +0000] "GET /verzeichnis/seitenname.htm HTTP/1.0" 200 9888 "-" "Link-Check-Bot/2.0 (+https://www.backlink-check.de)"
85.197.79.37 - - [01/Nov/2005:08:56:35 +0000] "GET /robots.txt HTTP/1.1" 200 24 "https://www.backlink-check.de" "LinkcheckBot/2.0 (+https://www.backlink-check.de)"
85.197.79.37 - - [01/Nov/2005:08:56:35 +0000] "GET /robots.txt HTTP/1.0" 200 24 "-" "Link-Check-Bot/2.0 (+https://www.backlink-check.de)"

wenn irgendwo fehler auftreten, dann guck ich mir das per hand an.

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 13.11.2005, 09:34

Hallo matin,

danke für die Antwort! Habe meine .htaccess nun wie folgt angepasst (und auch mit www.wannabrowser.com auf ihr Funktionieren überprüft):

Code: Alles auswählen

RewriteCond %{HTTP_USER_AGENT} link [NC]
RewriteCond %{HTTP_USER_AGENT} !tuezilla
RewriteCond %{HTTP_USER_AGENT} !backlink [NC]
RewriteRule !403\.htm|robots\.txt - [F,L]
Ich fürchte nämlich, dass ich vor ein paar Tagen einen Linkpartner mit einem 403er abgespeist habe, dessen Backlink-Checker folgenden User-agent liefert:

Mozilla/5.0 (compatible; LinksManager.com_bot +https://linksmanager.com/linkchecker.html)

Weitere Antworten wären natürlich sehr willkommen!

LG, Hobby-SEO

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag