Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Frage zur robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
reikje
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 25.06.2004, 12:59

Beitrag von reikje » 13.02.2006, 12:04

Hallo,
wir haben auf allen Seiten bei uns ein Javascript Tracking unseres Tracking-Providers eingebaut (Webtrekk). Das Script beinhaltet unter anderem folgenden Code Teil:

Code: Alles auswählen

    
    <script type="text/javascript">
        <!--
            var wt_dm="track.webtrekk.de"; // track url
            var wt_ci="88880000865111"; // webtrekk id

            var wt_be="some.content"; // content id
        //-->
    </script>
Ich sehe ich in den Server Logfiles, das googlebot immer sowas anfragt:
/path/page.asp/track.webtrekk.de
/path2/page2.asp/track.webtrekk.de

Wie kann ich das in der robots.txt verhindern? Alles was vor /path/page.asp/track.webtrekk.de kommt, ist dynamisch.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

reikje
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 25.06.2004, 12:59

Beitrag von reikje » 15.02.2006, 11:10

Keiner? Geht sowas:

Disallow: ?/track.webtrekk.de

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 15.02.2006, 11:50

Ist mir nicht bekannt, hau doch 10 fälle von

/path/page.asp/track.webtrekk.de
/path2/page2.asp/track.webtrekk.de
rein dann is es erstmal für 3 monate raus.
Bau dir ne Siitemap.xml parst er evtl. genauer und sucht nicht mehr selber.

Schreibe dazu noch ne Frage an das Google Support Team.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


reikje
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 25.06.2004, 12:59

Beitrag von reikje » 15.02.2006, 12:01

Kann ich ja mal machen. Das Problem ist, das wir das Tracking Snippet in jeder Seite drinne haben. Also müsste ich für jede Seite in die robots.txt einen Eintrag machen.
/url_seite/track.webtrekk.de

Wie funktioniert Seitmap bei dir so? Hat das Auswirkungen auf das normale Crawling der Seite oder das Ranking?

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 15.02.2006, 12:27

Konnte mit der sitemap nichts feststellen aber warum soll man es dem Bot nicht einfacher machen?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag