Seite 1 von 1

Frage zur robots.txt

Verfasst: 13.02.2006, 12:04
von reikje
Hallo,
wir haben auf allen Seiten bei uns ein Javascript Tracking unseres Tracking-Providers eingebaut (Webtrekk). Das Script beinhaltet unter anderem folgenden Code Teil:

Code: Alles auswählen

    
    <script type="text/javascript">
        <!--
            var wt_dm="track.webtrekk.de"; // track url
            var wt_ci="88880000865111"; // webtrekk id

            var wt_be="some.content"; // content id
        //-->
    </script>
Ich sehe ich in den Server Logfiles, das googlebot immer sowas anfragt:
/path/page.asp/track.webtrekk.de
/path2/page2.asp/track.webtrekk.de

Wie kann ich das in der robots.txt verhindern? Alles was vor /path/page.asp/track.webtrekk.de kommt, ist dynamisch.

Verfasst:
von

Verfasst: 15.02.2006, 11:10
von reikje
Keiner? Geht sowas:

Disallow: ?/track.webtrekk.de

Frage zur robots.txt

Verfasst: 15.02.2006, 11:50
von axelm
Ist mir nicht bekannt, hau doch 10 fälle von

/path/page.asp/track.webtrekk.de
/path2/page2.asp/track.webtrekk.de
rein dann is es erstmal für 3 monate raus.
Bau dir ne Siitemap.xml parst er evtl. genauer und sucht nicht mehr selber.

Schreibe dazu noch ne Frage an das Google Support Team.

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 15.02.2006, 12:01
von reikje
Kann ich ja mal machen. Das Problem ist, das wir das Tracking Snippet in jeder Seite drinne haben. Also müsste ich für jede Seite in die robots.txt einen Eintrag machen.
/url_seite/track.webtrekk.de

Wie funktioniert Seitmap bei dir so? Hat das Auswirkungen auf das normale Crawling der Seite oder das Ranking?

Frage zur robots.txt

Verfasst: 15.02.2006, 12:27
von axelm
Konnte mit der sitemap nichts feststellen aber warum soll man es dem Bot nicht einfacher machen?