Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Wirths Media
PostRank 9
PostRank 9
Beiträge: 2050
Registriert: 20.09.2004, 20:25

Beitrag von Wirths Media » 05.12.2005, 20:55

Wie kann ich Dyn Seiten per Robots für alle Sumas sperren?

User-Agent: *
disallow: /?

Ist das richtig?


danke

Daniel

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 05.12.2005, 22:19

Hallo Daniel,

ich fürchte, es gibt keine Möglichkeit, dynamische Seiten für alle Sumas gleichzeitig zu sperren, es sei denn, die dynamischen Seiten liegen allesamt in einem bestimmten Ordner oder haben denselben Dateinamen-Anfang.

Für Google sollte folgendes klappen:

User-agent: Googlebot
Disallow: /*?

Andere Sumas kennen aber keine Platzhalter (*). Mit Disallow: /? würdest Du nur alle Dateien und alle Ordner ausschließen, die mit einem "?" beginnen.

LG, Hobby-SEO

Wirths Media
PostRank 9
PostRank 9
Beiträge: 2050
Registriert: 20.09.2004, 20:25

Beitrag von Wirths Media » 05.12.2005, 22:33

danke bin ich wenigsten wieder nen bisschen schlauer... :D

hansmaiser
PostRank 4
PostRank 4
Beiträge: 173
Registriert: 19.04.2004, 12:07

Beitrag von hansmaiser » 12.12.2005, 21:32

Habe ein ähnliches Problem, wie sperre ich alle Verweise, die mit index.php? anfangen --> meine dynamischen Seiten fangen alle mit index.php (Mambo) an, da ich modrewrite einsetze könnte das jedoch zu DC führen.

Deshalb brauche ich eine Regel um die dynamischen Seiten zu sperren. Wäre sowas richtig:

User-Agent: *
disallow: /index.php?

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 12.12.2005, 21:41

@hansmaiser:

Ja, ist richtig.

Theoretisch müsste auch ein Disallow: /index.php und sogar ein Disallow: /index genügen.

LG, Hobby-SEO

hansmaiser
PostRank 4
PostRank 4
Beiträge: 173
Registriert: 19.04.2004, 12:07

Beitrag von hansmaiser » 12.12.2005, 22:51

Wenn ich aber Disallow: /index schreiben würde, dann würde ich doch auch meine Startseite sperren oder?

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 12.12.2005, 22:57

Das kommt darauf an, wie Deine Startseite lautet. Du kannst ja in die .htaccess Folgendes reinschreiben:

DirectoryIndex startseite.html

In diesem Fall heißt Deine Startseite startseite.html

In Deinem Fall würde ich Dir aber folgende robots.txt empfehlen:

User-agent: Googlebot
Disallow: /*?

LG, Hobby-SEO

hansmaiser
PostRank 4
PostRank 4
Beiträge: 173
Registriert: 19.04.2004, 12:07

Beitrag von hansmaiser » 12.12.2005, 23:34

Hmm, weiss selber nicht wie meine Startseite heisst, ich leite die Startseite per modrewrite auf / um, welche Datei das ist weiss ich nicht...

Was mache ich mit den anderen Bots, die Disallow: /*? nicht verstehen. Ich mein, ich will ja nicht unbedingt DC in den anderen Suchmaschinen produzieren.
User-agent: Googlebot
Disallow: /*?
Damit erreiche ich doch nur, dass der GoogleBot die dynamischen Seiten nicht spidert, aber Yahoo & msn würden es doch tun, oder?

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 12.12.2005, 23:54

Ja, Disallow: /*? funktioniert nur für den Googlebot. Schreib Folgendes in Deine robots.txt - dann bist Du auf der sicheren Seite:

User-agent: *
Disallow: /index.php?

LG, Hobby-SEO

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag