Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robots.txt frage

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
swity
PostRank 3
PostRank 3
Beiträge: 82
Registriert: 25.04.2003, 10:05
Wohnort: Harz

Beitrag von swity » 21.07.2005, 07:45

Hallo

Wie verhindere ich, das Google URL wie xxx.de/add_url.php?c=4
nicht indexiert?
meine Robots.txt sieht so aus:

Code: Alles auswählen

User-agent: googlebot
Disallow: /*?

User-agent: *
Disallow: /admin.php
Disallow: /admin.php?
Disallow: /add_url.php
Disallow: /add_url.php?
Disallow: /*?
das müßte doch eigendlich so richtig sein, aber google indexiert die Seiten trozdem hier

Ich weiss die Frage wurde hier schon 1000 mal gestellt aber es funktioniert einfach nicht.

gruss
swity

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Gonzalez
PostRank 1
PostRank 1
Beiträge: 29
Registriert: 10.03.2005, 12:15

Beitrag von Gonzalez » 21.07.2005, 09:42

Vielleicht hilft Dir das etwas weiter, auch wenn es (meiner Meinung nach) noch keine funktionierende Lösung für den Einsatz von Wildcards in der robots.txt gibt:

https://www.abakus-internet-marketing.d ... 11778.html

Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 21.07.2005, 09:52

Hmm, also bei mir schließt Google alle Seiten mit Übergabeparametern nach dem "?" aus.

Wie lange hast du denn die robots.txt so online? Bei mir hat's nämlich auch ein wenig gedauert, bis alle Seiten raus waren. Ich hab dann einfach die URL-Konsole von Google benutzt, und die Funktion "Seiten über robots.txt entfernen" (oder so ähnlich) gewählt, danach waren die Überbleibsel auch draußen.

Nachtrag:

laß einfach mal den Teil

User-agent: googlebot
Disallow: /*?


weg, evtl. erkennt Google die Wildcard nicht, und interpretiert die Anweisung so, daß für ihn nur o. a. Anweisung gilt, und er deshalb die

Code: Alles auswählen

User-agent: *
ignorieren kann.[/i]
Zuletzt geändert von Kralle am 21.07.2005, 09:55, insgesamt 1-mal geändert.

wbartl
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 07.12.2003, 13:06

Beitrag von wbartl » 21.07.2005, 09:53

Mache einen zusätzlichen Eintrag für den Googlebot

Code: Alles auswählen

User-agent: googlebot 
Disallow: /*? 
Disallow: /add_url.php? 

User-agent: * 
Disallow: /admin.php 
Disallow: /admin.php? 
Disallow: /add_url.php 
Disallow: /add_url.php? 
Disallow: /*? 
Ich habe die Erfahrung gemacht, das der Googlebot manchmal Einträge in der User-Agent: * Sektion übergeht.

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 21.07.2005, 10:27

@wbartl
wir dann die Seite "add_url.php" an sich auch ausgeschlossen?
Ich habe das gleich problem und die hauptseite sollte schon drin bleiben.

swity
PostRank 3
PostRank 3
Beiträge: 82
Registriert: 25.04.2003, 10:05
Wohnort: Harz

Beitrag von swity » 21.07.2005, 13:14

alos die Robots.txt war als erstes auf dem server, bevor ich die daten hochgeladen habe.
werde es jetzt mal so probieren

Code: Alles auswählen

User-agent: googlebot
Disallow: /add_url.php?

User-agent: *
Disallow: /add_url.php
Disallow: /add_url.php?
Disallow: /*?
mal sehen was passiert

werde dann hier berichten.

gruss swity

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 21.07.2005, 13:29

Da wird sich nichts ändern.
Wenn der googlebot seinen Eintrag gefunden hat, geht er.
Das
User-agent: *
gilt nur für die, die bis dahin nicht ihre Spezialeintragung gefunden haben.
Richtig:



User-agent: *
Disallow: /add_url.php
Disallow: /add_url.php?

User-agent: googlebot
Disallow: /*?
Wildcard ist Wildcard, und Wildcard wird derzeit nur vom Googlebot verstanden.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 21.07.2005, 14:30

Code: Alles auswählen

User-agent: googlebot
Disallow: /*?
Disallow: /admin
Disallow: /add_url

User-agent: *
Disallow: /admin
Disallow: /add_url
Funktioniert garantiert. Wie Pompom schrieb: Wenn Google eine Rubrik fuer sich findet, wird der Rest ignoriert. Daher doppelt reinschreiben.

Dateiendungen weglassen, da die Disallow-Eintraege als Platzhalter fungieren. Also alles was mit admin und add_url anfaengt wird nicht indiziert.

Gruss
Chris

wbartl
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 07.12.2003, 13:06

Beitrag von wbartl » 21.07.2005, 21:43

@axelm
wird dann die Seite "add_url.php" an sich auch ausgeschlossen?
Nein, bei dem Eintrag Disallow: /add_url.php? bleibt die add_url.php drin.

Ich benutze das, damit google mein Portal nicht mit Session-Ids spidert und es klappt wunderbar.

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 21.07.2005, 22:07

HI ,

Und wie bekomme ich das hin das alle *.php ausgeschlossen sind ?


RW

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 22.07.2005, 09:01

Falls die PHP-Programme im Root liegen:

User-agent: googlebot
Disallow: /*.php

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 22.07.2005, 12:25

swity hat geschrieben: Wie verhindere ich, das Google URL wie xxx.de/add_url.php?c=4
nicht indexiert?
wenn du verhindern willst, dass er sie nicht indexiert, dann:

User-agent: *
Disallow:

(Fragestellung - deutsche sprache, schwere sprache) :wink:

gruß,
danielr

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 22.07.2005, 13:08

wenn du verhindern willst, dass er sie nicht indexiert, dann
Und da dies eine doppelte Verneinung ist, werden die doch indiziert. :wink: => ignore post

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag