Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google stoppt nach einlesen von robots.txt ?!?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
shapeshifter
PostRank 9
PostRank 9
Beiträge: 1480
Registriert: 20.10.2004, 16:01

Beitrag von shapeshifter » 07.11.2004, 15:33

Hola,

hab eben festgestellt, das Google mich tatsächlich mind. alle 2 Tage besucht, aber immer nach der root-Seite "/" und dem anschliessenden einlesen meienes robots.txt files wieder abhaut.

Kurz zur robots.txt

User-agent: *
Disallow: /affiliate/
Disallow: /config/
Disallow: /imggallery/
Disallow: /intra_link/
Disallow: /loop/
Disallow: /newsletter/
Disallow: /linkincl/

Das robots.txt - files ist laut :
https://www.searchengineworld.com/cgi-b ... tcheck.cgi
und
https://www.sxw.org.uk/computing/robots/check.html
völlig in ordnung und keines der angegebenen Verzeichnisse hat direkt was mit den Links von der Homepage aus zu tun.

Woran kanns wohl liegen ? Vielleicht hat ja jemand einen Tip ;)


Noch eine Frage bzgl. config files und klassen in PHP !
Kann es sein sein dass es daran liegt, dass die Anweisungen:
Disallow: /config/
zur Folge haben , dass aus den Klassen generierte Seiten nicht indiziert werden können ? Die Seite wird doch erst Serverseitig zusammengestellt und dann Clients, wie auch dem googlebot zur Verfügunf gestellt, oder ?

Vielen Dank für Tips und Hinweise,

shapeshifter