Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
yachubashi
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 26.09.2009, 17:31

Beitrag von yachubashi » 10.02.2013, 08:55

Hallo kann es sein, wenn man die Robots.txt so wie ich :

User-agent: *
Disallow:

erstellt habe das ich zu viele Interne Links habe? denn ich habe eine menge an interne Links und ich gehe davon aus das Google mich deshalb abgestraft hat. Wie würde den eine optimale txt datei aussehen?


mfg