Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Adsense ist nicht SUCHMASCHINENFREUDLICH !!!

Alles zum Thema Google Adsense.
Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.07.2005, 16:15

Das Problem ist in der Tat bei ihm duplicate content: Ursache ist der Aufbau der robots.txt

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*?

User-agent: *
Disallow: /forum/cache/
Disallow: /forum/db/
Disallow: /forum/docs/
Disallow: /forum/images/ 
etc.
Der Googlebot ignoriert den Rest einer robots.txt wenn er eine Rubrik für sich selber findet, d.h. für Google sind nur Dateien mit ? gesperrt. Alles andere darf fröhlich gespidert werden (aus Googles Sicht). Und Ruckzuck hast Du über ftopic, ntopic, ptopic und ftpost jede Menge DC. Das hättest Du aber auch leicht erkennen können, wenn Du mal in die Logfiles geguckt hättest. Denn da tauchen diese Dateien explizit auf.

Ich habe das schon öfter geschrieben, da ich es am eigenen Leib "erfahren" musste, bis mir die Ursache klar war. Leider ist der Thread auf phpBB dahingehend nicht korrekt.

Also: Entweder:

Code: Alles auswählen

User-agent: *
Disallow: /*?
Disallow: /forum/cache/
Disallow: /forum/db/
Disallow: /forum/docs/
Disallow: /forum/images/
etc.
oder

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*?
Disallow: /forum/cache/
Disallow: /forum/db/
Disallow: /forum/docs/
Disallow: /forum/images/ 
etc.

User-agent: *
Disallow: /forum/cache/
Disallow: /forum/db/
Disallow: /forum/docs/
Disallow: /forum/images/ 
etc.