Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SPAM Verdacht

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 15.05.2008, 20:24

@wollbay: Ja, das ist so. WENN man die robots.txt beachtet, kann man den Trick technisch nicht entdecken.

Man könnte jetzt anfangen zu mutmaßen und philosophieren, ob die robots.txt auch für einen automatisierten Browser gelten soll. Man rendert die Seite also einmal mit dem originalen, dazugehörigen CSS und einmal mit einem angepassten CSS, das aus dem Original-CSS generiert wird, indem man die Farbinfo weglässt. So kann man technisch erkennen, ob da mal Text lesbar ist und mal nicht.
Aber da so ein automatisierter Browser ja wohl Bestandteil eines erweiterten Suchmaschinenrobots ist, verletzt man die robots.txt
Dafür kommt man aber nicht ins Gefängnis...

@DeMarcus:
Wäre ich Google, würde ich bei bestimmten Verdachtsmomenten (etwa: CSS per robots.txt gesperrt...) die Kandidaten einer genaueren Prüfung unterziehen. Leere, farblich mit dem Hintergrund identische Bilder würde ich erkennen, indem ich einmal die Seite mit den Originalgrafiken rendere und einmal mit Platzhaltergrafiken, die die gleiche Größe wie die Originalgrafiken haben, aber ansonsten 100% transparent sind. Gibt es Stellen, an denen eine Grafik ist und das Originalrendering mit meinem modifizierten Rendering übereinstimmt, so liegt ein Fall von versteckten Grafiken vor. Wenn die jetzt auch noch ein Link sind...