darüber wird ja vielerorts oft und auch kontrovers diskutiert: wertet G auch externe CSS files aus?
Das ist im Zusammenhang mit diversen Versteckversuchen natürlich brisant.
Aber es gibt halt nicht nur Suma-spammer, sondern auch x gutgemeinte Gründe, ein Element zu verstecken, zum Beispiel im Zusammenhang mit Barrierefreiheit. Wenn es interessiert, dann kann ich gerne seriöse Quellen zitieren, die so etwas vorschlagen.
Ich hab dazu mal meine Logfiles ausgewertet (manuell!), und nicht einen einzigen Zugriff des G.bot auf meine CSS gefunden!?
Meine CSS liegen in einem eigenen Verzeichnis, und sind teil mit <link rel="stylesheet" ..., teils mit @import ...eingebunden.
Also Entwarnung? liest G. die externen CSS doch nicht?
Ja, ich weiß, der G.bot kann sich auch tarnen. Aber wird er dies ausgerechnet dann tun, wenn er auf CSS Pirsch ist?
Ich hab auch schon den Vorschlag gelesen, den Zugang zum CSS Verzeichnis per robots.txt für den G.bot zu verbieten. Aber wer garantiert, daß G. sich immer daran hält?
(oder wurde das Thema hier schon abschließend behandelt und zweifelsfrei geklärt? dann wäre ich für einen Link zum entsprechenden thread dankbar)
Gruß fuzzy
(sorry, war im falschen Forum gepostet, deshalb hier nochmal)
Mir ist noch nicht aufgefallen, dass der Googlebot CSS liesst.
Das Problem liegt glaube auch darin, dass es für Google erst dann Sinn machen würde, wenn sie das CSS aus auswerten können. Und dafür müsste die Seite gerendert werden. Das stell ich mir bei 8 Mrd. Seiten als durchaus rechenintensiv vor
Gruss Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!
vor dem googlebot sollte man bei css-anwendung zum verstecken von inhalten keine angst haben, vor einer manuellen überprüfung eines hinweises von einem wettbewerber aber schon.