Seite 1 von 1
CSS in der robots verbieten?
Verfasst: 05.06.2006, 01:20
von Fluidum
Hallo zusammen,
der Titel des Threads sagt schon alles oder?
Mir wäre zwar nicht bekommt (zumin. nicht nach meinen Server Logs), dass Big G auf die CSS-Datei zugreift... Aber ist es eventuell nicht sinnvoll
diese in der robots für die Suma auszuschließen?
---
Edit: Man(n) weiß ja nicht was in der Zukunft so kommt

Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 05.06.2006, 07:58
von dein_opi
Verfasst: 05.06.2006, 07:59
von mcchaos
Bisher scheint Google die css-Dateien wirklich nicht abzuholen.
Aber für die Zukunft: Wenn Google wirklich vermutet, dass in der css-Datei faule Sachen abgehen könnten, wird ein Verbot in der robots.txt den Bot auch nicht dran hindern, sich die Datei mal anzuschauen.
Verfasst: 05.06.2006, 10:34
von Fluidum
genau @ dein_opi...
----
Das ist ja quasi die Frage die hier eh keiner wirklich beantworten werden kann @ mcchaos!
Weil nur G das weiß, aber schaden kann es ja nicht...
Verfasst: 05.06.2006, 11:58
von oldInternetUser
Wenn man sich ansieht, warum die Domain
https://www.abakus-internet-marketing.d ... tml#231887 gekickt worden ist, dann scheint google die CSS-Datei zu berücksichtigen.
Verfasst: 05.06.2006, 12:13
von net(t)worker
das scheint doch wohl eine Folge eines Spamreportes gewesen zu sein.... und dazu schaut sich ein Google Mitarbeiter die Seite mit einem Webbrowser an, da gilt die robots.txt also nicht und wird natürlich geladen... und um Spam zu entdecken der in hidden div's oder sonstwie versteckt wird muss man die css garnicht auswerten, da reicht der vergleich zwischen angezeigter Seite und dem HTML Source...
wer also meint er könne sich durch sperren der css files in der robots.txt vor einer Spamerkennung schützen ist definitiv auf dem Holzweg...
auch in Zukunft dürfte eine Auswertung einer css Datei per bot nahezu unmöglich sein, z.b. könnte ein hidden div genausogut zu einem tooltip gehören.... oder die weisse schrift bei weißen Hintergrund, könnte durch ein übergeordnetes Objekt noch eine dunkle Hintergrundgrafik bekommen.... es wird also immer ein User sich die Seite ansehen müssen, wenn der Verdacht aufkommt, dass dort per CSS manipuliert wird.... und ein solcher Verdacht wird per Spamreport erzeugt....
und man muss ja auch noch bedenken, dass ein style auch noch nachträglich per js geändert werden kann.... müsste ein bot also auch noch sämtliches js mit auswerten...
Verfasst: 05.06.2006, 12:24
von oldInternetUser
@net(t)worker: Theoretisch stimme ich dir zu.
Praktisch: Vergleiche per Eingabe in den google-Suchschlitz die zwei Satellitendomains mit der Zieldomain (aus dem anderen Thread). Die Satellitendomains sind hart gekickt, die Zieldomain scheint unbekannt zu sein. Da zeigt der Cache auch ein interessantes Bild (Stichwort Vergleich Cache mit Bildern und Cache in der Nur-Text-Version).
Von allen dreien gibt es einen Cache, der wohl bei einem manuellen Hardcore-Kick wegfällt.
Insofern tippe ich doch eher auf ein automatisches Kicken.