Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
die Seite wird auch abgewertet, wenn zwei farben nicht zueinander passen.ole1210 hat geschrieben:Ich denke schon, das google schwarzen Text vor schwarzem Hintergrund als Spam werten kann.
Ja, so siehts wohl nach wie vor aus. Allerdings versteh ich immer noch nicht, wieso Google das CSS nicht analysiert. Ist natürlich nicht vollkommen trivial.depp ich hat geschrieben:Gar nicht. Google ist farbenblind, immer noch.Wie tief checkt Google ab, welche Farbe vor welchem Hintergrund liegt?
Ich vermute mal das man dazu einiges an Rechenkapazität braucht. Versteckter Text und sonstiger Spam per CSS ist aber doch derzeit auch gar nicht das große Problem in den SERPs.BenSchwarz hat geschrieben:Ja, so siehts wohl nach wie vor aus. Allerdings versteh ich immer noch nicht, wieso Google das CSS nicht analysiert. Ist natürlich nicht vollkommen trivial.
Aber wenn ein IE oder Firefox das schafft, dann müsste doch ein intelligenter Google-Bot das auch können.
Das ist Quatsch. Die Browser analysieren gar nichts sondern arbeiten nur Einstellungen die per css oder HTML getroffen werden ab. Der einzige der dann analysiert ist der User. Nur der ist im Stande ( oder auch nicht ) versteckten Text zu finden.Aber wenn ein IE oder Firefox das schafft, dann müsste doch ein intelligenter Google-Bot das auch können.
Das glaube ich auch. Zumal die Backlink und PageRank usw. Berechnungen schon viel Rechenpower und vor allem Zeit in Anspruch nehmen und das kostet Geld , viel Geld. Ich bin mir aber sicher, dass google daran arbeitet die css und Html Tags besser auswerten zu können.Ich vermute mal das man dazu einiges an Rechenkapazität braucht
Das sehe ich auch so. Aber das wird ein ewiger Wettlauf werden. Wenn der IE 7 möglicherweise ein Konstrukt wie:Martin Ice hat geschrieben:Ich bin mir aber sicher, dass google daran arbeitet die css und Html Tags besser auswerten zu können.
Code: Alles auswählen
<html lang="de">
<head>
<title>Test</title>
<style type="text/css">
p[lang="de-CH"] {display: none;}
</style>
</head>
<body>
<h1>Test</h1>
<p>Absatz 1 wird normal dargestellt.</p>
<p lang="de-CH">Absatz 2 wird bei "modernen" Browsern versteckt.</p>
</body>
</html>
Das stimmt schon. Allerdings sollte es doch nicht allzu viel Rechnaufwand benötigen zumindest einfache Täuschungen wie Schriftgröße <= 1px oder Schriftfarbe = Hintergrundfarbe aufzuspüren.Der einzige der dann analysiert ist der User. Nur der ist im Stande ( oder auch nicht ) versteckten Text zu finden.
Jo das stimmt wohl. Aber das sollte ja wohl auch im Interesse von Google sein, Spamming-Tricks aufzuspüren. Und die verdienen ja nicht gerade schlecht und müssen halt weiter investieren und nicht nur in neue Web 2.0 Technologien, sondern auch in Ihr Kerngeschäft. Es gibt genügend Beispiele, wo Firmen sich zu weit von Ihrem eigentlichen Betätigungsfeld entfernt haben und damit auf die Schanuze geflogen sind. Mich persönlich würds aber nicht stören, wenn Google ein paar Marktanteile verliert.Ich vermute mal das man dazu einiges an Rechenkapazität braucht
Allerdings dürfte es ein Problem geben, wenn die Positionierung der Elemente mit herangezogen wird, denn es ist selbst für einen maschinellen "Prescan" alles andere als trivial zu erkennen, welche Positionierungsangaben geeignet sind, ein Element potentiell aus dem sichtbaren Bereich herauszubefördern oder eben nicht (z.B. negative Werte für margin). Die Möglichkeiten von CSS sind da leider einfach zu vielfältig.Nullpointer hat geschrieben:es wäre wohl kein problem externe css-files (oder auch inline css) nach hidden attributen zu scannen.