Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Hintergrund & Vordergrund & Google

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
ff-webdesigner
PostRank 6
PostRank 6
Beiträge: 433
Registriert: 30.01.2004, 07:34
Wohnort: Regensburg

Beitrag von ff-webdesigner » 19.03.2006, 11:02

Servus beisammen!

Fall: Schrift einer HP wurde mittels CSS auf weiss gesetzt,
Hintergrund mittels HTML auf schwarz.

Google ignoriert CSS völlig, oder?
Das würde dann bedeuten, dass für Google schwarze Schrift auf Schwarzem Hintergrund liegt = SPAM.

Kann das sein? Wie tief checkt Google ab, welche Farbe vor welchem Hintergrund liegt?
ff-webdesigner.de: Webdesign aus Regensburg und München

Suche keine Linkpartner oder indische SEOs!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 19.03.2006, 12:24

Wie tief checkt Google ab, welche Farbe vor welchem Hintergrund liegt?
Gar nicht. Google ist farbenblind, immer noch.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 19.03.2006, 13:12

Das halte ich für eine sehr gewagte These.

Ich denke schon, das google schwarzen Text vor schwarzem Hintergrund als Spam werten kann.

Allerdings habe ich noch nie gehört, das css ignoriert wird.

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 19.03.2006, 13:20

ole1210 hat geschrieben:Allerdings habe ich noch nie gehört, das css ignoriert wird.
:o
Ich bewundere immer wieder deine klaren und ausdrucksstarken Sätze.

lloy
PostRank 7
PostRank 7
Beiträge: 638
Registriert: 23.08.2005, 17:19

Beitrag von lloy » 19.03.2006, 13:50

Also automatisch wird die Domain mit Sicherheit nicht abgestuft; wäre auch sehr gewagt, da es in diesem Bereich ja tausende Feinheiten gibt -> ein CSS-Befehl hebt den anderen auf, usw.

Wenn es tatsächlich versteckten Text gibt, wird es halt eng falls mal die Konkurrenz (-> Spam Report) oder ein Google-Mitarbeiter vorbeischaut...

Wenn die Seite sauber ist, hast Du meiner Meinung nach nichts zu befürchten.
Zuletzt geändert von lloy am 19.03.2006, 13:53, insgesamt 1-mal geändert.

fornex
PostRank 4
PostRank 4
Beiträge: 154
Registriert: 01.03.2006, 01:14
Wohnort: :tronhoW

Beitrag von fornex » 19.03.2006, 13:52

ole1210 hat geschrieben:Ich denke schon, das google schwarzen Text vor schwarzem Hintergrund als Spam werten kann.
die Seite wird auch abgewertet, wenn zwei farben nicht zueinander passen. :lol:
Suche Linkpartner für Bereiche:
Flirt - Fun - Erotik - 1 Click Hoster

ICQ: 7o7727

Googlebot versteht Javascript

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 19.03.2006, 13:55

Versteckter Text ist für Google ein guter Grund für einen manuellen Kick, aber ich bezweifle das solche Seiten automatisch gekickt werden. Warum ist hier ja schon herausgekommen. Ohne Auswertung von CSS (externe CSS-Dateien) geht das nicht. Ich werte zwar meine Logfiles nicht aus, aber letzter Stand sollte noch sein, das Google kein Interesse an CSS-Dateien zeigt.

BenSchwarz
PostRank 2
PostRank 2
Beiträge: 50
Registriert: 13.03.2006, 17:19
Wohnort: Landsberg

Beitrag von BenSchwarz » 19.03.2006, 17:10

depp ich hat geschrieben:
Wie tief checkt Google ab, welche Farbe vor welchem Hintergrund liegt?
Gar nicht. Google ist farbenblind, immer noch.
Ja, so siehts wohl nach wie vor aus. Allerdings versteh ich immer noch nicht, wieso Google das CSS nicht analysiert. Ist natürlich nicht vollkommen trivial.
Aber wenn ein IE oder Firefox das schafft, dann müsste doch ein intelligenter Google-Bot das auch können.

Meine Erfahrungen mit Spam-Reports sind sehr mäßig. 2 Websites vor ca. 1 Jahr gemeldet (zwischendrin noch ein paar mal), aber keine Reaktion.
Kommt wahrscheinlich auf die Größe des Marktes an. Bei Handyportalen schauen die wahrscheinlich eher vorbei als bei Nischenmärkten. Irgendwie verständlich, aber bedeutet halt auch: In Nischenmärkten hat man eine gewisse Narrenfreiheit - mir ists aber dennoch zu gefährlich. Darum lass ichs lieber sein.

Aber langfristig sehe ich in den Spamreports kein vernünftiges Mittel gegen Suchmaschinenspam - dafür ist das Web zu groß und Google zu geizig tausende Spamreportbearbeiter einzustelln. Google sollte seinen Algorithmus verbessern (v.a. bezgl. CSS). Dann gäbs wahrscheinlich immer noch Tricks diesen zu überlisten, aber wenn mans erschwert schreckt man schon viele Leute ab (siehe Musikindustrie und MP3-Download, seitdem die rumklagen kommen die legalen Portale nach oben, find ich zwar doof, aber gibt wohl leider Zusammenhang.

Gruß
Ben

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 19.03.2006, 19:30

BenSchwarz hat geschrieben:Ja, so siehts wohl nach wie vor aus. Allerdings versteh ich immer noch nicht, wieso Google das CSS nicht analysiert. Ist natürlich nicht vollkommen trivial.
Aber wenn ein IE oder Firefox das schafft, dann müsste doch ein intelligenter Google-Bot das auch können.
Ich vermute mal das man dazu einiges an Rechenkapazität braucht. Versteckter Text und sonstiger Spam per CSS ist aber doch derzeit auch gar nicht das große Problem in den SERPs.

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 19.03.2006, 19:41

Aber wenn ein IE oder Firefox das schafft, dann müsste doch ein intelligenter Google-Bot das auch können.
Das ist Quatsch. Die Browser analysieren gar nichts sondern arbeiten nur Einstellungen die per css oder HTML getroffen werden ab. Der einzige der dann analysiert ist der User. Nur der ist im Stande ( oder auch nicht ) versteckten Text zu finden.
Ich vermute mal das man dazu einiges an Rechenkapazität braucht
Das glaube ich auch. Zumal die Backlink und PageRank usw. Berechnungen schon viel Rechenpower und vor allem Zeit in Anspruch nehmen und das kostet Geld , viel Geld. Ich bin mir aber sicher, dass google daran arbeitet die css und Html Tags besser auswerten zu können.

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 19.03.2006, 19:59

Martin Ice hat geschrieben:Ich bin mir aber sicher, dass google daran arbeitet die css und Html Tags besser auswerten zu können.
Das sehe ich auch so. Aber das wird ein ewiger Wettlauf werden. Wenn der IE 7 möglicherweise ein Konstrukt wie:

Code: Alles auswählen

<html lang="de">
<head>
<title>Test</title>
<style type="text/css">
p&#91;lang="de-CH"&#93; &#123;display&#58; none;&#125;
</style>
</head>
<body>
<h1>Test</h1>
<p>Absatz 1 wird normal dargestellt.</p>
<p lang="de-CH">Absatz 2 wird bei "modernen" Browsern versteckt.</p>
</body>
</html>
"richtig" darstellt (d.h. so wie es Firefox und Opera bereits heute tun), läßt sich für eine Suchmaschine noch wesentlich schwieriger bewerten, ob ein solches Konstrukt sinnvoll ist oder ob es sich um Spam handelt. Allerdings könnte man dem IE auch heute schon sehr bequem den 2. Absatz durch eine Formatierung mittels conditional comments vorenthalten.

BenSchwarz
PostRank 2
PostRank 2
Beiträge: 50
Registriert: 13.03.2006, 17:19
Wohnort: Landsberg

Beitrag von BenSchwarz » 19.03.2006, 21:11

Der einzige der dann analysiert ist der User. Nur der ist im Stande ( oder auch nicht ) versteckten Text zu finden.
Das stimmt schon. Allerdings sollte es doch nicht allzu viel Rechnaufwand benötigen zumindest einfache Täuschungen wie Schriftgröße <= 1px oder Schriftfarbe = Hintergrundfarbe aufzuspüren.
Allerdings würde das gegen die ausgefeilteren Spammintricks wohl auch nichts helfen.
Ich vermute mal das man dazu einiges an Rechenkapazität braucht
Jo das stimmt wohl. Aber das sollte ja wohl auch im Interesse von Google sein, Spamming-Tricks aufzuspüren. Und die verdienen ja nicht gerade schlecht und müssen halt weiter investieren und nicht nur in neue Web 2.0 Technologien, sondern auch in Ihr Kerngeschäft. Es gibt genügend Beispiele, wo Firmen sich zu weit von Ihrem eigentlichen Betätigungsfeld entfernt haben und damit auf die Schanuze geflogen sind. Mich persönlich würds aber nicht stören, wenn Google ein paar Marktanteile verliert.
Was mich auch nervt ist der fehlende Support. Bei den Suchmaschinenergebnissen kann ichs ja noch verstehen (wir zahlen Google ja direkt nichts), aber als umsatzstarker Adwords-Kunde nicht mal eine richtige Telefonnummer zu bekommen ist schon ein starkes Stück.
Naja, jeder hat sein Geschäftsmodell. Mal sehen wie lange das noch gut geht. So, Google-Predikt beendigt :) Und vergesst nicht: Don't be evil ...

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 20.03.2006, 10:03

es wäre wohl kein problem externe css-files (oder auch inline css) nach hidden attributen zu scannen. allerdings ist das ja noch nicht automatisch spam. also müßte man dann diese seiten taggen und dann von menschenähnlichen gebildeten anschauen lassen.
allerdings möchte ich nicht wissen, wieviele millionen seiten dann manuell überprüft werden müßten. am besten funktioniert doch, aus google's sicht, die selbstregulierung aka spam-reports. und da sollte auch aufgestockt werden, bevor unschuldige sites automatisch gekickt werden.

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 20.03.2006, 10:14

Nullpointer hat geschrieben:es wäre wohl kein problem externe css-files (oder auch inline css) nach hidden attributen zu scannen.
Allerdings dürfte es ein Problem geben, wenn die Positionierung der Elemente mit herangezogen wird, denn es ist selbst für einen maschinellen "Prescan" alles andere als trivial zu erkennen, welche Positionierungsangaben geeignet sind, ein Element potentiell aus dem sichtbaren Bereich herauszubefördern oder eben nicht (z.B. negative Werte für margin). Die Möglichkeiten von CSS sind da leider einfach zu vielfältig.

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 20.03.2006, 11:58

klar. verstecken durch positionierung und identische farben ist ungleich schwerer zu erkennen.

ich wollte damit auch nur sagen, dass das bloße erkennen von hidden noch einfach ist, aber selbst da schon das (gerechte) verarbeiten/beurteilen nicht möglich ist.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag