Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
website kostenlos automatisch in webkataloge eintragen ?
gefakter Googlebot - scheinbar Mitarbeiter von Google ?!
Und was hat das alles nun mit CSS oder der Größe von h-tags im allgemeinen zu tun?I care about spam: hidden text, hidden links, scamming links, cloaking, sneaky redirects, etc. So I’m going to go with reason #4: you had spam (specifically hidden text) on your pages. When Googlebot visited https://www.thepeoplescube.com/Truth.php on Sun, 05 Mar 2006 12:17:12 GMT, the page looked fine to users, but had hidden text. Here’s what it looked like with Cascading Style Sheets (CSS) on:
Eben! Die Bots werden nach und nach lernen, alle Cloaking-Tricks zu durchschauen, angefangen von der Schriftfarbe bis hin zu außerhalb der Seite positionierten Elementen.bara.munchies hat geschrieben:Wenn der Browser es sehen kann, warum nicht auch der Bot?
Und wenn es heute nicht so wäre, dann mit Sicherheit morgen oder übermorgen.
Oftmals. Aber es kann auch sinnvoll sein, an die Zukunft zu denken und einer Bestrafung im Vorfeld aus dem Weg zu gehen. Wenn das Kind erstmal in den Brunnen gefallen ist, ist es zu spät!einfach hat geschrieben:gerne spekulier ich dann Morgen oder Übermorgen über dieses Phänomen.Und wenn es heute nicht so wäre, dann mit Sicherheit morgen oder übermorgen.
Über Probleme nachzudenken, bevor sie da sind, führt oftmals in die Irre.
Möglicherweise in 3 Jahren, möglicherweise in 5 Jahren, möglicherweise gar nicht. Die Komplexizität zu erkennen, was "böse" und was "gute" CSS-Formatierungen sind, wird extrem unterschätzt - ebenso wie die dafür erforderliche Rechenkapazität.AndreasR hat geschrieben:Die Bots werden nach und nach lernen, alle Cloaking-Tricks zu durchschauen, angefangen von der Schriftfarbe bis hin zu außerhalb der Seite positionierten Elementen.
Es geht um die Größe eines H1 und um dessen Verwendung an sich.Aber es kann auch sinnvoll sein, an die Zukunft zu denken und einer Bestrafung im Vorfeld aus dem Weg zu gehen. Wenn das Kind erstmal in den Brunnen gefallen ist, ist es zu spät!
Da hast Du natürlich recht. Bei mir ist H1 mit 1.4em angegeben, und es sollte den Bots egal sein, ob es 0.8 oder 8.0em sind. Wenn man aber eine H1 mit 1px oder 0.1em definiert, dann sollte klar sein, dass da etwas nicht stimmt. Ebenso wie unsichtbarer Text oder um 2000px verschobene DIV-Rahmen.einfach hat geschrieben:Es geht um die Größe eines H1 und um dessen Verwendung an sich.
Schriftgrößen werden in benutzerfreundlichen Websites relativ angegeben - der Benutzer bestimmt die endgültige Größe -
jetzt kommt die Behauptung ein Spider *sieht* die Website wie der Browser--
wie welcher Browser?
Wenn Du einen Rahmen um 2000px verschiebst, sollte einem Menschen klar sein, dass Du etwas vor Usern verstecken willst, was der Bot sehen soll. Es wäre für die Bot-Programmierer ein leichtes, alles abzustrafen, was z.B. position und left und mehr als 500px oder 100em verwendet. Oder H1 mit 2px Höhe.einfach hat geschrieben:Ich bin auch offen für jede Form der Erklärung was die Cascade eines CSS2 mit Cloaking zu tun hat und vor welchen Strafen ich mich fürchten muss, weil ich H1 nur 90% hoch habe und nicht 160% ....
AndreasR hat geschrieben:.....H1 mit 1px oder 0.1em definiert, dann sollte klar sein, dass da etwas nicht stimmt.
neben den Schatteneffekten gibt es auch noch CSS basierte Klappmenüs- da kann es schon auch bei sehr großen zu diesen Verschiebungen kommen ....Ebenso wie unsichtbarer Text oder um 2000px verschobene DIV-Rahmen.
Stimmt.einfach hat geschrieben:bei 1px gebe ich Dir eventuell Recht bei 0.1em nicht.AndreasR hat geschrieben:.....H1 mit 1px oder 0.1em definiert, dann sollte klar sein, dass da etwas nicht stimmt.
0.1em ist relativ zum hierarchisch Drüberstehenden ...
was ist wenn das Drüberstehende 300em hat ...
Was ein Browser kann, kann ein Spider prinzipiell auch.einfach hat geschrieben:div id="oben" class="unten links rechts drüber"
und unten hat andere Formatierung als links und die ist wieder anders als rechts oder drüber und somit kann ich auch das nächste div mit
div id="oben" class="rechts drüber" formatieren
und dies alles 'derrechnet' sich ein Spider?
Eher nicht. Nur ein Mensch.einfach hat geschrieben:Hintergrundfarbe gebe ich Schwarz an,
Schriftfarbe nehme ich die Weiße --
aber das Hintergrundbild ist black as black can...
das sieht ein Spider ?
Das stimmt natürlich. Vielleicht können wir uns darauf einigen, dass es mit Computerlogik möglich ist, bestimmte Formen des Cloakings zu erkennen, andere hingegen kaum oder sogar gar nicht.einfach hat geschrieben:wer mit CSS2 mit 1px oder 0.1em oder Hintergrund Schwarz Schriftfarbe Schwarz arbeiten muss, weil er was verstecken mag -
soll das Handwerk lernen ..
da erfolgt die *Bestrafung* Googles meiner Meinung nach nicht mehr wegen Spammens, sondern wegen fehlender *Hausaufgaben*
Das ist sicher richtig. ich behaupte allerdings, daß es für jedes Konstrukt, welches mit Computerlogik in absehbarer Zeit als "böse" (tm) erkannt wird, mindestens 10, wenn nicht sogar 100 Beispiele gibt, die nicht erkannt werden.AndreasR hat geschrieben:Das stimmt natürlich. Vielleicht können wir uns darauf einigen, dass es mit Computerlogik möglich ist, bestimmte Formen des Cloakings zu erkennen, andere hingegen kaum oder sogar gar nicht.
Code: Alles auswählen
<style type="text/css">
#spamcontainer {
position: absolute;
top: 0;
left: 0;
margin-left: -10em;
width: 30em;
height: 100%;
overflow: hidden;
}
#spamcontainer p {
padding-right: 20em;
}
</style>
...
<body>
<div id="spamcontainer">
<p>Ganz viel Mist</p>
<p>Noch mehr Mist</p>
</div>
<p>Hier fängt der eigentliche Seiteninhalt an</p>