Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

<h...>Überschriften</h...>

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
bara.munchies
PostRank 9
PostRank 9
Beiträge: 2457
Registriert: 09.06.2005, 09:02
Wohnort: Krung Tep

Beitrag von bara.munchies » 17.08.2006, 08:30

Fakt ist nunmal, dass google css dateien liest und ob sie ausgewertet werden? ich glaube schon:

https://www.mattcutts.com/blog/seo-advi ... -own-site/

bei dem blatt papier und dem film kann ich deine argumentation nicht nachvollziehen.
Ein browser muss zumindest wissen, welches zeichen wo, wie gross und in welcher farbe er anzuzegen hat. warum soll man diese auswertung nicht auch in einen bot integrieren können? sind alls nur algos und formeln. wie weit man das verschlanken kann, hängt wohl vor allem vom iq von den google wissenschaftlern ab, und den würde ich als sehr hoch einschätzen.

den vergleich mit dem textbrowser halte ich nicht mehr für zeitgemäß. da müsste google die letzten jahre ja geschlafen haben.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Schnipsel
PostRank 10
PostRank 10
Beiträge: 7207
Registriert: 13.07.2006, 22:09
Wohnort: Sonneberg

Beitrag von Schnipsel » 17.08.2006, 08:40

...und selbst wenn google die stylesheets auswertet - meine Überschriften werden weiter formatiert. Wo kommen wir denn da hin, wenn ich mein Design den Überschriften anpassen soll. Die Überschrift hat sich dem Design unterzuordnen - Basta!

Und wenn das dann bei google zwei Zehntel kostet - na und?

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 17.08.2006, 08:40

1.) steht dort NICHT, dass die Seite von einem Bot aussortiert wurde,
2.) steht dort auch, WARUM sie aussortiert wurde:
I care about spam: hidden text, hidden links, scamming links, cloaking, sneaky redirects, etc. So I’m going to go with reason #4: you had spam (specifically hidden text) on your pages. When Googlebot visited https://www.thepeoplescube.com/Truth.php on Sun, 05 Mar 2006 12:17:12 GMT, the page looked fine to users, but had hidden text. Here’s what it looked like with Cascading Style Sheets (CSS) on:
Und was hat das alles nun mit CSS oder der Größe von h-tags im allgemeinen zu tun?

Es geht de facto nur um eines: Spam!
Und den kann man auf vielerlei Arten produzieren.
In diesem Fall wurde halt die CSS missbraucht.

Dürfte man ohne Nachteile die Tags mittels css nicht formatieren, dann würde die Existenz der css ad absurdum geführt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

AndreasR
PostRank 4
PostRank 4
Beiträge: 147
Registriert: 19.06.2006, 19:54
Wohnort: Ruhrgebiet

Beitrag von AndreasR » 17.08.2006, 08:46

Hallo,
bara.munchies hat geschrieben:Wenn der Browser es sehen kann, warum nicht auch der Bot?
Und wenn es heute nicht so wäre, dann mit Sicherheit morgen oder übermorgen.
Eben! Die Bots werden nach und nach lernen, alle Cloaking-Tricks zu durchschauen, angefangen von der Schriftfarbe bis hin zu außerhalb der Seite positionierten Elementen.

Ein Bot ist ein Programm, genau wie ein Browser. Und der Mozilla-Kram (inkl. Firefox) ist Open Source, da können die Bot-Programmierer die ganze CSS-Auswertung übernehmen.

Gruß, Andreas
Bild
Liegerad-Fernweh

Schnipsel
PostRank 10
PostRank 10
Beiträge: 7207
Registriert: 13.07.2006, 22:09
Wohnort: Sonneberg

Beitrag von Schnipsel » 17.08.2006, 08:52

... was hat das Formatieren von Überschriften mit cloaking zu tun?

AndreasR
PostRank 4
PostRank 4
Beiträge: 147
Registriert: 19.06.2006, 19:54
Wohnort: Ruhrgebiet

Beitrag von AndreasR » 17.08.2006, 08:53

Hallo,
einfach hat geschrieben:
Und wenn es heute nicht so wäre, dann mit Sicherheit morgen oder übermorgen.
gerne spekulier ich dann Morgen oder Übermorgen über dieses Phänomen.

Über Probleme nachzudenken, bevor sie da sind, führt oftmals in die Irre.
Oftmals. Aber es kann auch sinnvoll sein, an die Zukunft zu denken und einer Bestrafung im Vorfeld aus dem Weg zu gehen. Wenn das Kind erstmal in den Brunnen gefallen ist, ist es zu spät!

Gruß, Andreas
Bild
Liegerad-Fernweh

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 17.08.2006, 09:54

AndreasR hat geschrieben:Die Bots werden nach und nach lernen, alle Cloaking-Tricks zu durchschauen, angefangen von der Schriftfarbe bis hin zu außerhalb der Seite positionierten Elementen.
Möglicherweise in 3 Jahren, möglicherweise in 5 Jahren, möglicherweise gar nicht. Die Komplexizität zu erkennen, was "böse" und was "gute" CSS-Formatierungen sind, wird extrem unterschätzt - ebenso wie die dafür erforderliche Rechenkapazität.

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 17.08.2006, 09:58

ja AndreasR
Aber es kann auch sinnvoll sein, an die Zukunft zu denken und einer Bestrafung im Vorfeld aus dem Weg zu gehen. Wenn das Kind erstmal in den Brunnen gefallen ist, ist es zu spät!
Es geht um die Größe eines H1 und um dessen Verwendung an sich.

Schriftgrößen werden in benutzerfreundlichen Websites relativ angegeben - der Benutzer bestimmt die endgültige Größe -

jetzt kommt die Behauptung ein Spider *sieht* die Website wie der Browser--

wie welcher Browser?
ein Mozilla Produkt, das Schriftgrößen anders darstellt als ein Microsoft Produkt?
Oder gar wie der edle Safari?

Wie mein Safari, der auf sehr große Schrift eingestellt ist oder wie der vom Kollegen der kleine Schrift bevorzugt?

Wie sieht also der Spider die Website im Browser?

Hat der Spider Firefox? oder Netscape oder gar Konqueror?

Weiß der Spider, dass ich im Firefox sogar das CSS der Websites ausschalten kann und mein individuelles nehme? -

Sorry- für solche wüsten wilden Spekulationen bin ich offenbar zu einfach gestrickt in meinem technischen Verständnis -
lasse mir aber gerne das Gegenteil erklären....



Ich bin auch offen für jede Form der Erklärung was die Cascade eines CSS2 mit Cloaking zu tun hat und vor welchen Strafen ich mich fürchten muss, weil ich H1 nur 90% hoch habe und nicht 160% ....


:o 0X

AndreasR
PostRank 4
PostRank 4
Beiträge: 147
Registriert: 19.06.2006, 19:54
Wohnort: Ruhrgebiet

Beitrag von AndreasR » 17.08.2006, 10:31

Hallo,
einfach hat geschrieben:Es geht um die Größe eines H1 und um dessen Verwendung an sich.
Schriftgrößen werden in benutzerfreundlichen Websites relativ angegeben - der Benutzer bestimmt die endgültige Größe -

jetzt kommt die Behauptung ein Spider *sieht* die Website wie der Browser--

wie welcher Browser?
Da hast Du natürlich recht. Bei mir ist H1 mit 1.4em angegeben, und es sollte den Bots egal sein, ob es 0.8 oder 8.0em sind. Wenn man aber eine H1 mit 1px oder 0.1em definiert, dann sollte klar sein, dass da etwas nicht stimmt. Ebenso wie unsichtbarer Text oder um 2000px verschobene DIV-Rahmen.

einfach hat geschrieben:Ich bin auch offen für jede Form der Erklärung was die Cascade eines CSS2 mit Cloaking zu tun hat und vor welchen Strafen ich mich fürchten muss, weil ich H1 nur 90% hoch habe und nicht 160% ....
Wenn Du einen Rahmen um 2000px verschiebst, sollte einem Menschen klar sein, dass Du etwas vor Usern verstecken willst, was der Bot sehen soll. Es wäre für die Bot-Programmierer ein leichtes, alles abzustrafen, was z.B. position und left und mehr als 500px oder 100em verwendet. Oder H1 mit 2px Höhe.

Und ich glaube, dass das irgendwann kommen wird.

Gruß, Andreas
Bild
Liegerad-Fernweh

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 17.08.2006, 10:40

Na, damit sind wir uns doch (fast) alle wieder einig, Andreas ;)

Allerdings dass Deine Verschiebung - 2000 px automatisch Spam / Cloaking ist, damit gehe ich nicht konform.

Wenn ich z.B. mittels css "weiche Schlagschatten" simuliere, dann bin ich schnell mal bei -2000 px - je nachdem, wieviele Graustufen vorgesehen sind und wie groß das Objekt selber ist.

Ist irgendwie alles nicht so ganz einfach, da 'ne klare, Bot verständliche Regel zu konstruieren.
Womit wir wieder ganz am Anfang wären *g*

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 17.08.2006, 10:54

AndreasR hat geschrieben:.....H1 mit 1px oder 0.1em definiert, dann sollte klar sein, dass da etwas nicht stimmt.

bei 1px gebe ich Dir eventuell Recht bei 0.1em nicht.

0.1em ist relativ zum hierarchisch Drüberstehenden ...
was ist wenn das Drüberstehende 300em hat ...
das nennt sich eben Cascade


div id="oben" class="unten links rechts drüber"

und unten hat andere Formatierung als links und die ist wieder anders als rechts oder drüber und somit kann ich auch das nächste div mit

div id="oben" class="rechts drüber" formatieren

und dies alles 'derrechnet' sich ein Spider?
Ebenso wie unsichtbarer Text oder um 2000px verschobene DIV-Rahmen.
neben den Schatteneffekten gibt es auch noch CSS basierte Klappmenüs- da kann es schon auch bei sehr großen zu diesen Verschiebungen kommen ....

Hintergrundfarbe gebe ich Schwarz an,
Schriftfarbe nehme ich die Weiße --
aber das Hintergrundbild ist black as black can...

das sieht ein Spider ?

wer mit CSS2 mit 1px oder 0.1em oder Hintergrund Schwarz Schriftfarbe Schwarz arbeiten muss, weil er was verstecken mag -
soll das Handwerk lernen ..


;)
da erfolgt die *Bestrafung* Googles meiner Meinung nach nicht mehr wegen Spammens, sondern wegen fehlender *Hausaufgaben*

;)


lg

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 17.08.2006, 11:12

[ot]
apropros Hausaufgaben ... *duck*
da fällt mir doch glatt ein, isch hab 'ne Cat-Beschreibung fagässen :bad-words:
[/ot]

AndreasR
PostRank 4
PostRank 4
Beiträge: 147
Registriert: 19.06.2006, 19:54
Wohnort: Ruhrgebiet

Beitrag von AndreasR » 17.08.2006, 11:18

Hallo,
einfach hat geschrieben:
AndreasR hat geschrieben:.....H1 mit 1px oder 0.1em definiert, dann sollte klar sein, dass da etwas nicht stimmt.
bei 1px gebe ich Dir eventuell Recht bei 0.1em nicht.

0.1em ist relativ zum hierarchisch Drüberstehenden ...
was ist wenn das Drüberstehende 300em hat ...
Stimmt.
einfach hat geschrieben:div id="oben" class="unten links rechts drüber"

und unten hat andere Formatierung als links und die ist wieder anders als rechts oder drüber und somit kann ich auch das nächste div mit

div id="oben" class="rechts drüber" formatieren

und dies alles 'derrechnet' sich ein Spider?
Was ein Browser kann, kann ein Spider prinzipiell auch.
einfach hat geschrieben:Hintergrundfarbe gebe ich Schwarz an,
Schriftfarbe nehme ich die Weiße --
aber das Hintergrundbild ist black as black can...

das sieht ein Spider ?
Eher nicht. Nur ein Mensch.

Auch wenn Du den Text #FFFFFE und den Hintergrund #FFFFFF machst, dürfte ein Spider dies als "sichtbar" bewerten.
einfach hat geschrieben:wer mit CSS2 mit 1px oder 0.1em oder Hintergrund Schwarz Schriftfarbe Schwarz arbeiten muss, weil er was verstecken mag -
soll das Handwerk lernen ..

;)
da erfolgt die *Bestrafung* Googles meiner Meinung nach nicht mehr wegen Spammens, sondern wegen fehlender *Hausaufgaben*
Das stimmt natürlich. Vielleicht können wir uns darauf einigen, dass es mit Computerlogik möglich ist, bestimmte Formen des Cloakings zu erkennen, andere hingegen kaum oder sogar gar nicht.

Gruß, Andreas
Bild
Liegerad-Fernweh

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 17.08.2006, 11:49

AndreasR hat geschrieben:Das stimmt natürlich. Vielleicht können wir uns darauf einigen, dass es mit Computerlogik möglich ist, bestimmte Formen des Cloakings zu erkennen, andere hingegen kaum oder sogar gar nicht.
Das ist sicher richtig. ich behaupte allerdings, daß es für jedes Konstrukt, welches mit Computerlogik in absehbarer Zeit als "böse" (tm) erkannt wird, mindestens 10, wenn nicht sogar 100 Beispiele gibt, die nicht erkannt werden.
Bleiben wir bei dem Beispiel mit dem div, welches aus dem sichtbaren Bereich gerückt wird.

Code: Alles auswählen

<style type="text/css">
#spamcontainer &#123;
  position&#58; absolute;
  top&#58; 0;
  left&#58; 0;
  margin-left&#58; -10em;
  width&#58; 30em;
  height&#58; 100%;
  overflow&#58; hidden;
  &#125;
  #spamcontainer p &#123;
  padding-right&#58; 20em;
  &#125;
</style>
...
<body>
<div id="spamcontainer">
<p>Ganz viel Mist</p>
<p>Noch mehr Mist</p>
</div>
<p>Hier fängt der eigentliche Seiteninhalt an</p>
Ich gehe davon aus, daß Einigkeit darüber herrscht, daß gelegentlich negative margins erforderlich sind und die Verwendung nicht per se etwas Schlechtes darstellt. Wie "intelligent" muß nun ein Algorithmus sein, um für #spamcontainer die sichtbare Breite zu berechnen und mit dem padding-right im verschachtelten p-Element zu vergleichen? Und obiges Beispiel kann man getrost in die Kategorie "primitiv-Spam" einordnen.

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 17.08.2006, 11:56

Ein ganz praktisches Beispiel:
Auf der im Profil verlinkten Seite gibt es eine Unterseite "Aktivitäten", die wäre ohne negative Werte in der Art nicht möglich.

Ist das Spam oder Cloaking?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag