Seite 1 von 3

Google erkennt unsichtbare Div-Container

Verfasst: 06.08.2004, 07:28
von Curadhan
Hallo,

mir ist aufgefallen, dass Google seit dieser Woche Inhalte in unsichtbaren div-containern abstraft, obwohl die css Datei extern ist.
Es wird nicht die gesamte Domain abgestraft, lediglich alle Keywords, die ausschliesslich in den versteckten divs vorkommen. Die Seite wird unter diesen Keywords auch nach wie vor gefunden, allerdings ca 150-200 Positionen abgerutscht. Alle andern Keys sind nach wie vor unverändert gut gelistet.

Gruss
Curadhan

Verfasst:
von

Verfasst: 06.08.2004, 08:00
von FrankyGER
meinst du hidden oder Minus Koordinaten, oder beides?

Verfasst: 06.08.2004, 08:03
von Curadhan
hidden

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 06.08.2004, 08:47
von decision
WOW, google lernt aber schnell

Verfasst: 06.08.2004, 08:47
von sflueki
@ Curadhan

hast du Belege, Beweise oder Sonstiges was wir uns anguggen können? 8)

Verfasst: 06.08.2004, 08:53
von Curadhan
ich will die URL nicht nennen, weil die Domain nicht mir gehört

Re: Google erkennt unsichtbare Div-Container

Verfasst: 06.08.2004, 08:55
von moep123
Curadhan hat geschrieben: obwohl die css Datei extern ist.
vielleicht würde es helfen in die robots.txt reinzuschreiben das der spider sich die css datei nicht anschauen darf?! wäre eventuell mal einen test wert. wer meldet sich freiwillig? :lol:

mfg
moep123

Verfasst: 06.08.2004, 09:09
von luminatus
ich habe gerade backlinks gecheckt, weil ich auf einer PR4 seite links zu anderen
seiten versteckt habe :oops: zum glueck ist es eine testseite ...

die links sind in layern untergebracht und die position der layer wird in einer
externen css-datei definiert.

seltsamerweise taucht die 'boese' seite nicht in den backlinks der anderen seiten
auf, auch wenn die links sichtbar angebracht sind.

der PR4 ist immer noch da, aber die top position fuer bestimmte begriffe ist weg.
der PR kommt wohl dadurch, das die seite backlinks von PR5 seiten hat.

ich werde das mit der robots.txt datei mal checken.

gruesse
luminatus

ps: ich glaube fast, dass es nichts bringt die css in ein vor robots
geschuetztes verzeichnis zu packen. die seite selber ruft ja die css aus
dem verzeichnis, google interpretiert dann nur das ergebnis ... glaub ich.

Verfasst: 06.08.2004, 09:18
von moep123
luminatus hat geschrieben:seltsamerweise taucht die 'boese' seite nicht in den backlinks der anderen seiten auf
du meinst mit: link:www.url.de? da wird seit nem weilchen eh nur "krims-krams" angezeigt. darauf würd ich jetzt nicht unbeding gehen.
luminatus hat geschrieben:die seite selber ruft ja die css aus dem verzeichnis, google interpretiert dann nur das ergebnis ... glaub ich.
aber g00gle "sieht" doch nicht was ein mensch sieht. kann sich nur auf den quellcode bzw. gesetzten-falles auf den css-quellcode bei seiner bewetung stützen. oder hab ich da was übersehen?

mfg
moep123

Verfasst: 06.08.2004, 09:36
von luminatus
meine theorie ist, dass google nicht die verzeichnisse spidert, die in der robots.txt
aufgefuehrt sind, wenn aber die css datei in einer seite eingebunden ist, wird sie
geladen und kann dann auch von google interpretiert werden, sozusagen
wie von einem browser.

wenn da steht 'left: -1600px;' ist offensichtlich, dass etwas nicht stimmt.

aber mir fehlt ehrlichgesagt das wissen ueber googles bots, ich weiss nicht ob es
so funktioniert.

die jungs bei google sind allerdings nicht doof und werden schon mitbekommen
haben, dass die leute mit divs und ausgelagerten css beschupsen wollen. wie
genau sie das dann geloest haben ist eine andere sache.

gruesse
luminatus

Verfasst: 06.08.2004, 09:48
von warmasol
Ich hatte diese woche auch ein Problem mit css. Hab einfach mal die internen Links in einem layer versteckt, der nicht im vordergrund zu sehen ist. Die Website hat dann massiv an Traffik verloren, da die unterseiten nicht mehr gefunden wurden.
Vor 3 Tagen habe ich die internen Links wieder Sichtbar gemacht. Prompt steigt der Trafiik wieder.
Kann es sein, dass Google für die analyse der Seiten mittlerweile ein Browser ähnliches Programm benutzt, dass nur das auswertet was Wirklich Sichtbar ist. Dafür müssten die ja nur Javascript und CSS interpretieren. Dann wird nur noch das ausgewertet, was am Ende wirklich im Browser übrig bleibt.
Bei einer anderen Seite hab ich noch etwas anderes festgestellt. Dort ist eine Select-Box für die interne Navigation über JavaScript eingebaut. Google folgt nur dem ersten Link in diese Box. Ich dachte immer, das er diese Links gar nicht verfolgen würde. Wenn google aber wirklich Javascript und CSS interpretiert, macht es Sinn, dass einer Select-Box ein Value zugeordnet wird(typischerweise der erste).
Meint ihr das Google das Google mittlerweise einen Browser-Ähnlichen Interpreter zur Seitenanalyse verwenden kann?

Verfasst: 06.08.2004, 09:54
von Jörg
luminatus hat geschrieben:meine theorie ist, dass google nicht die verzeichnisse spidert, die in der robots.txt
aufgefuehrt sind, wenn aber die css datei in einer seite eingebunden ist, wird sie
geladen und kann dann auch von google interpretiert werden, sozusagen
wie von einem browser.
Was meinst du mit "geladen"? Der Bot bzw. Browser muss die css-Datei doch gesondert abrufen, er bekommt sie doch nicht automatisch vom Server hinterher geschmissen, wenn er die html-Datei anfordert, in die diese eingebunden ist?

Re: Google erkennt unsichtbare Div-Container

Verfasst: 06.08.2004, 09:57
von Metaman
Curadhan hat geschrieben:Hallo,

mir ist aufgefallen, dass Google seit dieser Woche Inhalte in unsichtbaren div-containern abstraft, obwohl die css Datei extern ist.
hmm das kann ich eigentlich nicht bestätigen.
ich benutze solche Countainer schon lange und diese Seiten sind nachwievor gleich gut platziert...

Verfasst: 06.08.2004, 09:58
von LinkPop
luminatus hat geschrieben:meine theorie ist, dass google nicht die verzeichnisse spidert, die in der robots.txt aufgefuehrt sind, wenn aber die css datei in einer seite eingebunden ist, wird sie geladen und kann dann auch von google interpretiert werden, sozusagen wie von einem browser.
Deine Theorie ist falsch.

Lädt ein User die Seite mit dem Browser, lädt der Browser die css.Datei und liest diese. Schau mal in Deine Logfiles.

Wenn der Google-Bot die Seite lädt, muß er, um die css.Datei lesen zu können, diese wie ein Browser auch anfordern.

Verfasst: 06.08.2004, 10:26
von luminatus
@jörg:natuerlich muss der bot die css gesondert abrufen, er versucht
doch dann aber nicht das verzeichnis zu scannen.

@LinkPop: Du hast mich anscheinend auch missverstanden. ich sage doch,
dass der bot die datei anfordern muss. anders geht es doch auch nicht.

aber es ist doch ein grundlegender unterschied, ob versucht wird ein
verzeichnis zu scannen oder eine datei abzurufen ...

[/quote]