Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google erkennt unsichtbare Div-Container

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Curadhan
PostRank 5
PostRank 5
Beiträge: 201
Registriert: 23.09.2003, 08:08
Wohnort: Bodensee

Beitrag von Curadhan » 06.08.2004, 07:28

Hallo,

mir ist aufgefallen, dass Google seit dieser Woche Inhalte in unsichtbaren div-containern abstraft, obwohl die css Datei extern ist.
Es wird nicht die gesamte Domain abgestraft, lediglich alle Keywords, die ausschliesslich in den versteckten divs vorkommen. Die Seite wird unter diesen Keywords auch nach wie vor gefunden, allerdings ca 150-200 Positionen abgerutscht. Alle andern Keys sind nach wie vor unverändert gut gelistet.

Gruss
Curadhan

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

FrankyGER
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 27.01.2004, 18:43

Beitrag von FrankyGER » 06.08.2004, 08:00

meinst du hidden oder Minus Koordinaten, oder beides?

Curadhan
PostRank 5
PostRank 5
Beiträge: 201
Registriert: 23.09.2003, 08:08
Wohnort: Bodensee

Beitrag von Curadhan » 06.08.2004, 08:03

hidden

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


decision
PostRank 6
PostRank 6
Beiträge: 409
Registriert: 15.04.2004, 20:44
Wohnort: Sebnitz

Beitrag von decision » 06.08.2004, 08:47

WOW, google lernt aber schnell
Tools24.org Bewertungsportal für online Webmaster-Tools

sflueki
PostRank 5
PostRank 5
Beiträge: 243
Registriert: 06.10.2003, 16:13

Beitrag von sflueki » 06.08.2004, 08:47

@ Curadhan

hast du Belege, Beweise oder Sonstiges was wir uns anguggen können? 8)

Curadhan
PostRank 5
PostRank 5
Beiträge: 201
Registriert: 23.09.2003, 08:08
Wohnort: Bodensee

Beitrag von Curadhan » 06.08.2004, 08:53

ich will die URL nicht nennen, weil die Domain nicht mir gehört

moep123
PostRank 3
PostRank 3
Beiträge: 83
Registriert: 14.06.2004, 12:10
Wohnort: Reutlingen

Beitrag von moep123 » 06.08.2004, 08:55

Curadhan hat geschrieben: obwohl die css Datei extern ist.
vielleicht würde es helfen in die robots.txt reinzuschreiben das der spider sich die css datei nicht anschauen darf?! wäre eventuell mal einen test wert. wer meldet sich freiwillig? :lol:

mfg
moep123

luminatus
PostRank 4
PostRank 4
Beiträge: 125
Registriert: 22.10.2002, 12:29
Wohnort: Hannover

Beitrag von luminatus » 06.08.2004, 09:09

ich habe gerade backlinks gecheckt, weil ich auf einer PR4 seite links zu anderen
seiten versteckt habe :oops: zum glueck ist es eine testseite ...

die links sind in layern untergebracht und die position der layer wird in einer
externen css-datei definiert.

seltsamerweise taucht die 'boese' seite nicht in den backlinks der anderen seiten
auf, auch wenn die links sichtbar angebracht sind.

der PR4 ist immer noch da, aber die top position fuer bestimmte begriffe ist weg.
der PR kommt wohl dadurch, das die seite backlinks von PR5 seiten hat.

ich werde das mit der robots.txt datei mal checken.

gruesse
luminatus

ps: ich glaube fast, dass es nichts bringt die css in ein vor robots
geschuetztes verzeichnis zu packen. die seite selber ruft ja die css aus
dem verzeichnis, google interpretiert dann nur das ergebnis ... glaub ich.
••• www.j-pop.de - Japan Pop, Anime •••

moep123
PostRank 3
PostRank 3
Beiträge: 83
Registriert: 14.06.2004, 12:10
Wohnort: Reutlingen

Beitrag von moep123 » 06.08.2004, 09:18

luminatus hat geschrieben:seltsamerweise taucht die 'boese' seite nicht in den backlinks der anderen seiten auf
du meinst mit: link:www.url.de? da wird seit nem weilchen eh nur "krims-krams" angezeigt. darauf würd ich jetzt nicht unbeding gehen.
luminatus hat geschrieben:die seite selber ruft ja die css aus dem verzeichnis, google interpretiert dann nur das ergebnis ... glaub ich.
aber g00gle "sieht" doch nicht was ein mensch sieht. kann sich nur auf den quellcode bzw. gesetzten-falles auf den css-quellcode bei seiner bewetung stützen. oder hab ich da was übersehen?

mfg
moep123

luminatus
PostRank 4
PostRank 4
Beiträge: 125
Registriert: 22.10.2002, 12:29
Wohnort: Hannover

Beitrag von luminatus » 06.08.2004, 09:36

meine theorie ist, dass google nicht die verzeichnisse spidert, die in der robots.txt
aufgefuehrt sind, wenn aber die css datei in einer seite eingebunden ist, wird sie
geladen und kann dann auch von google interpretiert werden, sozusagen
wie von einem browser.

wenn da steht 'left: -1600px;' ist offensichtlich, dass etwas nicht stimmt.

aber mir fehlt ehrlichgesagt das wissen ueber googles bots, ich weiss nicht ob es
so funktioniert.

die jungs bei google sind allerdings nicht doof und werden schon mitbekommen
haben, dass die leute mit divs und ausgelagerten css beschupsen wollen. wie
genau sie das dann geloest haben ist eine andere sache.

gruesse
luminatus
••• www.j-pop.de - Japan Pop, Anime •••

warmasol
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 07.01.2004, 18:17

Beitrag von warmasol » 06.08.2004, 09:48

Ich hatte diese woche auch ein Problem mit css. Hab einfach mal die internen Links in einem layer versteckt, der nicht im vordergrund zu sehen ist. Die Website hat dann massiv an Traffik verloren, da die unterseiten nicht mehr gefunden wurden.
Vor 3 Tagen habe ich die internen Links wieder Sichtbar gemacht. Prompt steigt der Trafiik wieder.
Kann es sein, dass Google für die analyse der Seiten mittlerweile ein Browser ähnliches Programm benutzt, dass nur das auswertet was Wirklich Sichtbar ist. Dafür müssten die ja nur Javascript und CSS interpretieren. Dann wird nur noch das ausgewertet, was am Ende wirklich im Browser übrig bleibt.
Bei einer anderen Seite hab ich noch etwas anderes festgestellt. Dort ist eine Select-Box für die interne Navigation über JavaScript eingebaut. Google folgt nur dem ersten Link in diese Box. Ich dachte immer, das er diese Links gar nicht verfolgen würde. Wenn google aber wirklich Javascript und CSS interpretiert, macht es Sinn, dass einer Select-Box ein Value zugeordnet wird(typischerweise der erste).
Meint ihr das Google das Google mittlerweise einen Browser-Ähnlichen Interpreter zur Seitenanalyse verwenden kann?

Jörg
PostRank 9
PostRank 9
Beiträge: 1168
Registriert: 03.07.2003, 07:06

Beitrag von Jörg » 06.08.2004, 09:54

luminatus hat geschrieben:meine theorie ist, dass google nicht die verzeichnisse spidert, die in der robots.txt
aufgefuehrt sind, wenn aber die css datei in einer seite eingebunden ist, wird sie
geladen und kann dann auch von google interpretiert werden, sozusagen
wie von einem browser.
Was meinst du mit "geladen"? Der Bot bzw. Browser muss die css-Datei doch gesondert abrufen, er bekommt sie doch nicht automatisch vom Server hinterher geschmissen, wenn er die html-Datei anfordert, in die diese eingebunden ist?
Suchmaschinenoptimierte Forensoftware ::: [url=httpss://joergs-forum.de/]Webmaster-Forum[/url]

Metaman
PostRank 7
PostRank 7
Beiträge: 602
Registriert: 17.04.2004, 07:37
Wohnort: Wittenburg (Mecklenburg)

Beitrag von Metaman » 06.08.2004, 09:57

Curadhan hat geschrieben:Hallo,

mir ist aufgefallen, dass Google seit dieser Woche Inhalte in unsichtbaren div-containern abstraft, obwohl die css Datei extern ist.
hmm das kann ich eigentlich nicht bestätigen.
ich benutze solche Countainer schon lange und diese Seiten sind nachwievor gleich gut platziert...

LinkPop
PostRank 9
PostRank 9
Beiträge: 1677
Registriert: 02.05.2004, 13:52

Beitrag von LinkPop » 06.08.2004, 09:58

luminatus hat geschrieben:meine theorie ist, dass google nicht die verzeichnisse spidert, die in der robots.txt aufgefuehrt sind, wenn aber die css datei in einer seite eingebunden ist, wird sie geladen und kann dann auch von google interpretiert werden, sozusagen wie von einem browser.
Deine Theorie ist falsch.

Lädt ein User die Seite mit dem Browser, lädt der Browser die css.Datei und liest diese. Schau mal in Deine Logfiles.

Wenn der Google-Bot die Seite lädt, muß er, um die css.Datei lesen zu können, diese wie ein Browser auch anfordern.
[url=httpss://www.rankseek.com/][img]httpss://www.rankseek.com/img/rankseek-xs-2.png[/img][/url]
  • Täglicher Ranking-Check Deiner Top-Keywords mit Traffic-Index für Mobile und Desktop, Serp-View, Reporting, Ranking-Charts, Konkurrenzanalyse, Ranking-Verteilung, Keyword-Suggest und mehr für nur 11,90 € / Monat. Jetzt alle rankseek-Tools 30 Tage kostenlos testen » [url=httpss://www.rankseek.com/features.php]Features[/url]

luminatus
PostRank 4
PostRank 4
Beiträge: 125
Registriert: 22.10.2002, 12:29
Wohnort: Hannover

Beitrag von luminatus » 06.08.2004, 10:26

@jörg:natuerlich muss der bot die css gesondert abrufen, er versucht
doch dann aber nicht das verzeichnis zu scannen.

@LinkPop: Du hast mich anscheinend auch missverstanden. ich sage doch,
dass der bot die datei anfordern muss. anders geht es doch auch nicht.

aber es ist doch ein grundlegender unterschied, ob versucht wird ein
verzeichnis zu scannen oder eine datei abzurufen ...

[/quote]
••• www.j-pop.de - Japan Pop, Anime •••

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag