Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google erkennt unsichtbare Div-Container

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
hmueller
PostRank 4
PostRank 4
Beiträge: 144
Registriert: 28.11.2003, 14:19
Wohnort: Neuötting

Beitrag von hmueller » 06.08.2004, 10:32

Curadhan hat geschrieben:hidden
meint ihr diesen hier?

Code: Alles auswählen

<div style="visibility&#58;hidden;">
Ich hab' den nämlich massenhaft in einer Website drin, weil die Navigation in JavaScript nicht gespidert werden kann. Nächste Woche wird aber eine freundliche Navigation eingebaut werden (endlich).
Eine Abstrafung habe ich aber in den letzten Tagen nicht bemerkt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

HW
PostRank 8
PostRank 8
Beiträge: 761
Registriert: 04.04.2004, 08:00
Wohnort: Viersen

Beitrag von HW » 06.08.2004, 10:32

vielleicht würde es helfen in die robots.txt reinzuschreiben das der spider sich die css datei nicht anschauen darf?! wäre eventuell mal einen test wert. wer meldet sich freiwillig?
..habe ich seit jeher auf allen meinen Domains.
Übrignes: Negative Werte benutzt jeder der sich mit barrierefreiem Webdesign beschäftigt. Wenn gurgel das blocken würde, würden massenhaft wertvolle Seiten gekickt.

Jörg
PostRank 9
PostRank 9
Beiträge: 1168
Registriert: 03.07.2003, 07:06

Beitrag von Jörg » 06.08.2004, 10:35

luminatus hat geschrieben:@jörg:natuerlich muss der bot die css gesondert abrufen, er versucht
doch dann aber nicht das verzeichnis zu scannen.
warum scannen? er kennt ja den Namen der css-Datei und des Ordners durch die Einbindung in der html-Datei - ansonsten könnten die Browser die Datei ja auch nicht abrufen. Der Google Bot scannt keine Ordner, das wäre mir jedenfalls neu ;), sondern fordert die ihm (durch Verlinkung oder Einbindung) bekannten Dateien an
Suchmaschinenoptimierte Forensoftware ::: [url=httpss://joergs-forum.de/]Webmaster-Forum[/url]

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 06.08.2004, 14:29

Klärung zu robots.txt:
Google liest Dateien / Verzeichnisse die in der robots.txt definiert sind nur im Fehlerfall. Normalerweise kommt sowas nicht vor. Gerade bei css-Dateien kann ich aus eigener Erfahrung (und Logfiles) sagen dass es so gut wie nie vorkommt.

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 06.08.2004, 15:32

moin moin,

ich würde mal den hidden container sichtbar machen und
schauen was passiert.

kenne seiten, die nicht schlechter gerankt wurden.

grüsse

Metaman
PostRank 7
PostRank 7
Beiträge: 602
Registriert: 17.04.2004, 07:37
Wohnort: Wittenburg (Mecklenburg)

Beitrag von Metaman » 06.08.2004, 16:25

naja um bei den Theorien zu bleiben,
wenn google eine Seite findet und die .css wegen eines Eintrags in der robots.txt nicht lesen darf, was wird dann wohl so ein Spider "denken"

natürlich das dort vielleicht etwas drinsteht was nicht ganz sauer ist.. :-?

also sollte man vielleicht einfach zwei .css dateien haben,
und dann vielleicht über eine .htaccess regeln wann die eine und wann die andere gezeigt werden soll 8)
denn so eine .htaccess kann google nicht umgehen, außer er hätte die FTP Zugangsdaten...

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 06.08.2004, 16:55

Metaman, ein gesperrtes Verzeichnis in dem eine css-Datei liegt, ach wie schrecklich. Wenn der Bot mal sowas als Bewertungskriterium hernehmen muss, dann steht es sehr schlecht um die Suchmaschine.

Beispiel warum sowas nicht geht:
Ein Projekt hat eine Menge Dateien die in die Seiten eingebunden werden, unter anderem Stylesheets, Javascript-Dateien, Applets etc. Diese werden alle in einen Ordner gehauen und dieser für Spider gesperrt da die Daten sowieso nicht wirklich interpretiert werden können und die Botaufrufe somit nur Traffic verursachen würden.

agetek
PostRank 4
PostRank 4
Beiträge: 188
Registriert: 22.02.2004, 13:40
Wohnort: Konstanz

Beitrag von agetek » 06.08.2004, 18:01

@Metaman:

Ich glaub zwar nicht, dass es Google sonderlich juckt wenn er nicht auf das CSS File zugreifen kann, aber wenn du auf Nummer sicher gehen willst und den Aufwand nicht scheust dann cloak doch einfach das externe CSS File.
Bitte nach Linktausch fragen! Meine Domain hat PR 6, tausche aber auch mit guten Seiten, die einen niedrigeren PR haben

www.hefelmann.com <--- Meine Seite

spiffman
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 18.08.2003, 13:46
Wohnort: münster/germany

Beitrag von spiffman » 07.01.2005, 11:36

Hi, habe gerade ein ähnliches Problem. Ist vielleicht für den einen oder anderen interessant. Die Seite www.waktuloopa.de wird nicht richtig indexiert, der eigentliche Inhalt ist wegen einem JS-Scroller in zwei Div's untergebracht. Eigentlich der wichtigste Text.

https://www.google.com/search?q=site:ww ... =&filter=0

pi-de
PostRank 6
PostRank 6
Beiträge: 406
Registriert: 22.03.2003, 11:06

Beitrag von pi-de » 07.01.2005, 12:32

Wenn du ein Verzeichnis mit der robots.txt sperrst,
ist nicht nur das Verzeichnis vorm *scannen* geschützt
sondern alle Dateien und Unterverzeichnisse sind
gesperrt.

Von der Theorie dürfte also die CSS-Datei nicht
gelesen werden - außer es gibt eine spezielle
Ausnahme von Google für diesen Fall.

//Edit: Sorry, 2te Seite übersehen :oops:

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 07.01.2005, 13:08

Curadhan hat geschrieben:Hallo,

mir ist aufgefallen, dass Google seit dieser Woche Inhalte in unsichtbaren div-containern abstraft, obwohl die css Datei extern ist.
Es wird nicht die gesamte Domain abgestraft, lediglich alle Keywords, die ausschliesslich in den versteckten divs vorkommen. Die Seite wird unter diesen Keywords auch nach wie vor gefunden, allerdings ca 150-200 Positionen abgerutscht. Alle andern Keys sind nach wie vor unverändert gut gelistet.

Gruss
Curadhan
bist du sicher, dass es an dem "hidden" liegt ? vielleicht greift ein anderer filter weil die keyworddichte zu hoch ist ?

ich habe auf einer seite auch so ein teil im einsatz (bringt, so glaub ich, nur für yahoo noch was), da ist keine veränderung zu sehen

tomaten
PostRank 2
PostRank 2
Beiträge: 39
Registriert: 02.05.2004, 08:28
Wohnort: Stolberg

Beitrag von tomaten » 07.01.2005, 18:57

Also Google hat sich bei mir laut log niemals ne CSS gezogen, sei es, weil er es grundsätzlich nicht tut oder weil das "themes" Verzeichniss (Postnuke) verboten ist.

HW
PostRank 8
PostRank 8
Beiträge: 761
Registriert: 04.04.2004, 08:00
Wohnort: Viersen

Beitrag von HW » 07.01.2005, 19:05

..also ich spame nicht, nutze aber den text-indent - irgendwas um den Text durch ein Bild zu ersetzen (Hindergrundbild). Meine Css-Datei ist für die Robots gesperrt.
Ich habe noch keinen Abfall meiner Position feststellen können.

Ich erwähnte das schon mehrmals: Alle die sich mit barrierefreien Webdesign beschäftigen müssten dann mehr oder weniger Abgestraft werden. Zeldman, Stopdesign, Mezzoblue und andere Namhafte Seiten nutzen diese Technik.

chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 07.01.2005, 20:27

Also Google hat sich bei mir laut log niemals ne CSS gezogen
Nojo, da wird er auch nicht offiziell vorstellig werden. Kann sein, dass es da einen "SonderBot" gibt, der mal vorfühlt, wie es denn wäre.

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 07.01.2005, 21:30

chio hat geschrieben:
Also Google hat sich bei mir laut log niemals ne CSS gezogen
Nojo, da wird er auch nicht offiziell vorstellig werden. Kann sein, dass es da einen "SonderBot" gibt, der mal vorfühlt, wie es denn wäre.
:roll: hm - achtung jetzt kommt der sonderbot von google :roll:

ich habe gerade einen test gestartet - Seite nur mit unsichtbaren containern, und einem kunstwort, nu wolln mal schauen ob das montag da ist. wenn ja wär es ja verwunderlich.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag