Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Googlebot holt sich bei Crawl auch externe CSS-Dateien

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 24.06.2006, 15:54

einfach hat geschrieben:ich werde weiterhin ganz usability meine Sprungmarken mit

Code: Alles auswählen

.invisible{position:absolute;left:-3999px;width:999px;}
verstecken
Verstehe ich nicht: Wenn ich Sprungmarken als Ziel benötige, die nicht gleichzeitig Links sind, genügt

Code: Alles auswählen

<a id="sprungmarkenname"></a>
völlig: Ein Link ohne href, aber mit ID, das ist für google kein Problem.

Warum soll ich Sprungmarken rausschieben?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 24.06.2006, 16:16

ich habe für alle einzelnen Bereiche meiner Website Sprungmarken drin für Screenreader Nutzer,

mache ich die sichtbar, sind aber soviele der Sehenden Nutzer irritiert,

daher schiebe ich die - damit der IE und manch exotischer Browser das Layout nicht verschmeißt, aus dem Viewpoint,

denn display:none, da hören die meisten der Screenreader auf zu lesen :(

lg

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 24.06.2006, 16:24

Der von mir angegebene Link ist in normalen Browsern nicht sichtbar, weil kein Linktext angegeben ist.

Und das funktioniert für Sprungmarkenziele hervorragend. Bei mir sind das Sprünge aus Einzeldateien heraus auf eine Übersicht - aber eben nicht auf #top, sondern genau an die gewünschte Stelle.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 24.06.2006, 17:42

ja das funktioniert keine Frage,

aber hilft mir nichts,

wenn die Webseite aus dem Quelltext vorgelesen wird, gibt es Screenreader,

erfahrene Nutzer dieser Software schalten das Vorlesen des title Attributes aus, weilsie sonst erst recht die Übersicht verlieren oder eine gewisse Berufsgruppe ( ;) )
diesen mit allen möglichen befüllt ;)

dann sollen Links nicht aneinandergereiht, sondern eindeutig erkennbar getrennt werden, ich muss dies so

Code: Alles auswählen

<!-- zu den Menues und zum Inhalt-->
<a class="invisible" href="#artikel"  accesskey="1" title=" zum Inhalt">zu den Artikeln</a><span class="invisible">|</span>
<a class="invisible" href="#inhalt"  accesskey="2" title=" zu den inhaltlich weiterf&uuml;hrenden Links">Links zu mehr Inhalt</a><span class="invisible">|</span>
<a class="invisible" href="#vorstell"  accesskey="3" title="Kontaktlinks und zur Sitemap">Kontakt und Sitemap</a><span class="invisible">|</span>







machen, außer ich mache sie sichtbar.

Da dies eine der Vorgaben des BITV sind, kämen alle Kommunen oder Anbieter von barrierefreien Websites laut Verordnung in arge Bedrängnis, wenn dies auf einmal von SuMas einfach per automatisierter Kontrolle ***bestraft*** werden tät.

Da in Amerika die Verbände der Menschen mit Behinderungen nicht unwesentlich weniger mächtig sind als in Europa vermute ich wird dies so einfach nicht sein.

edit:anderes Beispiel: kein Link zu unterschiedlichen Adressen , soll denselben Linknamen haben,

jedes CMS hat da arge Probs, ich helfe mir indem ich die IDs zum Linktext hole, aber die Anzeige dann verschiebe ...


lg

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 24.06.2006, 18:12

Ich habe zwar bei mir derzeit keine Skip-Links, aber wenn ich sie hätte, dann würde ich sie sichtbar machen.

Denn wenn man sie hat und die Menüleiste hinreichend lang ist, dann sind sie praktisch - weil man dann mit dem Tabulator sofort auf die ersten Contentlinks kommt. Das wiederum ist nützlich, falls bsp. die Maus defekt ist.

Sprich: Versteckte Skip-Links finde ich einen Widerspruch ins sich - Skiplinks sind nicht bloß für Screenreader da.

Also sichtbar machen - und damit existiert das Problem nicht.

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 24.06.2006, 18:27

oldInternetUser hat geschrieben:.......

Also sichtbar machen - und damit existiert das Problem nicht.
wenn die Welt der Kunden so einfach wäre ;)

lg

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 24.06.2006, 20:11

Pretender hat geschrieben:Naja, mir ist schon mehr oder weniger klar was Google damit will aber ich frage mich, ob ein Bot entscheiden kann ob es sich um ein Trick handelt um Text zu verstecken oder ob es einfach ein Style ist wie zum Bespiel: "overflow:auto;" oder irgendwelche "hidden gedöngse" die man duchaus auch als Styleelemet verwenden kann :D
Wenn es ein Styleelemet ist, dann kann google es bei der Wertung der Seite außer acht lassen. google muß ja nicht gleich alles was böse ist oder sein könnte als Grund für einen Rausschmiß ansehen. Dann ist so ein Gefriemel mit versteckten Texten eben bestenfalls sinnlos.
phereia hat geschrieben:Interessant ist auch die Frage, ob der Googlebot einer Stylesheet "Kaskade" folgt, also CSS-Dateien aufruft, die selbst über eine andere CSS-Datei importiert bzw. eingebunden werden. Da läßt sich für den, der Zeit und ein schlechtes Gewissen ;-) hat einiges testen...
Das sollte google. Es geht auch anders herum, daß der gewollt sichtbare Text erst durch die Kaskade sichtbar wird.
Andy.C hat geschrieben:Allein der Robot wird Spam nicht ohne weiteres erkennen können.
depp ich hat geschrieben:Ich halte es für völlig unmöglich, irgendwelche Spam-Tricks am CSS zu erkennen, außer es ist offensichtlich (1px H1 usw)
Wenn ein Browser Text weiß auf weiß "ausgibt" dann könnte das auch ein bot als weiß auf weiß lesen.

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 24.06.2006, 22:38

Hasenhuf

<<Wenn ein Browser Text weiß auf weiß "ausgibt" dann könnte das auch ein bot als weiß auf weiß lesen.>>

wenn wer direkt hineinschreibt

Code: Alles auswählen

color&#58;#fff;
background-color&#58;#fff;
dann vermag ich dies noch zu glauben,

wir reden ja über eine externe CSS Datei und nicht über style Angaben im Quelltext.

ich weiß was ein CSS alles kann,
wenn ich was damit verstecken möchte,
dann wären Hintergrundbilder --wo kein bot weiß welche Farbe da drauf ist
und background:transparent, oder inherit meine Freunde,

wenn ein bot all diese Möglichkeiten auslesen kann, ist er besser als die derzeit besten usability tools, die genau daran scheitern.
und die sind schon nicht wirklich von schlechten Eltern


alleine wenn ich bedenke was möglich ist, wenn wer die Cascade wirklich beherrscht

p+p+p+p etc...

dann noch alle Pseudoelemente mitgerechnet :o


ich vermag beim besten Willen nicht zu glauben, dass ein Bot dies alles checkt,

und wenn es die Programmierer schaffen, dass er dies entdeckt, dann sollen sie kurz in die Abteilung : website von G erstellen : gehen und denen beim CSS unter die Arme greifen ;)


aber irgendwie freue ich mich, denn endlich werden CSS Kenntnisse auch unter SEOs modern,
und die Parole:Hauptsach der Browser zeigts an,
wird vielleicht Geschichte (träumen darf ich ja ) ;)

lg

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 25.06.2006, 08:42

oldInternetUser hat geschrieben:Ich habe zwar bei mir derzeit keine Skip-Links, aber wenn ich sie hätte, dann würde ich sie sichtbar machen.
Hinsichtlich der Skip-Links läßt sich mit CSS einiges machen. Bei mir z.B. wird der Skip-Link in "normalen" Browsern dann sichtbar (nach dem Laden der Seite sieht man ihn noch nicht), wenn jemand mit der Tastatur (Tab-Taste) die Links einzeln anspringt. Zu besichtigen z.B. auf https://www.k-faktor.com/home/ . Somit kommen auch Tastatur-Surfer auf ihre Kosten.

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 25.06.2006, 13:59

einfach hat geschrieben:wir reden ja über eine externe CSS Datei und nicht über style Angaben im Quelltext.
Das ist mir schon klar aber wie gesagt, wenn ein Browser es darstellt geht es, man muß es nur auswerten. Das es bei der ein oder anderen Variante aufwendiger (und für die Rechnerkapazität vielleicht zu aufwendig) wird ist klar.
einfach hat geschrieben:ich vermag beim besten Willen nicht zu glauben, dass ein Bot dies alles checkt,
Ich glaube auch nicht, daß ein bot das derzeit kann aber möglich ist es (und wenn er ein Bildschirmfoto macht und auswertet :lol: ;) ).

twitch
PostRank 9
PostRank 9
Beiträge: 1222
Registriert: 09.04.2005, 14:01

Beitrag von twitch » 25.06.2006, 16:58

vor allem wäre es ja unendlich schlimm, wenn der GoogleBot meint, das style="display:none" SPAM ist. Es kann ja immer sein, dass der Text der in dem DIV-Container enthalten ist durchaus noch mit Hilfe eines kleines JavaScripts zum richtigen Zeitpunkt zum vorschein kommt. Dann müsste Google diese JS-Dateien ja auch spidern...und auswerten. Und das bei den individuellen PRogrammierstilen der Leute...LOL..NEIN!

Definitiv wird Google es nicht schaffen ein derartigen Bot zu basteln. Man stelle sich nur mal die immer größer werdende Anhängerschaft von AJAX vor... die werden ja super Probleme bekommen!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag