Nebenbei fiel mir noch auf, dass der Googlebot, obwohl ich diese Seite nirgends verifizieren lies. Also nirgends in den Webmastertools, Adsense, Adwords oder sonst wo eingetragen habe, einen 404 Check macht.
Der kommt durch die Webmaster Tools zustande. Google prüft, ob Deine Seite bei einer unbekannten URL auch 404 ausgibt oder ob stattdessen eine 301 Weiterleitung oder sowas resultiert. Bei den Tools werden nur Seiten akzeptiert, die korrekte Fehlermeldungen ausgeben, siehe:
https://www.google.com/support/webmaste ... 5638&hl=de
fw hat geschrieben:Ein Zitat von M. Cutts zum Auslesen von CSS und JS:
"So whenever we're parsing through css or looking through javascript, we're trying to detect hidden text we try to specifically make sure we don't accidentally trigger on somebody who's got mouseover code..
Quelle:
https://www.webpronews.com/topnews/2009 ... isplaynone
Die Aussage ist ja wohl ne Frechheit. Der sagt tatsächlich, dass man sich beim Quelltext anderer Seiten bedienen soll, die nicht von Google abgestraft wurden, damit man nicht vom hidden-Text Filter erwischt wird.
Was soll der Quatsch? style="display:none" führt zum Penalty und wenn man ne class setzt nicht oder wie? Das ist doch Hirnriss. In der Zukunft wird es immer mehr Hidden-Layer geben, die per Klick aktiviert werden können und nur damit Google mich nicht abstraft, soll ich mir ne super komplizierte Variante aussuchen, die wahrscheinlich noch in js verschlüsselt enthalten ist oder wie?
So oder so wird es immer ne Variante geben, dass es doch geht. Und wenn ich es legal kann, dann kann es auch jeder illegal nutzen. Wo ist da der Vorteil? Hidden-Text ist doch Kinderkacke der 90er. Solche Seiten melden die Leute doch mittlerweile manuell.
Mal sehen ob die ganzen vBulletin Foren wg. Hidden-Layern jetzt abgestraft werden
