Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ja, die eigenen logfiles.t-rex hat geschrieben:Hi,
freut mich, dass hier so eine Einigkeit herrscht
Mir ist diesbezüglich bis gestern nichts bekannt gewesen. Und ich hatte bisher auch nie was in den Logfiles entdeckt. Sonst hätte ich das gestern wahrscheinlich auch nicht geschrieben. Hast Du irgendwelche gesicherte Quellen?Google liest seit mehreren Jahren css und js Dateien
Da wird das schon empfohlen: wer JS nutzt, soll trotzdem nofollow dazunehmen.As I said in the case of PageRank sculpting, I wouldn’t immediately panic. But unlike with PageRank sculpting, if you’re selling paid links and thought JavaScript was protecting you, I would fairly quickly ensure that redirects are blocked by using nofollow within the JavaScript itself or by going through a robots.txt block.
Quelle: https://www.webpronews.com/topnews/2009 ... isplaynone"So whenever we're parsing through css or looking through javascript, we're trying to detect hidden text we try to specifically make sure we don't accidentally trigger on somebody who's got mouseover code..
Der kommt durch die Webmaster Tools zustande. Google prüft, ob Deine Seite bei einer unbekannten URL auch 404 ausgibt oder ob stattdessen eine 301 Weiterleitung oder sowas resultiert. Bei den Tools werden nur Seiten akzeptiert, die korrekte Fehlermeldungen ausgeben, siehe:Nebenbei fiel mir noch auf, dass der Googlebot, obwohl ich diese Seite nirgends verifizieren lies. Also nirgends in den Webmastertools, Adsense, Adwords oder sonst wo eingetragen habe, einen 404 Check macht.
Die Aussage ist ja wohl ne Frechheit. Der sagt tatsächlich, dass man sich beim Quelltext anderer Seiten bedienen soll, die nicht von Google abgestraft wurden, damit man nicht vom hidden-Text Filter erwischt wird.fw hat geschrieben:Ein Zitat von M. Cutts zum Auslesen von CSS und JS:Quelle: https://www.webpronews.com/topnews/2009 ... isplaynone"So whenever we're parsing through css or looking through javascript, we're trying to detect hidden text we try to specifically make sure we don't accidentally trigger on somebody who's got mouseover code..
Bin ich dann auch Jahre später noch auf der sicheren Seite?Quelltext anderer Seiten bedienen soll, die nicht von Google abgestraft wurden
Natürlich nicht! Denn sonst würden sie ja nicht 404 bei uns verursachen. Ich tendiere immer noch auf meine erste Aussage: ein paar "ifs" für ein paar JS-Befehle und URLs, die im JS eingebettet sind. Aber gerendert wird da nichts!Verarbeitet Google jetzt auch den gesamten JS Code?
display:none verpackt man z.b. in verschiedene filter wie unescape und hinterlegt es in hex
Genau das ist das Problem: man weiss weder, was google "kann" und teilweise noch nicht einmal was google "will", und das genau ist im Prinzip Ihr Vorteil im Wettbewerb mit uns. Die würden auch nie irgendwo in den WM-Tools erwähnen: Ihre Seite wurde erfolgreich geprüft.Und was ist mit Seiten, die erfolgreich geprüft wurden
Wenn man annimmt, dass es nur einen einzigen Algo gibt und der ist für alle gleich.Ich tendiere immer noch auf meine erste Aussage: ein paar "ifs" für ein paar JS-Befehle und URLs, die im JS eingebettet sind. Aber gerendert wird da nichts!
wenn du glaubst, dass alle Märchen anstatt mit "Es war einmal...", mit "Der Mann in Schwarz floh durch die Wüste, und der Revolvermann folgte ihm...." anfangen!Eatofid hat geschrieben:Hey!
Viele meinen ja immer, dass CSS so wichtig für google sei, aber ich habe auch schon des öfteren in echt guten SEO Blogs gelesen, dass dem nicht so sei. Vor allem Flash und Java Script ist für die robots nicht so toll zu lesen soweit ich weiß.