Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Googlebot liest CSS und JS

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 30.04.2009, 11:56

Kein Problem!
:wink:

Mir persönlich ist "Rendern" nicht so geheuer... Ich stell mir vor, google lässt die "Chrome"-Engine einmal mit JS laufen und einmal ohne JS und vergleicht die Bilder...

Automatisch <--

dann sind wir vermutlich eh wieder beim Dillemma.

Selbst wenn dann ein "Quality Rater" die Seite anschaut, muss das bezüglich der Vorgehenseweise noch gar nicht bedeuten, dass das Richtige dabei rauskommt.

Mit andern Worten:
Es kann bös in die Hös. :crazyeyes:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

fw
PostRank 6
PostRank 6
Beiträge: 464
Registriert: 11.07.2005, 23:02

Beitrag von fw » 30.04.2009, 12:08

t-rex hat geschrieben:Hi,

freut mich, dass hier so eine Einigkeit herrscht :-)
Google liest seit mehreren Jahren css und js Dateien
Mir ist diesbezüglich bis gestern nichts bekannt gewesen. Und ich hatte bisher auch nie was in den Logfiles entdeckt. Sonst hätte ich das gestern wahrscheinlich auch nicht geschrieben. Hast Du irgendwelche gesicherte Quellen?
Ja, die eigenen logfiles.

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 05.06.2009, 00:23

Es ist gerade so passend hier:
https://www.internetmarketing-news.de/20 ... sculpting/

Man kommt aus dem Staunen nicht hinaus.
As I said in the case of PageRank sculpting, I wouldn’t immediately panic. But unlike with PageRank sculpting, if you’re selling paid links and thought JavaScript was protecting you, I would fairly quickly ensure that redirects are blocked by using nofollow within the JavaScript itself or by going through a robots.txt block.
Da wird das schon empfohlen: wer JS nutzt, soll trotzdem nofollow dazunehmen.

Als ich das vorgestern gesehen habe, dachte ich eigentlich sofort an diesen Thread...

Diese Google-Meinung "Jeder Link ist Gleichwertig" rührt natürlich daher, dass die Wahrscheinlichkeit, einen Klick auszulösen scheissegal ist, ob dahinter JS oder direktes html steckt. Aber man versucht natürlich schon, mit JS und weiss ich nicht was - sogar nofollow - seinen Juice ein wenig zu manipulieren.

Die verdammte Büchse der Pandora mit nofollow hat google selbst geöffnet. Die Paid-Link-Diskussion: selbst Schuld. Google hätte wunderbar Zeit gehabt, statt jahrelang ellenlos zu diskutieren, einfach wirklich die Seiten zu rendern und dann auszurechnen, wie hoch die Klickwahrscheinlichkeit ist in Abhängigkeit der Position des Links und dann den PR analog zu verteilen. DENN DANN WAEHREN DIE FOOTERLINKS SO ZIEMLICH WERTLOS.

Stattdessen legen sie einen Teil Ihres Problem in meine Hände und wundern sich, wenn Tür und Tor für weitere Manipulationen geöffnet werden. Nein, das ist schon gar nicht mehr dumm, das ist nur noch dämlich. Und ja: der Porno-Heini, der Wikipedia gegründet hat, gehört zuerst wegen Black-Hole SEO abgestraft.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

fw
PostRank 6
PostRank 6
Beiträge: 464
Registriert: 11.07.2005, 23:02

Beitrag von fw » 05.06.2009, 10:23

Ein Zitat von M. Cutts zum Auslesen von CSS und JS:
"So whenever we're parsing through css or looking through javascript, we're trying to detect hidden text we try to specifically make sure we don't accidentally trigger on somebody who's got mouseover code..
Quelle: https://www.webpronews.com/topnews/2009/ ... isplaynone

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 05.06.2009, 11:39

Nebenbei fiel mir noch auf, dass der Googlebot, obwohl ich diese Seite nirgends verifizieren lies. Also nirgends in den Webmastertools, Adsense, Adwords oder sonst wo eingetragen habe, einen 404 Check macht.
Der kommt durch die Webmaster Tools zustande. Google prüft, ob Deine Seite bei einer unbekannten URL auch 404 ausgibt oder ob stattdessen eine 301 Weiterleitung oder sowas resultiert. Bei den Tools werden nur Seiten akzeptiert, die korrekte Fehlermeldungen ausgeben, siehe:
https://www.google.com/support/webmaster ... 5638&hl=de
fw hat geschrieben:Ein Zitat von M. Cutts zum Auslesen von CSS und JS:
"So whenever we're parsing through css or looking through javascript, we're trying to detect hidden text we try to specifically make sure we don't accidentally trigger on somebody who's got mouseover code..
Quelle: https://www.webpronews.com/topnews/2009/ ... isplaynone
Die Aussage ist ja wohl ne Frechheit. Der sagt tatsächlich, dass man sich beim Quelltext anderer Seiten bedienen soll, die nicht von Google abgestraft wurden, damit man nicht vom hidden-Text Filter erwischt wird.

Was soll der Quatsch? style="display:none" führt zum Penalty und wenn man ne class setzt nicht oder wie? Das ist doch Hirnriss. In der Zukunft wird es immer mehr Hidden-Layer geben, die per Klick aktiviert werden können und nur damit Google mich nicht abstraft, soll ich mir ne super komplizierte Variante aussuchen, die wahrscheinlich noch in js verschlüsselt enthalten ist oder wie?

So oder so wird es immer ne Variante geben, dass es doch geht. Und wenn ich es legal kann, dann kann es auch jeder illegal nutzen. Wo ist da der Vorteil? Hidden-Text ist doch Kinderkacke der 90er. Solche Seiten melden die Leute doch mittlerweile manuell.

Mal sehen ob die ganzen vBulletin Foren wg. Hidden-Layern jetzt abgestraft werden :P
Ich kaufe Dein Forum!
Kontaktdaten

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 05.06.2009, 12:22

Quelltext anderer Seiten bedienen soll, die nicht von Google abgestraft wurden
Bin ich dann auch Jahre später noch auf der sicheren Seite?

Ich mein, wir sprechen nun von ziemlich grossen "Regeländerungen". Ich kann ja nicht die Grundfesten meiner Homepage erschüttern, nur weil google das eine will, dann aber merkt, dass was anderes besser wäre.

Gestern habe ich meine JS-Links mal überprüft. Entweder ist das JS in einem ordner, der robots.txt geschützt ist, dann verlinken die meisten JS-Links über Redirects, die auch in einem Ordner sind, welche robots.txt-geschützt sind. Ich glaube, so langsam zahlt sich meine Paranoia aus. Ich werde nun auch noch "nofollow" in den Teil mit document.writeln reinschreiben. Man weiss ja nie.

Google ist aber teilweise noch immer dumm genug, meine JS-Links auf 404-Fehler-Seiten aufzulösen, die dann brav in den WM-Tools angezeigt werden. Als so heiss, wie Mister M.C. die Suppe kocht, ist die Sache nicht

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 05.06.2009, 12:56

Ich habe an manchen Stellen JS-Links wo man nahezu unendlich viele Optionen hat. Als ich die noch in HTML hatte, waren plötzlich 4 Millionen Links in den Webmaster Tools. Warum will Google so nen Schrott wirklich wissen? Deswegen habe ich ihn ja extra in JS realisiert und per robots.txt verboten :P

Noch ein Problem:
Woher will Google überhaupt wissen, dass die Links ausgegeben wurden? Verarbeitet Google jetzt auch den gesamten JS Code? Ansonsten wissen die doch gar nicht, welche Links nun geschrieben wurden oder auch nicht :roll:
Ich kaufe Dein Forum!
Kontaktdaten

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 05.06.2009, 13:24

Verarbeitet Google jetzt auch den gesamten JS Code?
Natürlich nicht! Denn sonst würden sie ja nicht 404 bei uns verursachen. Ich tendiere immer noch auf meine erste Aussage: ein paar "ifs" für ein paar JS-Befehle und URLs, die im JS eingebettet sind. Aber gerendert wird da nichts!

Was allerdings nicht heisst, dass google nicht lernfähig ist.

Wäre ich ein google-Algo, ich würde bei vielen Anzeichen für Probleme (404, seltsame Angaben in der CSS wie display:none) einfach einen menschlichen Quality-Rater zu Hilfe ziehen.

Dann muss das Konzept "schlüssig" sein, also gegenüber dem menschlichen Auge...

Aber das ist reines Science-Fiction und weil ich selbst schon mit JS und google gekämpft habe nutze ich JS eher auf Sparflamme.

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 05.06.2009, 13:32

Ja aber was soll das bringen. Dann baut man sich eben den display:none in eine externe JS datei mit try/catch konstrukt, damit es keine fehler gibt. und das display:none verpackt man z.b. in verschiedene filter wie unescape und hinterlegt es in hex.

Man kann das unheimlich kompliziert gestalten und wer wirklich was verstecken wollte, der macht das auch so. Daher verstehe ich den Sinn nicht so ganz.

Klar ein paar Noobs kann man damit vom Markt bekommen, aber die Fehlermeldungen laufen doch eher zu Hauf bei regulären Seiten auf. Und was ist mit Seiten, die erfolgreich geprüft wurden? Dürfen die dann später doch fuschen, weil in einer Whitelist stehen?

Schon ein bisschen unsinnig. Entweder Google versteht JS oder nicht. Diese halben Sachen nerven, besonders wenn man dann Angst vor einem Penalty haben muss.
Ich kaufe Dein Forum!
Kontaktdaten

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 05.06.2009, 14:11

display:none verpackt man z.b. in verschiedene filter wie unescape und hinterlegt es in hex
Und was ist mit Seiten, die erfolgreich geprüft wurden
Genau das ist das Problem: man weiss weder, was google "kann" und teilweise noch nicht einmal was google "will", und das genau ist im Prinzip Ihr Vorteil im Wettbewerb mit uns. Die würden auch nie irgendwo in den WM-Tools erwähnen: Ihre Seite wurde erfolgreich geprüft.

Ich mein einfach: je mehr ich verschleiere und je differenzierter ich JS und von mir aus "nofollow" nutze, desto klarer muss es google werden, dass ein "Profi" die Seite betreibt.

Ich bin mir aber definitiv nicht sicher, welche Konsequenzen ich persönlich daraus ziehe. Ich denke mir mal: never Change a running system, werde aber noch ein paar harmlosere Projekte aufziehen.

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 05.06.2009, 15:39

Ich tendiere immer noch auf meine erste Aussage: ein paar "ifs" für ein paar JS-Befehle und URLs, die im JS eingebettet sind. Aber gerendert wird da nichts!
Wenn man annimmt, dass es nur einen einzigen Algo gibt und der ist für alle gleich.
Tut man das nicht, ist ein "Gegenbeweis" kein Un-Beweis. Dann gibt es eben beides.

Bei einer üblichen Website reicht nur 1 Prozent aller Seiten, um zu erkennen, ob getrickst wird oder nicht. Und selbst da muss man nicht 1/0 sagen, sondern kann einen "Vertrauensfaktor" bilden, den man in das Ranking einfließen lässt. Dieser Faktor kann wiederum durch 20 weitere "Beta"-Algo modifiziert werden.

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 07.06.2009, 19:22

Mir sind die menschlichen Quality-Rater fast schon lieber :lol:

ja: Du kannst schon recht haben -> nur was spielt das für eine Rolle? Wie schon gesagt: Google hat die beste Position, wenn niemanden klar ist, wie viel sie schon beherrschen. Daher passt es auch gut in ihr Konzept, wenn irgendein Dampfplauderer heisse Google Internas verbreitet (= Luft) und dann alle schon am Rumjammern sind. (ich mein M.C.)

Aber die Sakrosankte Google-Technik ist fehleranfällig. Und ich sage Dir direkt: was teilweise bei mir JS hineininterpretiert wurde und zu einem direkten Problem in den SERPS geführt hat, ist so schockierend, dass ich die meisten Skripte entfernt habe. Das völlige Missverständnis für JS sehe ich ja noch in den Webmaster-Tools. Das reicht mir.

Ich habe schon Dinge erlebt, zwischen völlig verpatztem Algo-Update und Abstrafen meiner eigenen Site: Es kann mich nicht's mehr schockieren.

Ich sag lediglich: JS kann zu einem Griff ins Klo führen. Aber klar: Muss es aber nicht. Bloss: wer meint, "Sein" JS ist schon ok: vergiss es einfach!

Artikel-SEO (gesperrt)
PostRank 9
PostRank 9
Beiträge: 1003
Registriert: 05.11.2007, 15:35

Beitrag von Artikel-SEO (gesperrt) » 08.06.2009, 03:35

Eatofid hat geschrieben:Hey!

Viele meinen ja immer, dass CSS so wichtig für google sei, aber ich habe auch schon des öfteren in echt guten SEO Blogs gelesen, dass dem nicht so sei. Vor allem Flash und Java Script ist für die robots nicht so toll zu lesen soweit ich weiß.
wenn du glaubst, dass alle Märchen anstatt mit "Es war einmal...", mit "Der Mann in Schwarz floh durch die Wüste, und der Revolvermann folgte ihm...." anfangen!


bla bla bla

Meinst du alles was du liest, ungeprüft in dein Hirn läßt...auwaia

Spacefish
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 27.01.2008, 23:53

Beitrag von Spacefish » 10.06.2009, 00:17

habt ihr schonmal dran gedacht, dass Google auch die Toolbardaten hat und damit evtl. versteckte Weiterleitungen erkennt? Ich mein wenn eine seite von 99% der user < 1 sec angezeigt wurde und alle dann auf die selbe Seite kommen, geht der Algo halt von einer Weiterleitung aus. So würde ich das realisieren. Über Chrome dürfte diese Datenbank gut gefüttert werden.

||NeX||
PostRank 4
PostRank 4
Beiträge: 117
Registriert: 19.08.2006, 11:51

Beitrag von ||NeX|| » 03.05.2010, 11:47

Ich werde in meine Bachelorarbeit testen ob Google wirklich "display:none" abstraft. Wenn ihr die SEO Bachelorarbeit vefolgen wollt, bitteschön: https://de.seo.ba/bachelorarbeit/

Ich denke dass wäre mehr als blöd wenn Google inline "display:none" abstraft und per Klassenzuteilung nicht. Besonders weil viele pure CSS Menüs, hinter welchen viel Mühe steht, "display:none" immer dabei haben. Und ein Menü ohne "display:none" und ohne JS solls ja gar nicht geben, oder?
Ehrlichkeit währt am längsten. Mein SEO Blog. Folge mir auf Twitter.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag