ich denke wir sind schon alle mal über Seiten gestoplert bei denen wir uns das Ranking nicht verklären konnten, keine Links, kein passender Text, alles irgendwie seltsam. Eventuell ist die Beschreibung der Seite auch absolut nicht passend zum vorhandenen Text auf der Seite, keine Cacheversion. Oft kam dann der Schluss auf dass es sich um gecloakte Seiten handeln müssen.
Ich möchte hier nun 2 Möglichkeiten vorstellen die eventuell helfen können die Seiten zu enttarnen:
1. Faken des Useragents:
1.1. Man hat einen Browser bei dem man den Useragent einstellen kann. Dann gibt man dort einfach folgendes ein: "Googlebot/2.1 +https://www.googlebot.com/bot.html)" und surft damit über die Seiten
1.2. Schneller und ohne großes Umstellen geht es folgendermaßen: Einfach die URL der Seite an folgende URL anhängen:
"https://www.wannabrowser.com/index.html ... bLocation="
Einfach den Haken bei "Show HTTP Headers" wegmachen und auf "Load URL" klicken. Schon sieht man den Quelltext der Seite wenn der UserAgent der des Googlebots ist.
Um das ganze ein wenig einfacher zu machen habe ich dazu ein Bookmarklet gemacht, merh dazu am Ende des Postings. Nun aber zuerst zu
2. Surfen mit GoogleIP
Die GoogleLabs mit ihren verrückten aber auch klasse Suchtools kennen wir alle. Diese Genies haben ein Suchtool entwickelt mit dem man Seiten in einer Art Slideshow anzeigen lassen kann, dazu gehen die ganzen Aufrufe über einen Server von Google.
Und damit lässt sich die 2te Art des Cloakings aushebeln, nämlich IP-Cloaking.
Stellt man "https://216.239.37.92/gvps?vnum=1&url=" vor eine beliebige URL wird diese über einen Proxy von Google augerufen, man hat also eine IP von Google, bekommt damit auch den selben Inhalt wie der Googlebot ausgeliefert - die gecloakte Seite.
Anmerkung:
Beide Methoden sind natürlich nicht 100% zuverlässig, liegt daran dass manche Seiten nicht nach Useragents cloaken, andere IPs in der Cloakingliste haben, oder einfach noch ganz andere Sachen beachten. Aber das meiste sollte damit enttarnbar sein.
Bookmarklets:
Was Bookmarklets sind und was sie bringen kann man hier nachlesen: https://www.stichpunkt.de/bookmarklets/
Hier habe ich aber welche zu den oben beschriebenen Methoden zusammengestellt, machen das kopieren der URLs etc überflüssig:
Zu 1.1: Surfen als Googlebot
Code: Alles auswählen
javascript:void(location='http://www.wannabrowser.com/index.html?wbUserAgent=Googlebot/2.1%20(+http://www.googlebot.com/bot.html)&wbLocation='+escape(location))
Code: Alles auswählen
javascript:void(location='http://216.239.37.92/gvps?vnum=1&url='+escape(location))
Schlusswort:
Hoffe ich habt trotzdem ne Menge Spaß mit dem ganzen und lernt ne Menge aus den gecloakten Seiten - eventuell warum es besser wäre sauber zu optimieren. Danke für die Aufmerksamkeit.