Moin, dasselbe passiert mir auch...und zwar für einen 301er der Homepage: ich will nur www.meinedomain.de gelistet wissen, also gibt es für anfragen auf meinedomain.de einen 301 auf www.meinedomain.de. Googlebot bekommt den 301, und etwa 2 Wochen lang nahm er dann auch den 200er für www.meinedomain....
@bugscout: die jeansrock-Seite war im Cache des Proxies, NICHT im Cache von Google (dem GoogleIndexCache, den man mit googlebot noarchive abschalten kann), wie du bei einem Blick auf https://www.google.de/search?q=jeansrock&ie=UTF-8&oe=UTF-8&hl=de&btnG=Google+Suche&meta= locker f...
Moin, @southmedia: stimmt, es ist nicht <b>der</b> Cache des Googlebots bzw. der GoogleSERPs, es ist ein eigenständiger ProxyCache. Und der hält sich nicht an die Spielregeln! @bugscout: leider geht da im Moment gar nix ... da kommt nur ein lockeres "Server nicht gefunden" zurück. Schade. ...
Ich liiiiebe solche Server-Antworten...kan gar nicht genug von dem Board bekommen (worum gehts denn?): Warning: Too many connections in /srv/www/hansli/wbboard/admin/class_db_zugriff.php on line 27 Warning: MySQL Connection Failed: Too many connections in /srv/www/hansli/wbboard/admin/class_db_zugri...
Oder vielleicht will Eprofessional uns einfach den Spaß erhalten ihre eine Jeansrock-Page anzukucken, wer weiss. Ich denke nicht, das eprofessional sich hier einen Joke mit uns macht. An deren Stelle hätte ich im Moment genau ganz anndere Sorgen. Zu deiner Frage: Keine Ahnung. Proxies nehmen sich m...
Ja, die unterschiedliche IP ist ja gerade der Trick an dem Tool...216.239.37.5 ist eine Google-IP, die gecloakte Seiten als "Original" anzeigt und eben nicht redirected wird, weil es eine Google-IP ist...das ist so das Pinzip von "IP-Cloaking".... Nur meine Frage bleibt: Warum wi...
Zitat: sowohl über die Google-IP als auch über das spamblog-Tool werden Dateien angezeigt, wie sie bei Google im Cache liegen Im diesen fall gibt es gar nicht im google cache. Diese Tool zeigt nur was eine Google spider sehen wird. Es ist keine cache version. Google hat doch die no-cache/noarchive ...
Google bewegt sich hier aber reichlich in der Grauzone am Rande der Legalität...sowohl über die Google-IP als auch über das spamblog-Tool werden Dateien angezeigt, wie sie bei Google im Cache liegen; da nützt es nichts, das die Dateien alle proxy-Anweisungen im Sinne von <meta http-equiv="pragm...
Ein <a name muß man genauso zumachen wie ein <a href ! Das es im Browser trotzdem funktioniert, ist Glück, weil die Programmierer von Browsern wussten, dass html nicht immer korrekt geschrieben wird. Guckst Du hier: https://www.w3.org/TR/REC-html40/struct/links.html Aber die Sache mit dem PR erklärt...
MMMhh...weiss ich auch nicht, aber:
1. Du machst den <a name="top"> am Anfang der Datei nicht zu (es fehlt ein </a>)
2. Alle deine Grafik-Links auf der Seite haben denselben alt-tag (alt="weitere lustige Bilder"). Vielleicht findet Google das nicht so lustig?
...ich werde diesen Zanox-Affiliate-Typen, die jede gute Suchmaschine früher oder später zumüllen mit ihren sinnlosen und den User nicht weiterbringenden schwachsinnigen Pseudo-Inhalten niemals unterstützen!
Momentchen, Herr Wolfenstein...der ausgelieferte 304 ist ein HTTP-Header, und somit wird mit 100%iger Sicherheit kein Javascript verschickt, denn das würde im html (oder im externen .js) stehen, welches wiederum nicht ausgeliefert wird, da der Server ja korrekt antwortet: Nö, Datei hat sich seit dem...