durch ein script:
Code: Alles auswählen
function loc(id)
{ cloakUrl }
Beispiel:
javascript:loc(/dir/dynSeite)
führt den GoogleBot zu:
/dir/dynseite -> .html aus dem Script wird vergessen
Nun liefert diese Anfrage ja logischerweise einen 404. Bin zwar froh, dass Google unter dem Link nichts findet, wundere mich aber, dass ein solcher indirekter Verweis über JS so gut interpretiert wird.
Bleibt die Frage, wenn vom GoogleBot auf einer Html-Seite immer wieder eine Reihe von vermeindlichen 404-Links gefunden wird - kann das negative Auswirkungen auf die einzelne Seite haben ? Mindert das die Qualität der einzelnen Seite für den Bot ?
Die Seite ist (wie alle

Oder gibts vielleicht ein Script, dass Google GAR NICHT interpretieren kann ?
Vielen Dank für Tips !