Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Url-Script - funktioniert ! Aber sind viele 404er gut ?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
shapeshifter
PostRank 9
PostRank 9
Beiträge: 1480
Registriert: 20.10.2004, 16:01

Beitrag von shapeshifter » 02.06.2005, 09:35

Hola,

durch ein script:

Code: Alles auswählen

function loc(id) 
{ cloakUrl }
...aufgerufen im href durch: javascript:loc(/dir/dynSeite.html) unterbinde ich mom erfolgreich das Spidern einiger Links und versuche so den internen Pagerank zu kanalisieren. Funktioniert soweit ganz gut. Der Google-Bot schafft es zwar tatsächlich den "eval" zu interpretieren, vergisst aber anscheinend dann bei seiner Anfrage die ".html"-Endung.

Beispiel:
javascript:loc(/dir/dynSeite)
führt den GoogleBot zu:
/dir/dynseite -> .html aus dem Script wird vergessen

Nun liefert diese Anfrage ja logischerweise einen 404. Bin zwar froh, dass Google unter dem Link nichts findet, wundere mich aber, dass ein solcher indirekter Verweis über JS so gut interpretiert wird.

Bleibt die Frage, wenn vom GoogleBot auf einer Html-Seite immer wieder eine Reihe von vermeindlichen 404-Links gefunden wird - kann das negative Auswirkungen auf die einzelne Seite haben ? Mindert das die Qualität der einzelnen Seite für den Bot ?

Die Seite ist (wie alle ;) ) valide nach HTML4 ! Irgenwie unschön, dass sie für den Bot 404er produziert.

Oder gibts vielleicht ein Script, dass Google GAR NICHT interpretieren kann ?

Vielen Dank für Tips !
Zuletzt geändert von shapeshifter am 02.06.2005, 11:55, insgesamt 1-mal geändert.