Seite 1 von 1
Was taugt so eine Link-Weiterleitung?
Verfasst: 06.11.2009, 11:31
von Jolander
Hallo, eine Frage an die Experten.
In einer Top-100-Liste (jaja, sowas gibt es auch noch *g*) waren die Links bislang "sauber" rausgehend...
Jetzt sind die so aufgebaut:
https://www.domain.de/?a=o&site=1234567890
Wenn man drauf klickt, landet man dann auf der Zielseite.
Meine Frage: Bringt das eigentlich überhaupt noch etwas? Und wenn nein, warum gibt es dann ab den Plätzen 50plus auch noch ein "nofollow" auf dieses Link-Konstrukt? (Die erste Seite 1-50 hat follow)
Verfasst: 06.11.2009, 12:16
von luzie
Das bringt (linktechnisch, SEO) null.
Verfasst: 06.11.2009, 12:19
von Jolander
Hab ich mir gedacht. Was ist das denn - ein Javascript, was intern den Link weiterleitet? Hab sowas noch nicht "in der Wildbahn" gesehen...
Verfasst: 06.11.2009, 12:43
von mano_negra
ist die frage wie die links weitergeleitet werden.
normalerweise macht man das mit php und wenn dabei eine 301-weiterleitung erfolgt zählen die links sehr wohl.
Verfasst: 06.11.2009, 13:26
von SloMo
Naaa das war aber ein Schnellschuss, Luzie. Indizierte 301-Weiterleitungen sind nach wie vor gut... nur die letzen 50 Nofollows sind auf jeden Fall wertlos.
Verfasst: 06.11.2009, 15:59
von Jolander
Wie finde ich denn heraus, ob es 301er sind?

Verfasst: 06.11.2009, 16:45
von huah
Verfasst: 06.11.2009, 19:39
von SloMo
Und unbedingt auch in die robots.txt schauen. Wenn die Weiterleitung dort gesperrt ist, bringt sie auch nichts.
Verfasst: 06.11.2009, 21:11
von 800XE
Jolander hat geschrieben:Hab sowas noch nicht "in der Wildbahn" gesehen...
nur im ABAKUS-Zoo?
SloMo hat geschrieben:Und unbedingt auch in die robots.txt schauen. Wenn die Weiterleitung dort gesperrt ist, bringt sie auch nichts.
in dem Fall wohl unnötig .... da keine datei oder /ordner/ da sind die man via robots.txt sperren könnte
oder?
(auser es ist eine extra WeiterleitungsDomain die selbst komplett gesperrt ist)
Verfasst: 06.11.2009, 21:23
von chris21
in dem Fall wohl unnötig .... da keine datei oder /ordner/ da sind die man via robots.txt sperren könnte
oder?
Auch ein Query String könnte über die robots.txt gesperrt sein.
Verfasst: 10.11.2009, 22:51
von Jolander
Also, die Robots sieht so aus:
User-agent: *
Disallow:
Header-Check (danke für den Hinweis!) sagt das:
HTTP/1.1 301 Moved Permanently =>
Date => Tue, 10 Nov 2009 21:47:11 GMT
Server => Apache/2.2.4 (Linux/SUSE)
X-Powered-By => PHP/5.2.6
location =>
https://www.xxxxxxx . de
Content-Length => 0
Content-Type => text/html
Also bringen die Links doch etwas?