Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Hotlinks in Backlinks umwandeln?

Alles zum Thema Google Pagerank und Backlink Updates.
Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 10.06.2007, 22:06

Hallo zusammen,

habe mal eine Frage.

Und zwar leidet meine Seite (siehe Sig) unter chronischem Hotlinking durch Seiten aus aller Welt. Habe deswegen jetzt (CMS sei dank) ein Script eingebaut, das alle 24 Stunden neue Download-Links generiert, die über eine download.php laufen.

Nach Ablauf von 24 Stunden wird der Link über eine 301-Weiterleitung direkt auf die Startseite weitergeleitet. Download.php selbst ist per robots.txt gesperrt für Google.

Habe, soweit ich das sehen kann, innerhalb der ersten 7 Tage rund 200 Links "gesammelt".

Meine Frage:

Ist das kritisch für Google oder schaffe ich so tatsächlich einfach nette Backlinks (zwar ohne linktext, aber immerhin link) zu meiner Seite?

Oder hat das keinen Effekt, da download.php per robots.txt geblockt ist? Da ja aber auf eine nicht-geblockte Seite (Startseite) per Redirect verwiesen wird, sollte das doch nicht greifen, oder?

Über Feedback, ob das ne gute oder eher wahnsinnige Idee war, würd ich mich freuen.

Greg

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 10.06.2007, 22:37

Hi,

eine ähnliche Diskussion hatten wir hier schon mal - auch wenn die damalige Lösung nicht so ausgefeilt ist wie die Deinige :wink: .

Imho könnte so etwas nur Probleme geben, wenn der Googlebot anders behandelt werden würde als ein normaler User, der nach der Umwandlung dem Hotlink folgt. Da dies bei Dir vermutlich nicht der Fall ist, sehe ich hier keine Probleme.

Der Nutzen wird sicher nicht sonderlich groß sein - rankingtechnisch gesehen - dafür werden aber die User über Deine Seiten geschleust, was eben auch etwas bringt.

Also: in meinen Augen eine "wahnsinnig gute" Idee. :D

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 10.06.2007, 22:51

chris21 hat geschrieben: Imho könnte so etwas nur Probleme geben, wenn der Googlebot anders behandelt werden würde als ein normaler User, der nach der Umwandlung dem Hotlink folgt. Da dies bei Dir vermutlich nicht der Fall ist, sehe ich hier keine Probleme.
Richtig, jeder (egal ob Bot oder zumindestens theoretisch menschlich) bekommt den gleichen 301 Header geliefert.

Dann werde ich mal schauen, was meine "wahnsinnig gute" Idee so an Früchten trägt bzw. hoffen, dass das Volk da draußen auch nach dem 500. Hotlink nicht merkt, dass er nach 24 Stunden wertlos wird, bzw. trotzdem weitermacht ;)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


otterstedt
PostRank 5
PostRank 5
Beiträge: 205
Registriert: 14.11.2005, 17:30

Beitrag von otterstedt » 11.06.2007, 13:43

Spitzenmäßige Idee!
Wenn du zufiedene Nutzer möchtest, die wiederkommen, solltest du ihnen
auf der Hauptseite gleich noch den "richtigen" Link anbieten.

Wieso sperrst du download.php für Google. Ohne jetzt tiefer darüber
nachgedacht zu haben, würde ich sagen, dass das nicht nötig ist.

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 11.06.2007, 13:54

Ich habe die download.php für Google gesperrt, weil es da ca. 1000+ Versionen mit unterschiedlichen Parametern &file=XYZ gibt, und da das ja erstmal eine PHP-Seite ist, wollte ich halt vermeiden, dass ich tausende doppelte Versionen der Seite im Index habe, bis z.B. Google merkt, dass die Seite jetzt nen 301 Header zurückgibt und sie wieder entfernt.

Da jeden Tag 1000+ neue "Seiten" (mit entsprechender file-variable) generiert werden, würden da innerhalb von kurzer Zeit Unmengen von Files erstellt, die ich daher lieber direkt gesperrt habe. Ob notwendig oder nicht, weiß ich nicht, war nur ein subjektives Gefühl von "ist bessere Idee so".

Falls es wen interessiert, wie das technisch läuft:

Timestamp + Dateiname + ein paar Füllziffern --> alles per base64_encode verschlüsselt (ja, ich weiß, absolut unsicher, aber es verhindert, dass wer einfach nen Timestamp plus Dateiname verlinkt, sondern sich halt erstmal die Mühe machen muss, alles zu entschlüsseln, Füllziffern zu identifizieren, und dann alles wieder zusammenzubauen).

Das Downloadscript extrahiert Timestamp und Dateiname, checkt, ob jünger als 24 Stunden und liefert dann abhängig vom Ergebnis den 301-Redirect oder die Datei.

Setzt voraus, dass man ein CMS hat, das automatisch solche Links erstellen kann (bzw. man es ihm beibringt) oder man halt sonstwie die Links generieren und in die Seite integrieren lassen kann.
Greg

Edit: Das mit dem korrekten Link ist eine gute Idee, müsste nur überlegen, wie ich das hinbekomme, ohne dass URLs mit x Parametern auf die Startseite verlinken.

Anonymous

Beitrag von Anonymous » 11.06.2007, 14:43

ich hab für sowas mal eine php class veröffentlicht, die arbeitet aber mit temporären url's die jeweils nur max 40 minuten gelten, und speichert diese dann in einem verzeichnis ab... eine version die über db läuft nutze ich auch meiner sudokusite für die PDf Downloads.... die links für die downloads habe ich mit nofollow versehen, ich weis ja nicht wie google reagiert wenn der bot dort zig neue links findet die aber alle nur nen 301 auf die eigene site auslösen.... die urls selber sehen alle schön aus, da wird dann auch mod_rewrite eingesetzt... :wink:

du sagst dass du dein downloadscript in der robots.txt gesetzt hast... bekommt der bot denn dann überhaupt nen 301 zu sehen... oder kommt der 301 vor dem downloadscript?

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 11.06.2007, 15:00

Das Script liefert einen 301-Header zurück, wenn der Link älter als 24 Stunden ist. Und der Bot wird auf meiner Seite selbst niemals einen Link auf einen 301-Header bei der download.php finden, da in dem Moment, wo die 24 Stunden-Frist abläuft, auch der Link bzw. die komplette Seite neu generiert wird.

Mein Verständis-Problem ist nur, ob zuerst die robots.txt greift, die Google den Zugriff verbietet, oder zuerst der 301-Header, der auf die Startseite verweist.

Die Idee mit nofollow ist sehr gut, werde ich heute abend mal einbauen

Anonymous

Beitrag von Anonymous » 11.06.2007, 15:06

Solander hat geschrieben:Mein Verständis-Problem ist nur, ob zuerst die robots.txt greift, die Google den Zugriff verbietet, oder zuerst der 301-Header, der auf die Startseite verweist.
wo wird der 301 denn ausgegeben? von dem download.php selber? falls ja, bekommt der bot den 301 nie zu sehen, da er das script laut robots.txt nicht aufrufen darf....

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 11.06.2007, 15:12

Oh, gut zu wissen. dann entsperre ich das und werde die links statt dessen mit einem nofollow von der verfolgung durch den Googlebot ausschließen. wobei er dann ja aber externen Links zu mir folgen und die Links indizieren würde, wenn noch nicht die 24 Stunden-Frist abgelaufen ist.

Da wird einem mal wieder bewusst, dass man längst noch nicht alles weiß :(

Könnte hier zwar auch die Caching-Periode auf deutlich kürzere Zyklen verkürzen, aber es wären dann ja immer noch "korrekte" links für ein paar Stunden.

Anonymous

Beitrag von Anonymous » 11.06.2007, 15:32

kannst dir ja mal meine php class anschauen:

https://www.martins-meinung.de/2006/12/ ... erhindern/

evtl. kannst du sie ja, oder Teile davon für dein script verwenden.

peace
PostRank 4
PostRank 4
Beiträge: 134
Registriert: 01.03.2007, 21:23
Wohnort: Bayern

Beitrag von peace » 14.06.2007, 19:46

Wenn das mit den Links generieren tatsächlich klappen würde und gurgle das auch noch berücksichtigen würde, egal ob mit oder ohne Linktext hättest Du das perpeduum mobile erfunden. Deshalb glaube ich nicht, dass das funzt.
Aber wenn doch, na dann mal herzlich Glückwunsch. Ich denke mit dem Lizenzverkauf des Scriptes bist Du bald Herrn Gates auf den Fersen, zumindest solange es seo´s gibt.

gruß
peace

Anonymous

Beitrag von Anonymous » 15.06.2007, 01:49

peace hat geschrieben:Wenn das mit den Links generieren tatsächlich klappen würde und gurgle das auch noch berücksichtigen würde, egal ob mit oder ohne Linktext hättest Du das perpeduum mobile erfunden. Deshalb glaube ich nicht, dass das funzt.
Aber wenn doch, na dann mal herzlich Glückwunsch. Ich denke mit dem Lizenzverkauf des Scriptes bist Du bald Herrn Gates auf den Fersen, zumindest solange es seo´s gibt.

gruß
peace
Naja, klar klappt das... aber... So werden ja keine Links generiert, sondern externe deeplinks auf Downloads einfach zu Backlinks für die Seite umgewandelt.... gesetzt werden müssen die Links also immernoch von anderen Webmastern freiwillig... ich denke suchmaschinentechnisch wird das nicht viel bringen, aber es kann User bringen.... dieser betätigt ja den Link um sich etwas downzuloaden, bekommt dann aber die Webseite angezeigt und kann dann erst etwas downloaden, sieht hierbei aber natürlich wo er es downloaded, und kommt beim nächsten Mal ggf. direkt vorbei, wenn er wieder etwas in dieser Richtung sucht...

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 19.06.2007, 21:34

habe noch nicht verstanden wieso es seo technisch nichts bringt? 200 links sind doch 200 links, oder vergess ich etwas wichtiges?

Schnipsel
PostRank 10
PostRank 10
Beiträge: 7207
Registriert: 13.07.2006, 22:09
Wohnort: Sonneberg

Beitrag von Schnipsel » 19.06.2007, 22:05

Vielleicht, weil Link nicht gleich Link ist? Könnte aber sein, dass ich da auch was vergessen habe

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 19.06.2007, 23:22

Ich denke tatsächlich, dass es seo-technisch kaum was bringen wird. Fast nie Linktexte, fast immer Supplemental Results-Forenbeiträge etc. Aber im Zweifelsfall habe ich einfach ein paar Besucher mehr :)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag