Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Partnerprogramme geschickt einbinden

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Heinz
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 13.08.2004, 11:22
Wohnort: Hamburg

Beitrag von Heinz » 29.09.2004, 11:24

erstmal hallo.
ich lese hier schon länger interessiert mit.
nun hab ich ne frage, auf die ich bisher noch keine antwort gefunden
habe.
vielleicht könnt ihr mir ja weiterhelfen, bzw mir einen thread nennen, der mir weiterhilft.
so, nun die einleitung zu meiner frage:
ich habe eine gut besuche domain. nun möchte ich mir dieser auch ein wenig geld verdienen. deshalb will ich das vorhandene linkverzeichnis mit einigen partnerprogrammen auffüllen. ich habe bei vielen von euch beobachtet, dass ihr die partner-links nicht direkt, sondern über eine "jump-datei" einbindet. Dies halte ich auch für sehr sinnvoll, da ich davon ausgehe, dass g**gle diese seite sonst stark abwertet. Denn die links der großen Partnerprogramme sind ja bekannt.
hier die frage:
wie kann ich eine solche "jump-datei" am besten realisieren?
mit einem java-script, oder vielleicht mit nem http-302?
wie sind da eure erfahrungen zu diesem thema?

gruss heinz

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

slider
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 11.06.2004, 07:47

Beitrag von slider » 29.09.2004, 13:51

<?php
$url = array(
"index" => "https://www.meinedomain.de/index.html",
"Seite2" => "https://www.anderedomain.de/index.html",
);

$title="Seitentitel"; //Enter the page title
$keywords="KW1,KW2"; //Enter the page keywords
$description="Irgendwas"; //Enter the site description

if (array_key_exists($page,$url)){}
else {$page="index";}
if ($page=="")
{$page="index";}
$templink="page=$page&";
$tempurl1=str_replace ($templink, "", "$QUERY_STRING");
$templink="&page=$page";
$tempurl2=str_replace ($templink, "", "$tempurl1");
if ($tempurl2=="page=$page")
{$tempurl2="";
$vraag="";}
else
{if ($tempurl2=="") {$vraag="";}
else{
$vraag="?";}
}
$newurl="$url[$page]$vraag$tempurl2";

header("Location: $newurl");
?>

Alles speichern in zb. out.php

Der Aufruf für www.anderedomain.de erfolgt dann so:
https://www.meinedomain.de/out.php?=Seite2

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 29.09.2004, 14:02

Code: Alles auswählen

<?php

Header&#40;"Location&#58; ".urldecode&#40;$_GET&#91;'url'&#93;&#41;;

?>
Gruss Johannes
Zuletzt geändert von SISTRIX am 29.09.2004, 14:10, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


TripTrap
PostRank 1
PostRank 1
Beiträge: 12
Registriert: 26.02.2004, 16:09

Beitrag von TripTrap » 29.09.2004, 14:09

slider hat geschrieben:...
Geiles Stück Code! Ich fühle mich fast so als hätte ich Zwiebeln geschnitten.

Heinz
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 13.08.2004, 11:22
Wohnort: Hamburg

Beitrag von Heinz » 29.09.2004, 14:29

danke für die antworten.
meiner erfahrung nach ist ein Header("Location: " .$URL)
gleich einem HTTP-302.
und dies wird nicht von g**gle abgestraft?

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 29.09.2004, 14:31

Wieso sollte das abgestaft werden? Deine exit.php kommt zB. in ein Verzeichnis /exit/, das Du per robots.txt sperrst. Da hat Google dann nichs zu suchen.

Gruss Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Heinz
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 13.08.2004, 11:22
Wohnort: Hamburg

Beitrag von Heinz » 29.09.2004, 14:46

ich bin da halt ein wenig skeptisch, ob g**gle sich da auch immer brav an die robots.txt hält. das dateien die durch die robots.txt geschützt werden nicht unter dem site befehl auftauchen ist für mich kein beweis, dass sie nicht intern zur bewertung herangezogen werden.

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 29.09.2004, 14:48

Wenn man saubere Seiten macht, gibt es doch keinen Grund Angst vor Google zu haben.

Gruss Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 29.09.2004, 14:49

Nebenbei: Man kann den Namen der Suchmaschine Google ruhig ausschreiben. Sternchen zu machen ist absolut unnötig.

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 29.09.2004, 14:49

TripTrap hat geschrieben:
slider hat geschrieben:...
Geiles Stück Code! Ich fühle mich fast so als hätte ich Zwiebeln geschnitten.
Hauptsache der Compiler hat was zu tun ;)

Heinz
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 13.08.2004, 11:22
Wohnort: Hamburg

Beitrag von Heinz » 29.09.2004, 14:50

darum gehts mir ja.
meine seite ist sauber und ich will sie nicht dreckig machen.

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 29.09.2004, 14:51

Heinz hat geschrieben:ich bin da halt ein wenig skeptisch, ob g**gle sich da auch immer brav an die robots.txt hält. das dateien die durch die robots.txt geschützt werden nicht unter dem site befehl auftauchen ist für mich kein beweis, dass sie nicht intern zur bewertung herangezogen werden.

Ich habe vor kurzem einige Verzeichnisse in die robots.txt gehauen. 2 Stunden später war kein Bot mehr auf den entsprechenden Seiten. Kannst also davon ausgehen das der Bot sich daran hält.

Grüße

Stefan

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 29.09.2004, 14:51

Wenn Du eine saubere Seite hast und da nun ein paar passende Partnerprogramme zu anbietest, sehe ich keine Probleme.

Gruss Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Heinz
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 13.08.2004, 11:22
Wohnort: Hamburg

Beitrag von Heinz » 29.09.2004, 15:01

danke,
damit sind meine fragen alle geklärt.

bis denn
gruß heinz

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag