Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Disallow: /index.php

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 28.06.2004, 14:45

Hallo,

wenn ich in der robots.txt die index.php als "disallow" setze, setze ich damit auch die Startseite, die man unter domain.de/ erreicht auch auf "disallow"?

Mein Problem ist, das ich index.php?page=impressum oder index.php?page=agb usw. einsetze, jetzt aber auf ModRewrite umgestiegen bin. Man kann diese Seite jetzt via domain.de/impressum.html usw. erreichen. Ich möchte daher Links, die noch auf index.php?page=... verweisen nicht im Index haben.

Erreiche ich das durch "Disallow: /index.php" oder sperre ich hier auch die Startseite, die man ja über domain.de/ und über domain.de/index.php erreichen kann?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

linkudu
PostRank 3
PostRank 3
Beiträge: 95
Registriert: 24.06.2004, 11:20

Beitrag von linkudu » 28.06.2004, 15:15

Ja, das müßte der richtige weg sein.
Um die Startseite zu sperren, egal ob index.php oder index.html nimmt man ja "Disallow: /"


linkudu
Zuletzt geändert von linkudu am 28.06.2004, 15:33, insgesamt 1-mal geändert.
Links tauschen? Links kaufen? Links verkaufen? - LINKUDU.COM !!

RobZe89
PostRank 2
PostRank 2
Beiträge: 43
Registriert: 21.05.2004, 17:21

Beitrag von RobZe89 » 28.06.2004, 15:25

Kannst ja auch index.php ändern zu include.php oder so, ist ja dann schnell angepasst mit dem Mod_Rewrite

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 28.06.2004, 16:44

linkudu hat geschrieben:Um die Startseite zu sperren, egal ob index.php oder index.html nimmt man ja "Disallow: /"
Genau das habe ich auch gedacht.

Kann noch jmd die "Theorie" von linkudu und mir bestätigen?

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 28.06.2004, 20:25

ich würde es so nicht machen. selbst wenn du überhaupt nichts machst, fliegt die index.php bald raus.
und wenn es noch schneller gehen soll, mach weiterleitungen:

index.php?page=impressum -> impressum.html (301)

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 28.06.2004, 20:50

Ich hatte vor längerer Zeit das selbe Problem, die index.php hatte die Parameter nav und content. Ich habe das rewritet zu /nav/content.htm. Um die Änderungen schnellstmöglich bei Google reinzubekommen habe ich in die index.php foglendes reingepackt:

Code: Alles auswählen

<?
$url = parse_url&#40;$_SERVER&#91;REQUEST_URI&#93;&#41;;
if &#40;$url&#91;path&#93; == "/index.php"&#41; &#123;
Header&#40;"Status&#58; 301 Permanently moved"&#41;;
Header&#40;"Location&#58; /$_GET&#91;nav&#93;/$_GET&#91;content&#93;.htm"&#41;;
&#125;
?>
Immer wenn der Aufruf über die index.php kommt wird per Error301 weitergeleitet zur neuen URL.

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 28.06.2004, 21:41

Ich möchte Weiterleitung nicht machen, da ich mich jetzt entschlossen habe, einige Seiten weiterhin mit/auf index.php zu verlinken. Allerdings will ich nicht, das diese Seite in den Index aufgenommen werden.

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 29.06.2004, 14:53

Also kann ich "Disallow: /index.php" ruhig anwenden?

manute, wieso würdest du es nicht so machen?

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 29.06.2004, 17:08

weil eine weiterleitung einfach viel sinnvoller ist. die seiten bleiben die gleichen und bekommen nur ne neue url, also ist ne weiterleitung einfach optimal.
den robot zu sperren ist wesentlich weniger elegant, und ganz sicher, dass das so funktioniert, bin ich auch nicht.

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 29.06.2004, 22:15

Okay! @manute

Jan, bist Du Dir sicher, das dies funktionieren würde?

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 29.06.2004, 22:55

https://www.gymnasium-waldkirch.de/inde ... ormationen

Ruf den Link mal auf. So sahen die früher alle aus. Dann hab ich die .htaccess reingemacht, das Script eingefügt und hochgeladen. Den Rest hat Google erledigt.

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 30.06.2004, 10:36

Sorry, ich glaube ihr versteht mich nicht. Eure Idee mit der Weiterleitung ist ganz okay, aber bei mir ist die Sache, das ich nicht alles per ModRewrite gelöst habe und an enigen Stellen index.php?page=... lassen möchte, weil ich nicht will, das diese Seiten im Index stehen.

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 30.06.2004, 10:39

na und? dann musst die diese ausnahmen eben mit in der index.php berücksichtigen. ist doch kein problem, solange das keine 3000 stück sind...

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 30.06.2004, 11:24

Hinter den neuen URLs ist also kein einheitliches neues Konzept wie bei der Schulseite die ich gezeigt habe?

Wenn doch dann kannst du einzelne Seiten ja ausschliessen. Wenn man wie im Beispiel einen Parameter $_GET[nav] und $_GET[content] hat dann ginge das ja so:
[...]
if ($url[path] == "/index.php" && $_GET[nav] != "ausgeschlossene_navi" && $_GET[content] != "ausgeschlossener_content") {
[...]
Das kann beliebig oft wiederholt werden, wenn also der Parameter den Wert hat wird nicht weitergeleitet.

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 01.07.2004, 22:08

Southmedia hat geschrieben:Hinter den neuen URLs ist also kein einheitliches neues Konzept wie bei der Schulseite die ich gezeigt habe?
Ja genau!

Also ist "Disallow: /index.php" eine gute Idee? (für meinen Fall)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag