Seite 1 von 2

Disallow: /index.php

Verfasst: 28.06.2004, 14:45
von ollipop
Hallo,

wenn ich in der robots.txt die index.php als "disallow" setze, setze ich damit auch die Startseite, die man unter domain.de/ erreicht auch auf "disallow"?

Mein Problem ist, das ich index.php?page=impressum oder index.php?page=agb usw. einsetze, jetzt aber auf ModRewrite umgestiegen bin. Man kann diese Seite jetzt via domain.de/impressum.html usw. erreichen. Ich möchte daher Links, die noch auf index.php?page=... verweisen nicht im Index haben.

Erreiche ich das durch "Disallow: /index.php" oder sperre ich hier auch die Startseite, die man ja über domain.de/ und über domain.de/index.php erreichen kann?

Verfasst:
von

Verfasst: 28.06.2004, 15:15
von linkudu
Ja, das müßte der richtige weg sein.
Um die Startseite zu sperren, egal ob index.php oder index.html nimmt man ja "Disallow: /"


linkudu

Verfasst: 28.06.2004, 15:25
von RobZe89
Kannst ja auch index.php ändern zu include.php oder so, ist ja dann schnell angepasst mit dem Mod_Rewrite

Verfasst:
von

Verfasst: 28.06.2004, 16:44
von ollipop
linkudu hat geschrieben:Um die Startseite zu sperren, egal ob index.php oder index.html nimmt man ja "Disallow: /"
Genau das habe ich auch gedacht.

Kann noch jmd die "Theorie" von linkudu und mir bestätigen?

Verfasst: 28.06.2004, 20:25
von manute
ich würde es so nicht machen. selbst wenn du überhaupt nichts machst, fliegt die index.php bald raus.
und wenn es noch schneller gehen soll, mach weiterleitungen:

index.php?page=impressum -> impressum.html (301)

Verfasst: 28.06.2004, 20:50
von Southmedia
Ich hatte vor längerer Zeit das selbe Problem, die index.php hatte die Parameter nav und content. Ich habe das rewritet zu /nav/content.htm. Um die Änderungen schnellstmöglich bei Google reinzubekommen habe ich in die index.php foglendes reingepackt:

Code: Alles auswählen

<?
$url = parse_url&#40;$_SERVER&#91;REQUEST_URI&#93;&#41;;
if &#40;$url&#91;path&#93; == "/index.php"&#41; &#123;
Header&#40;"Status&#58; 301 Permanently moved"&#41;;
Header&#40;"Location&#58; /$_GET&#91;nav&#93;/$_GET&#91;content&#93;.htm"&#41;;
&#125;
?>
Immer wenn der Aufruf über die index.php kommt wird per Error301 weitergeleitet zur neuen URL.

Verfasst: 28.06.2004, 21:41
von ollipop
Ich möchte Weiterleitung nicht machen, da ich mich jetzt entschlossen habe, einige Seiten weiterhin mit/auf index.php zu verlinken. Allerdings will ich nicht, das diese Seite in den Index aufgenommen werden.

Verfasst: 29.06.2004, 14:53
von ollipop
Also kann ich "Disallow: /index.php" ruhig anwenden?

manute, wieso würdest du es nicht so machen?

Verfasst: 29.06.2004, 17:08
von manute
weil eine weiterleitung einfach viel sinnvoller ist. die seiten bleiben die gleichen und bekommen nur ne neue url, also ist ne weiterleitung einfach optimal.
den robot zu sperren ist wesentlich weniger elegant, und ganz sicher, dass das so funktioniert, bin ich auch nicht.

Verfasst: 29.06.2004, 22:15
von ollipop
Okay! @manute

Jan, bist Du Dir sicher, das dies funktionieren würde?

Verfasst: 29.06.2004, 22:55
von Southmedia
https://www.gymnasium-waldkirch.de/inde ... ormationen

Ruf den Link mal auf. So sahen die früher alle aus. Dann hab ich die .htaccess reingemacht, das Script eingefügt und hochgeladen. Den Rest hat Google erledigt.

Verfasst: 30.06.2004, 10:36
von ollipop
Sorry, ich glaube ihr versteht mich nicht. Eure Idee mit der Weiterleitung ist ganz okay, aber bei mir ist die Sache, das ich nicht alles per ModRewrite gelöst habe und an enigen Stellen index.php?page=... lassen möchte, weil ich nicht will, das diese Seiten im Index stehen.

Verfasst: 30.06.2004, 10:39
von manute
na und? dann musst die diese ausnahmen eben mit in der index.php berücksichtigen. ist doch kein problem, solange das keine 3000 stück sind...

Verfasst: 30.06.2004, 11:24
von Southmedia
Hinter den neuen URLs ist also kein einheitliches neues Konzept wie bei der Schulseite die ich gezeigt habe?

Wenn doch dann kannst du einzelne Seiten ja ausschliessen. Wenn man wie im Beispiel einen Parameter $_GET[nav] und $_GET[content] hat dann ginge das ja so:
[...]
if ($url[path] == "/index.php" && $_GET[nav] != "ausgeschlossene_navi" && $_GET[content] != "ausgeschlossener_content") {
[...]
Das kann beliebig oft wiederholt werden, wenn also der Parameter den Wert hat wird nicht weitergeleitet.

Verfasst: 01.07.2004, 22:08
von ollipop
Southmedia hat geschrieben:Hinter den neuen URLs ist also kein einheitliches neues Konzept wie bei der Schulseite die ich gezeigt habe?
Ja genau!

Also ist "Disallow: /index.php" eine gute Idee? (für meinen Fall)