Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Schutz vor DC

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
brainkopp
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 28.04.2007, 13:56

Beitrag von brainkopp » 14.06.2007, 19:01

Hallo Community !

Ich bin gerade dabei ein Projekt zu relaunchen und habe dazu eine Frage:

Zwecks friendly-urls schreibe ich per .htaccess die Dateien wie folgt um:

Code: Alles auswählen

RewriteRule ^seite1.html$ /de/seite.php
RewriteRule ^seite2.html$ /de/seite2.php
RewriteRule ^seite3.html$ /de/seite3.php
Das funktioniert soweit ganz gut, jedoch habe ich Angst vor DC wg. folgendem:

Beim Aufruf der URLs
https://www.domain.de/seite1.html sowie
https://www.domain.de/de/seite1.php
kommt man ja immer auf diesselbe Seite. Nach meinem Kenntnisstand hält das Google für DuplicateContent.

Kann ich dagegen was tun? Oder ist meine Sorge unbegründet ?

Gruß

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

m.hoenerbach
PostRank 5
PostRank 5
Beiträge: 285
Registriert: 31.05.2007, 08:28

Beitrag von m.hoenerbach » 15.06.2007, 08:29

Meinem zugegeben noch nicht ganz so umfangreichem Wissen zur folge, würde ich mal sagen, dass das kein Problem darstellt. Der Spider von Google hat ja keine Möglichkeit die Site seite1.php zu indexieren wenn diese Seite über keinen Link zu erreichen ist.

Belehrt mich gerne eines besseren. :o

Gruss Marcel

chrimaphi
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 05.04.2007, 11:00
Wohnort: Ludwigshafen

Beitrag von chrimaphi » 15.06.2007, 15:07

das ist eine gute Frage und würde mich auch mal interessieren. da wir das gleiche Problem haben bei uns.

gruß marcell

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Reddog
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 23.06.2006, 10:33

Beitrag von Reddog » 15.06.2007, 15:09

brainkopp hat geschrieben:Hallo Community !

Ich bin gerade dabei ein Projekt zu relaunchen und habe dazu eine Frage:

Zwecks friendly-urls schreibe ich per .htaccess die Dateien wie folgt um:

Code: Alles auswählen

RewriteRule ^seite1.html$ /de/seite.php
RewriteRule ^seite2.html$ /de/seite2.php
RewriteRule ^seite3.html$ /de/seite3.php
Das funktioniert soweit ganz gut, jedoch habe ich Angst vor DC wg. folgendem:

Beim Aufruf der URLs
https://www.domain.de/seite1.html sowie
https://www.domain.de/de/seite1.php
kommt man ja immer auf diesselbe Seite. Nach meinem Kenntnisstand hält das Google für DuplicateContent.

Kann ich dagegen was tun? Oder ist meine Sorge unbegründet ?

Gruß
sorge ist unbegründet!!!

Troll
PostRank 5
PostRank 5
Beiträge: 274
Registriert: 11.05.2006, 17:51
Wohnort: Schwabenland

Beitrag von Troll » 15.06.2007, 15:27

Unbegründet ist sie nicht!!!
Kommt halt drauf an ob die php Dateien im index sind.

Ich verstehe aber den Sinn nicht. Was ist an *.html suchmaschinenfreundlicher wie *.php ?

PHP Endungen funktionieren identisch wie html Endungen. Solange keine Ref übergeben werden.

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 15.06.2007, 15:30

Hallo brainkopp,

Du musst in der seite.php den URI, mit dem die Seite aufgerufen wurde, überprüfen. Das geht zum Beispiel mit der Variable $_SERVER['REQUEST_URI']. Wenn diese dem umgeschrieben und richtigen URI entspricht, ist alles ok, ansosnten 301-Redirect auf die korrekte Adresse..

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

brainkopp
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 28.04.2007, 13:56

Beitrag von brainkopp » 15.06.2007, 18:12

Danke erstmal für das zahlreiche Feedback.
Die Umleitung in der .htaccess per 301 von der /de/seite1.php auf die seite1.html führt leider zu einer Endlosschleife. Werde die Tage das ganze mal mit der von SISTRIX beschriebenen URI-Erkennung probieren...

uwew
PostRank 5
PostRank 5
Beiträge: 297
Registriert: 01.08.2005, 10:29
Wohnort: 36124 Eichenzell

Beitrag von uwew » 15.06.2007, 19:27

Hi brainkopp, wenn du Google Webmastertools einbindest könnten auch nicht verlinkte seiten indiziert werden.
Mein neuer Artikel : Von 0 auf 1000 Besucher pro Blogpost in einem neuen Blog.

brainkopp
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 28.04.2007, 13:56

Beitrag von brainkopp » 15.06.2007, 23:24

Google Webmastertools nutzte ich auch, aber der Tipp von SISTRX funzt auch wunderbar. Hier der Code falls noch jmd. vor diesem "Problem" hat:

Code: Alles auswählen

if($_SERVER['REQUEST_URI']=="/de/seite1.php")
{
     Header( "HTTP/1.1 301 Moved Permanently" );
     Header( "Location: /seite1.html" );
}
Danke für eure Hilfe !!!

Anonymous

Beitrag von Anonymous » 15.06.2007, 23:51

Code: Alles auswählen

RewriteRule ^seite1.html$ /de/seite.php?bliblu=1
RewriteRule ^seite2.html$ /de/seite2.php?bliblu=1
RewriteRule ^seite3.html$ /de/seite3.php?bliblu=1
und am anfang jeder php datei:

Code: Alles auswählen

if (!$_REQUEST['bliblu'])
{
     Header( "HTTP/1.1 301 Moved Permanently" );
     Header( "Location: /seite1.html" );
}
wobei die Location jeweils entsprechend ausgetauscht werden muss...

achja... bliblu gegen irgendetwas xbeliebiges austauschen... nur nicht eine var, die auch schon verwendet wird......

funzt auch wenn $_SERVER['REQUEST_URI'] nicht verfügbar ist....

ich61
PostRank 5
PostRank 5
Beiträge: 261
Registriert: 17.01.2006, 19:04

Beitrag von ich61 » 18.06.2007, 22:03

Ich habe es bei mir so gelöst

Code: Alles auswählen

ob_start();
if( preg_match('@^/(?:s\.html)?\?.*@', $_SERVER['REQUEST_URI'])  && isset($_GET['s']) && $_GET['s'] != '' ) {
 if( !empty($_GET['p']) ) {
  header('Location: /themen/'.rawurlencode($_GET['s']).'/seite-'.(int)$_GET['p'].'.html', true, 301);
 } else {
  header('Location: /themen/'.rawurlencode($_GET['s']).'.html', true, 301);
 }
 exit;
}
Um von www.domain.de/s.html?s=news auf www.domain.de/themen/news.html zu kommen.

Jetzt hab ich aber mal noch eine frage und zwar habe ich im G index noch andere unerwünschte urls gesehen die ich auch gerne per 301 auf die oben genannte url umleiten möchte.

Die unerwünschten urls im G index sehen so aus www.domain.de/s.php/laufen zb wie kann ich das in meinen code noch mit einbauen das diese urls ebenfalls auf die richtie umgeleitet werden??Kann mir das mal jemand zeigen an meinem code??

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag