Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

.htaccess - doppelter content vermeiden (Joomla)

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Frey
PostRank 3
PostRank 3
Beiträge: 89
Registriert: 15.04.2006, 20:22

Beitrag von Frey » 05.11.2008, 19:51

Hey,

ich habe eine Webpage und zwar mit dem CMS Joomla 1.5.

Nun hab ich folgendes Problem, dass mir das Google Webmaster Tool bei Content-Analyse mit die Warnung zeigt dass 8 meiner Sieten Doppelte "title"-Tags haben.

Wie tragisch ist dies?, da google ja doppelten content abstraft.

Und zwar folgendes Problem:

Das sind z.B. die 2 Möglichkeiten auf eine Seite zu kommen:

/tutorials/10-internet/19-blablabla.html‎
oder
tutorials/10-internet/19-blablabla.html?tmpl=component&print=1&page=‎

Die SEO Funktion von Joomla habe ich schon aktiviert und auch eine .htaccess Datei im Einsatz, welche mir schon die URLs mit IDs umschreibt.

Wie könnte ich verbieten, dass man die Seite mit dem ?tmpl=.... aufrufen kann.
Hab keine ahnung für was das tmpl gut ist.

Danke schonmal für die Hilfe.

MfG

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 05.11.2008, 20:40

Frey hat geschrieben:Das sind z.B. die 2 Möglichkeiten auf eine Seite zu kommen:

/tutorials/10-internet/19-blablabla.html‎
oder
tutorials/10-internet/19-blablabla.html?tmpl=component&print=1&page=‎
[…]
Wie könnte ich verbieten, dass man die Seite mit dem ?tmpl=.... aufrufen kann.
Dazu solltest du erstmal rausfinden, wozu die zweite URL gut ist und wie der Googlebot auf sie gekommen ist. Irgendeinen Sinn wird sie ja haben und wäre sie nicht irgendwo als <a> aufgeführt, täte Google sie nicht abrufen.

Wenn du das geklärt hast, bleiben verschiedene Möglichkeiten:

1. Die URL ist tatsächlich unnütz und sollte dementsprechend gesperrt oder umgeleitet werden. Dazu kannst du dich der .htaccess bzw. mod_rewrite bedienen.

2. Die URL hat einen Zweck, der sich aber auch anders erreichen lässt. Ich denke hier speziell an die Druckausgabe, denn darauf deutet der Parameter print hin. Solche extra für den Drucker erstellten HTML-Seiten sind fast immer überflüssig; mit CSS lässt sich jede (ordentliche) Webseite ganz ohne Änderung des HTML-Codes für einen Drucker umformatieren, einfach, indem mittels @media bzw. @import … print separate Style-Daten für die Druckausgabe definiert werden. Den Rest machen fast alle Browser von alleine.

3. Die URL hat einen Zweck, der nicht anders zu erreichen ist. In dem Fall kannst du für den Googlebot robots.txt-Regeln mit einem Suchmuster verwenden. In der Google-Hilfe gibt's dafür sogar ein Beispiel.


Punkt 3 ist auch bei 2 durchzuführen. Bei 1 und 2 wiederum solltest du zusätzlich dafür sorgen, dass die unerwünschten URLs nirgends auftauchen, denn was der Googlebot nicht kennt, ruft er auch nicht ab.

Frey
PostRank 3
PostRank 3
Beiträge: 89
Registriert: 15.04.2006, 20:22

Beitrag von Frey » 06.11.2008, 11:17

danke für die hilfe. war echt hilfreich!!

Für was das tmpl&print... Dings ist weiß ich immer noch nicht. Aber was du meinst ist wohl am naheliegendsten.

Hab jetzt in der robots.txt folgenden Eintrag hinzugefügt:

User-agent: Googlebot
Disallow: /*?


Denke das müsste passen.

gruß

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag