Seite 1 von 2

CMS Drupal und node

Verfasst: 02.11.2012, 12:39
von aakac
Hallo!

Ich habe eine Site mit dem CMS Drupal. Dort ist ein Modul "Global redirect!" installiert. Das sorgt dafür, dass Seiten mit dem Drupal-typischen "node/123" automatsich auf ihre Aliase weitergeleitet werden.

Nun hat Google Seiten neu indiziert und gibt genau diese "node/123" aus.

Wie kann das sein? Hat da jemand eine Idee dazu?

Danke!

Verfasst:
von

Verfasst: 02.11.2012, 12:48
von manori
Es gibt im Grunde drei Möglichkeiten.

1. Die URL ist vor der Aktivierung des Moduls indexiert worden.

2. Das Modul ist nicht richtig konfiguriert.

3. Der Artikel hat keine andere URL oder ist später umbenannt worden.

Normalerweise ist Global Redirect sehr zuverlässig, sodass es eigentlich funktionieren sollte, wenn keiner der Punkte zutrifft.

Verfasst: 02.11.2012, 13:14
von aakac
Vielen Dank für die Antwort!

Das ist ja das seltsame, keiner der Punkte trifft zu. Die Treffer waren vorher mit normalen Links vorhanden.

Ich bin da ratlos.

Verfasst:
von

Verfasst: 02.11.2012, 13:22
von manori
Wenn es wirklich so ist, kann auch das Alias-Modul nicht richtig arbeiten (Token evtl auch als Ursache prüfen) oder die Datenbank ist möglicherweise defekt.

Verfasst: 02.11.2012, 13:54
von aakac
Mhm. Soweit ich das sehe ist nichts verändert worden. Der Alias ist da.
Ich weiss nicht wirklich wie ich das angehen soll...

Verfasst: 03.11.2012, 16:09
von om-labs
Wenn die seiten versehentlich indexiert wurden, dann kick sie doch einfach aus dem Index.
Robots.txt
Noindex: /node/*

Verfasst: 05.11.2012, 01:07
von aakac
om-labs hat geschrieben:Wenn die seiten versehentlich indexiert wurden, dann kick sie doch einfach aus dem Index.
Robots.txt
Noindex: /node/*
Nee, die Seiten sind ansich ok, nur sollten die unter dem Alias indiziert sein, wie auch schon zuvor.

Verfasst: 05.11.2012, 05:23
von nerd
ist canonical auf den seiten korrekt gesetzt?

Verfasst: 05.11.2012, 08:30
von Christian Kunz
om-labs hat geschrieben:Wenn die seiten versehentlich indexiert wurden, dann kick sie doch einfach aus dem Index.
Robots.txt
Noindex: /node/*
Der Eintrag in der robots.txt genügt nicht und führt unter Umständen nur dazu, dass die Suchtreffer "verstümmelt" dargestellt werden, also ohne Description.

Was Du machen musst, ist, zuerst mal die Meta-Robot-Tags im Header zu prüfen. Für eine Nicht-Indexierung muss das im Quelltext ungefähr so aussehen:

Code: Alles auswählen

  <meta name="robots" content="noindex, follow" />
Gruß,
Christian

Verfasst: 05.11.2012, 09:11
von om-labs
Noindex in der Robots.txt wird von Google unterstützt, dazu muss kein Noindex im HTML stehen. Die anderen Bots verstehen es gar nicht und ignorieren die Regel.

Nutzung der Robots.txt Variante bietet einen unschätzbaren Vorteil, das ich eben mit einer Zeile und einem Platzhalter, ohne Viel Aufwand was aus dem Index kicken kann.

Nun Drupal spezifisch noch was:
Es gibt gar keine Möglichkeit in Drupal die Meta Tags für den Node /node/123 und dessen Alias unterschiedliche Meta Tags zu setzen.

Verfasst: 05.11.2012, 09:22
von Christian Kunz
Das Problem besteht bei Seiten, die bereits im Index sind - dann nutzt die robots.txt alleine nix.

Gruß,
Christian

Verfasst: 05.11.2012, 11:48
von aakac
Mhm. Die Canonical Tags sind alle auf die Nodes gesetzt...

Verfasst: 05.11.2012, 11:59
von aakac
Mhm. Die Canonical Tags sind alle auf die Nodes gesetzt...

Verfasst: 05.11.2012, 12:49
von om-labs
@christian
Die Anweisung "Noindex" funktioniert auch in der Robots.txt. Du bist gedanklich noch bei "Disallow".

Gibt wenig Ressourcen darüber. Haben es selber testen müssen. Habe es in einem englischen Forum aufgeschnappt und getestet.

Hier auch ein deutscher Beitrag dazu.
https://blog.quippini.org/seo/noindex-a ... obots-txt/

In der offizieln Google Resourcen findet sich allerdings nix dazu, aber NOindex in der Robots.txt funzt.

Verfasst: 05.11.2012, 13:08
von aakac
Ich wiess nicht genau, wieso und warum, aber die Option "Canonical URLs use path alias" war NICHT angeklickt.