Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mag Google keine massenhaften 301-Umleitungen?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 19.07.2005, 12:46

Moin!

Wie ich hier immer wieder lese, werden phpBB und Konsorten, um sie sumafreundlich zu machen, im Quellcode verändert. Warum?

Wäre es nicht wesentlich einfacher, das ganze mit ein paar RewriteEngine-Zeilen in der .htaccess zu machen? Also 301er auf die sumafreundlichen URLs und dann Rewrites um die Forenscripts aufzurufen.

Oder reagiert Google allergisch auf "zu viele" 301er? Und wenn ja, was sind "zu viele"?

Danke
csx

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

derHund
PostRank 5
PostRank 5
Beiträge: 296
Registriert: 08.01.2005, 14:39

Beitrag von derHund » 19.07.2005, 13:15

weil du allein mit mod_rewrite nichts erreichst, du _mußt_ den quellcode ja noch entsprechend anpassen.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.07.2005, 13:19

csx hat geschrieben:Wie ich hier immer wieder lese, werden phpBB und Konsorten, um sie sumafreundlich zu machen, im Quellcode verändert. Warum?
Da Google nur sehr zoegerlich und widerwillig dynamische URLs spidert.
Wäre es nicht wesentlich einfacher, das ganze mit ein paar RewriteEngine-Zeilen in der .htaccess zu machen? Also 301er auf die sumafreundlichen URLs und dann Rewrites um die Forenscripts aufzurufen.
Rewrite-Rules sind ja ein wesentlicher Bestandteil der Modifikation. Aber gerade nicht mit einem 301, so dass die dynamischen URLs gar nicht fuer die SuMa sichbar ist. Du musst aber den Code modden, damit das Forum keine weiteren dynamischen URLs mehr liefert.

Beispiel: Google ruft forum10.html auf und bekommt den Inhalt von viewforum.php?f=10 praesentiert. Aber eben ohne 301, d.h. die viewforum taucht fuer Google gar nicht auf.
Oder reagiert Google allergisch auf "zu viele" 301er? Und wenn ja, was sind "zu viele"?
Auf WMW gab es ein paar Kommentare dazu. Da sind einige Seiten abgesackt auf Grund (so wurde dort geschrieben) massig 301er. Ich habe (allerdings kurz vor Start des Bourbon Updates) ebenfalls etwas ueber 100 Seiten (was ja nun nicht wirklich viel ist) umbenannt und per 301 umgeleitet. Fand Google gar nicht gut und hat rumgezickt. Kann aber auch mit dem Updateprozess zu tun haben. Nach knapp 1 1/2 Wochen war wieder alles im Lot.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 19.07.2005, 13:36

Chris2005 hat geschrieben: Beispiel: Google ruft forum10.html auf und bekommt den Inhalt von viewforum.php?f=10 praesentiert. Aber eben ohne 301, d.h. die viewforum taucht fuer Google gar nicht auf.
Schon klar. Ich meinte, um beim Bsp zu bleiben: Google findet die URL viewforum.php?f=10 und ruft sie auf. Daraufhin bekommt Google einen 301 auf die URL forum10.html und ersetzt die Original-URL daher intern durch die umgeleitete. Dann ruft Google forum10.html auf und bekommt vom Server den entsprechenden Inhalt von viewforum.php?f=10 serviert.

Wie ich dich verstanden habe, mag Google also vor allem nicht, überhaupt Links wie "viewforum.php?f=10" zu verfolgen? Das Problem ist also nicht das Ranking, wenn die URLs erstmal gespidet sind?
Chris2005 hat geschrieben: Auf WMW gab es ein paar Kommentare dazu. Da sind einige Seiten abgesackt auf Grund (so wurde dort geschrieben) massig 301er. Ich habe (allerdings kurz vor Start des Bourbon Updates) ebenfalls etwas ueber 100 Seiten (was ja nun nicht wirklich viel ist) umbenannt und per 301 umgeleitet. Fand Google gar nicht gut und hat rumgezickt. Kann aber auch mit dem Updateprozess zu tun haben. Nach knapp 1 1/2 Wochen war wieder alles im Lot.
Danke für die Info. Was aber, wenn jemand seine Seite mittels 301er in der htaccess von "example.com" auf "www.example.com" umschreibt. Das ist doch ziemlich Standard. Das bedeutet aus Googles Augen im Grunde ja auch ein 301er je ungünstig (ohne "www") verlinkter Seite.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.07.2005, 14:18

csx hat geschrieben:Schon klar. Ich meinte, um beim Bsp zu bleiben: Google findet die URL viewforum.php?f=10 und ruft sie auf. Daraufhin bekommt Google einen 301 auf die URL forum10.html und ersetzt die Original-URL daher intern durch die umgeleitete. Dann ruft Google forum10.html auf und bekommt vom Server den entsprechenden Inhalt von viewforum.php?f=10 serviert.
Das würde aber das Spidern ziemlich verzögern. Google folgt einem 301 nicht sofort, sondern entweder erst beim nächsten Deepcrawl oder ein paar Tage später. Wenn dann das Forum immer wieder neue 301er produziert ist das irgendwie ungünstig. Ich finde man sollte konsistent bleiben.
Wie ich dich verstanden habe, mag Google also vor allem nicht, überhaupt Links wie "viewforum.php?f=10" zu verfolgen? Das Problem ist also nicht das Ranking, wenn die URLs erstmal gespidet sind?
Genau. Wenn Du nur genügend PR hast, dann kriegst Du auch dynamische URLs in den Index (siehe www.phpbb.com PR9), aber ich behaupte wenn die ein gemoddetes phpBB nutzen würden, dann wären es noch viel mehr Dateien.

Google gibt auch einen Grund an, warum sie sowas nicht gerne spidern. Der Crawler könnte sich in den IDs verheddern.

Ausserdem kannst Du mit statischen URLs duplicate content (via robots.txt) besser in den Griff bekommen (der zwangsläufig bei phpBB auftritt)
Danke für die Info. Was aber, wenn jemand seine Seite mittels 301er in der htaccess von "example.com" auf "www.example.com" umschreibt. Das ist doch ziemlich Standard. Das bedeutet aus Googles Augen im Grunde ja auch ein 301er je ungünstig (ohne "www") verlinkter Seite.
Das ist kein Problem und sogar ausdrücklich empfohlen. Sollte es eine Schwelle an "erlaubten 301er pro Zeiteinheit" geben, dann gilt sowas natürlich nur pro Domain.

Meiner Einschätzung nach gibt es keine gesicherten Erkenntnisse über die "erlaubte" Menge an 301ern. Ich führe das Gezicke von Google auf den Updateprozess zurück. War halt ein dummer Zufall. Es waren ja auch nur knapp über 100 Dateien. Was aber passiert, wenn Du auf einen Schlag 12000 Datein umleitest, weiss ich nicht.

csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 19.07.2005, 14:59

Chris2005 hat geschrieben:Das würde aber das Spidern ziemlich verzögern. Google folgt einem 301 nicht sofort, sondern entweder erst beim nächsten Deepcrawl oder ein paar Tage später.
Naja, das ist ja nicht so wild, ob der neue Content nun heute oder übermorgen drin ist. Hauptsache langfristig stabil.
Chris2005 hat geschrieben:Ausserdem kannst Du mit statischen URLs duplicate content (via robots.txt) besser in den Griff bekommen (der zwangsläufig bei phpBB auftritt)
Wieso das? Geht das nicht genauso, wenn du via 301 die URLs statisch machst. Man braucht ja bloss alle Dupletten via 301 auf die gleiche statische URL leiten.

Oder eben auf unterschiedliche statische URLs umleiten, und dann alle bis auf eine über robots.txt ausschließen.
Chris2005 hat geschrieben:Meiner Einschätzung nach gibt es keine gesicherten Erkenntnisse über die "erlaubte" Menge an 301ern. Ich führe das Gezicke von Google auf den Updateprozess zurück. War halt ein dummer Zufall. Es waren ja auch nur knapp über 100 Dateien. Was aber passiert, wenn Du auf einen Schlag 12000 Datein umleitest, weiss ich nicht.
Naja, es wäre ja nicht auf einen Schlag, sondern langsam ansteigend. Einen Versuch ist es vielleicht wert...

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 19.07.2005, 15:25

moin moin,
Google findet die URL viewforum.php?f=10 und ruft sie auf. Daraufhin bekommt Google einen 301 auf die URL forum10.html und ersetzt die Original-URL daher intern durch die umgeleitete. Dann ruft Google forum10.html auf und bekommt vom Server den entsprechenden Inhalt von viewforum.php?f=10 serviert.
wenn google viewforum.php?f=10 findet, hat man beim umbau geschlafen.

das script wird so modifiziert, dass nur noch forum10.html zu sehen sind, damit kann google gar keine viewforum.php?f=10 finden.

in der .htaccess wird von forum10.html nach viewforum.php?f=10 umgeschrieben. umgekehrt wäre es blödsinn, da die forum10.html ja gar nicht existiert.

wo liegt das problem 20 zeilen in das script zu kopieren und 10 zeilen in die .htaccess?

grüsse
Zuletzt geändert von bugscout am 19.07.2005, 15:36, insgesamt 1-mal geändert.

csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 19.07.2005, 15:29

bugscout hat geschrieben: wenn google viewforum.php?f=10 findet, hat man beim umbau geschlafen.
das script wird so modifiziert, dass nur noch forum10.html zu sehen sind, damit kann google gar keine viewforum.php?f=10 finden.
Moin! Es ging ja gerade darum, das *script* nicht umbauen zu müssen, sondern alles per RewriteEngine zu erledigen.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.07.2005, 15:39

csx hat geschrieben:Wieso das? Geht das nicht genauso, wenn du via 301 die URLs statisch machst. Man braucht ja bloss alle Dupletten via 301 auf die gleiche statische URL leiten.


Die dynamischen URLs werden eben nicht per 301 umgeleitet. Es wird nur der Content der viewtopic?t= ausgeliefert, d.h. für die SuMa taucht die dynamische URL gar nicht auf.

Deinen Vorschlag muss man in der Tat mal ausprobieren.

Aber damit hast Du immer noch nicht das Problem gelöst, dass Google dynamische IDs nur sehr ungerne anpackt. Da wirst Du im eine Modifikation des phpBB Codes nicht drumherum kommen.
Zuletzt geändert von Chris2005 am 19.07.2005, 15:54, insgesamt 1-mal geändert.

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 19.07.2005, 15:39

Moin! Es ging ja gerade darum, das *script* nicht umbauen zu müssen, sondern alles per RewriteEngine zu erledigen.
Das geht so nicht. Das ganze steht auf zwei Beinen, wie Bugscout schon schrieb: Das Script erzeugt Links auf Files, die es nicht gibt, und mod_rewrite schiebt den Links auf nichexistente Dateien die existierenden PHP-Files *unter*. Darin liegt ja gerade der Sinn der ganzen Geschichte, ein 301-er würde das offenlegen und damit wertlos machen...

Grüsse :D

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 19.07.2005, 15:42

moin moin,

aber dann findet google doch erstmal die viewforum.php?f=10 und das soll ja vermieden werden.
Genau. Wenn Du nur genügend PR hast, dann kriegst Du auch dynamische URLs in den Index (siehe www.phpbb.com PR9), aber ich behaupte wenn die ein gemoddetes phpBB nutzen würden, dann wären es noch viel mehr Dateien.

Google gibt auch einen Grund an, warum sie sowas nicht gerne spidern. Der Crawler könnte sich in den IDs verheddern.

Ausserdem kannst Du mit statischen URLs duplicate content (via robots.txt) besser in den Griff bekommen (der zwangsläufig bei phpBB auftritt)
ich hab das mal getestet bei phpbb ohne speziellen umbau liegt das verhältnis von schrott / content bei 8 / 1 (wegen der ganzen profil, quote, sonstwas hin und her links), wenn man die raussiebt kommt man auf unter 0,5 / 1

grüsse

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.07.2005, 15:53

bugscout hat geschrieben:aber dann findet google doch erstmal die viewforum.php?f=10 und das soll ja vermieden werden.
Mein Reden ! :-)
ich hab das mal getestet bei phpbb ohne speziellen umbau liegt das verhältnis von schrott / content bei 8 / 1 (wegen der ganzen profil, quote, sonstwas hin und her links), wenn man die raussiebt kommt man auf unter 0,5 / 1
In der Tat... phpBB erzeugt viel Müll... Zumindestens in SuMa Hinsicht. Am besten muesste man diese ganzen Links für Gäste ausblenden. Aber das ist wahrscheinlich sehr umfangreich.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag