Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

301 redirects lieber lassen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 28.02.2006, 08:38

Wie hier
https://www.webpronews.com/blogtalk/blo ... neers.html
geschrieben steht, hat der Googlebot Probleme damit, mehr als 5 Weiterleitungen mit 301 zu fressen.
Nach dem hier immer wieder der 301 als einzig wahre Lösung gebracht wird, sollte dies doch zum Nachdenken anregen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Wirths Media
PostRank 9
PostRank 9
Beiträge: 2050
Registriert: 20.09.2004, 20:25

Beitrag von Wirths Media » 28.02.2006, 08:52

2. Ich habe die URL meiner Website geändert.

Wenn Sie Ihre URL geändert haben oder ändern möchten und Google Ihre neue URL anzeigen soll, beachten Sie, dass wir Ihre in unseren Suchergebnissen aufgeführte Adresse nicht manuell ändern können. Sie können jedoch Maßnahmen zur Sicherstellung eines nahtlosen Übergangs ergreifen.

Wenn Sie Ihre alten URLs mithilfe von (dauerhaften) 301-HTTP Umleitungen auf Ihre neue Website umleiten, werden die neuen URLs von unserem Suchroboter erkannt. Weitere Informationen zu 301-HTTP Umleitungen erhalten Sie unter https://www.ietf.org/rfc/rfc2616.txt.

Die Indizierung durch Google ist zum Teil davon abhängig, ob Ihre Site über Links von anderen Sites gefunden wird. Um Ihr Ranking beizubehalten und unserem Suchroboter die Suche nach Ihrer neuen URL zu erleichtern, wird empfohlen, alle Eigentümer von Websites, die Verknüpfungen zu Ihren Seiten enthalten, über den Adresswechsel zu informieren. Um herauszufinden, welche Websites Verknüpfungen zu Ihrer Website enthalten, können Sie eine Linksuche durchführen. Geben Sie dazu in das Suchfeld von Google "Link:[Ihre vollständige URL]" ein. Um weitere Seiten, die Ihre URL enthalten, zu suchen, führen Sie eine Google-Suche unter Ihrer URL durch und wählen Sie den Link "Webseiten suchen, die den Begriff "…" enthalten". Ändern Sie auch die Einträge, die Sie möglicherweise in Verzeichnisdiensten wie Yahoo! oder Open Directory Project unterhalten.

Sie können auch mit dem Programm Google Sitemaps (Beta) eine Liste Ihrer neuen URLs übermitteln. Google Sitemaps verwendet vom Webmaster generierte Sitemap-Dateien, um Ihre Webseiten zu finden und unsere Suchroboter zu neuem und aktualisiertem Inhalt weiterzuleiten.

In einer solchen Übergangsphase finden wir unter Umständen die Website nicht unter der neuen Adresse. Stellen Sie sicher, dass Links von anderen Websites auf die neue Website verweisen, damit wir Ihre neue Website finden können.

https://www.google.de/webmasters/3.html

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 28.02.2006, 08:54

Danke für die Info! Aber, hm, wofür nimmt man denn einen 301er? Mir fällt jetzt nur ein, dass man damit von einer alten Seiten auf eine neue umleitet. Oder eben DC vermeidet, indem man z.B. "ohne www." auf "mit www." umleitet. Was gibt es denn für eine sinnvolle Anwendung, über 5 Weiterleitungen machen zu wollen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 28.02.2006, 08:54

Matt Cutts sagt jedoch, dass ab 5 Stück der Bot ins Schleudern kommt. Das Problem hab ich jedenfalls auf einer Domain. Jetzt weiss ich endlich, warum.

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 28.02.2006, 08:56

mcchaos hat geschrieben:Danke für die Info! Aber, hm, wofür nimmt man denn einen 301er? Mir fällt jetzt nur ein, dass man damit von einer alten Seiten auf eine neue umleitet. Oder eben DC vermeidet, indem man z.B. "ohne www." auf "mit www." umleitet. Was gibt es denn für eine sinnvolle Anwendung, über 5 Weiterleitungen machen zu wollen?
Um beispielsweise 100 alte Seiten auf 100 neue Seiten mit anderen Dateinamen umzuleiten, weil man die Deeplinks nicht verlieren will.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 28.02.2006, 09:13

Um beispielsweise 100 alte Seiten auf 100 neue Seiten mit anderen Dateinamen umzuleiten, weil man die Deeplinks nicht verlieren will.
Dazu mache ich aber doch 100x eine Weiterleitung. Im Text reden die aber von 5 Weiterleitungen hintereinander, die Probleme bereiten:
Matt advises against stringing 301 permanent redirects in a row...
und nicht von max. 5 Weiterleitungen pro Domain. Oder verstehe ich gerade was falsch?

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 28.02.2006, 09:18

5 Stück hintereinander zu schalten? Wer macht denn sowas? Das wäre doch Oberblödsinn.
Ich verstehe jetzt auf jeden Fall, warum bei einer meiner Domains die Seiten, auf die umgeleitet wird, seit 2 Jahren keinen Pagerank annehmen wollen.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 28.02.2006, 09:20

Fridaynite hat geschrieben:5 Stück hintereinander zu schalten? Wer macht denn sowas? Das wäre doch Oberblödsinn.
Sag ich doch :wink:

Aber genauso sagt es Matt:
Matt advises against stringing 301 permanent redirects in a row, sending the user (and thus the crawler) through page after page after page until their destination. Anything more than five might confuse Googlebot and make it give up on crawling your site.

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 28.02.2006, 09:44

Fridaynite hat geschrieben:5 Stück hintereinander zu schalten? Wer macht denn sowas? Das wäre doch Oberblödsinn.
könnte passieren ...
wenn man
1. in der htaccess nach Standarddomain www
dann im PHP feststellt das der Pfad/Dateinahme nicht so ist wie er sein soll (und das mehrfach) und jedesmal eine 301

Ich hab in meinem PHP auch Überprüfungen drin
manchmal gibts direkt einen 301 und manchmal erstelle ich einen neuen PfadDateiNamen und vergleiche ganz zum Schluß ob der mit dem RequestPfadDatei überein stimmt ... nein=301

Konkretes Beispiel ...
domain.tld/ordner1/ordner2/ordner3/......./ordner7/

Beim Versuch COntent zu generieren, merkt man das es keine daten gibt für Ordner7
macht einen 301 zurück auf Ordner6
findet wieder keinen Content = 301 nach Ordner5 ....

Oder eben Dieses Contentmodul Rekursiv (mit einen Ordner weniger) aufrufen ohne einen 301 und erst wenn man Content gefunden hat, dann einen 301

Aber wer weis ob sich das PHP da nicht tot läuft und ein 501 (Service nicht erreichbar) das Ergebnis ist

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 28.02.2006, 10:03

Das ist nichts weiter als ein einfacher Deadlock-Schutz.

Cutts: "Anything more than five might confuse Googlebot" - ganz schön schwammige Formulierung für:

Code: Alles auswählen

if( $redirects==5 ) break;
;)

Anonymous

Beitrag von Anonymous » 28.02.2006, 14:09

naja fünf 301 hintereinander ist scho ne Menge.... ich sehe keinen grund warum mehr als 3 nacheinander kommen sollten... 1 mal z.B. aus einen katalog der über ein Zählscript verlinkt, 1 mal mit/ohne www, 1 mal Content verschoben...

anders gesehen, ein Webbrowser folgt auch nicht unendlich den Weiterleitungen, da ist auch irgendwann schluss...

gomopa
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 01.03.2006, 12:18

Beitrag von gomopa » 01.03.2006, 12:47

Erst einmal ein freundliches Hallo als absoluter SEO Neuling an alle Forenteilnehmer.

In den letzten Tagen habe ich mich intensiv in diesem Forum umgesehen, da ich meine neu gestalteten Seiten für die Suchmaschinen, hauptsächlich für google, optimieren muss.
Meine Vorgaben :

ich benutze Confixx 3.0 und habe auf einem web sechs Domains, die vom Namen her ähnlich sind, gleichzeitig eingerichtet. Teilweise sind die Unterschiede der Domainnamen marginal, mit Bindestrich und ohne, .de und .com oder.net, teilweise auch mit zwei Begriffen und Bindestrich.

Ich müsste also fünf Weiterleitungen 301 einrichten, dann auch noch fünf, dass die Aufrufe ohne www auf mit www weitergeleitet werden.

Ausserdem habe ich noch einige Seiten, die als Backlink erscheinen, aber durch Umstrukturierung der Verzeichnis- bzw. Dateinamen nicht mehr existieren, die ich auch gerne auf die neuen Ebenen weiterleiten möchte.
Welche Tipps würdet Ihr mir aufgrund der in diesem Thread angesprochenen GoogleBot Probleme geben.

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 01.03.2006, 12:52

so viele 301er in Folge sollten nur passieren, wenn man eine Bot-Trap macht, aber die sollte dann den Googlebot möglichst ausschließen ;) ;)
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 01.03.2006, 13:03

@gomopa: Du mußt halt versuchen, unter den 5 zu bleiben :wink:

Du richtest z.B. auf jeder "Nebendomain" 2 Weiterleitungen ein:
nebendomain.de -> www.hauptdomain.de
www.nebendomain.de -> www.hauptdomain.de
D.h. hier wären es schonmal immer nur eine Weiterleitung hintereinander (und nicht 5).

Wenn Du dann z.B. noch alte Seiten auf neue umleitest, bist Du immer noch bei 2 Weiterleitungen hintereinander (und immer noch lange nicht bei 5).

robbelsche
PostRank 9
PostRank 9
Beiträge: 1053
Registriert: 09.09.2004, 00:34
Wohnort: Berlin

Beitrag von robbelsche » 01.03.2006, 13:05

gomopa hat geschrieben:Welche Tipps würdet Ihr mir aufgrund der in diesem Thread angesprochenen GoogleBot Probleme geben.
@gomopa
Willkommen im Forum! Aufgrund der von Dir geschilderten Problematik würde ich Dir empfehlen, Dir mal den „Klassiker“ Standard-Domain definieren mit Apache (mod_rewrite) durchzulesen, der übrigens im Unterforum „Webcoding und -Programmierung“ auch ganz oben angepinnt ist... :wink:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag