Seite 1 von 1

Abstrafung durch doppelten Content, was kann ich nun tun?

Verfasst: 03.09.2007, 20:55
von shaker1212
Hallo,

ich betreibe seit April 2007 ein Video Sharing Portal.
Meine Seiten mit den Videos (/view_video.php?viewkey=xxxx) waren aufgrund des Videotitels im Seitentitel bei den entsprechenden Suchbegriffen bei Google immer recht weit vorne. Position 5-100.
Nun habe ich versucht meine dynamischen URL's mit mod_rewrite statisch und mit dem Videotitel in der URL noch besser für search engines zu machen. Da ich nicht so gut programmieren kann habe ich einfach auf den "/view_video.php?viewkey=xxxx" Seiten einen link zu den optimierten Seiten (z.B. /video-videotitel.html) gesetzt damit die Suchmaschinen den auch scannen. Ein paar Tage später hab' ich gemerkt: Die Idee war wohl nicht so gut wegen doppeltem Content.
Da hab' ich die links gleich wieder entfernt. Das ganze ist jetzt 3 Wochen her, aber seit ein paar Tagen stelle ich fest, daß meine Seiten mit den Videos bei den entsprechenden Suchbegriffen bei Google ins jenseits gesackt sind. Das heißt Position 700-800. Meine domain selber liegt noch recht weit vorne. Nur die Seiten mit den URL's "/view_video.php?viewkey=xxxx" sind ganz hinten zu finden. Als hätte Google alle meine Seiten die diese URL enthalten abgestraft.
Ich hab' das Gefühl das liegt am ehemals doppelten Content.
Wie bekomme ich die Seiten wieder nach vorne? Wie gesagt doppelter Content liegt nicht mehr vor. Soll ich einfach abwarten? Kann ich selber etwas tun? Wenn ja, was? Oder muß ich für immer mit dieser Abstrafung leben?
Bitte helft mir!
Danke! :lol:

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.09.2007, 21:10
von FleyerShaver
ich würde die urls umwandeln und dann die view_video.php in der robot.txt ausschließen. Jetzt nur noch ein bisschen warten und fertig.

Wenn jemand ne bessere Idee hat her damit ich möchte so etwas ähnliches mit mod_rewrite nämlich auch bald machen.

Verfasst: 03.09.2007, 21:22
von shaker1212
FleyerShaver hat geschrieben:ich würde die urls umwandeln und dann die view_video.php in der robot.txt ausschließen. Jetzt nur noch ein bisschen warten und fertig.

Wenn jemand ne bessere Idee hat her damit ich möchte so etwas ähnliches mit mod_rewrite nämlich auch bald machen.
Danke für die Antwort!
Meinst Du z.B. aus view_video.php watch_video.php machen?
Weil an das mod_rewrite trau ich mich nicht mehr ran.
Dann müßte ich wegen einigen externen links zur view_video.php URL eine weiterleitung in der .htacces zur watch_video.php machen.
Wäre das mit Google vereinbar?

Verfasst:
von

Verfasst: 03.09.2007, 21:35
von gemira
Ich denke das die .htaccess der richtige Weg wäre.

Kommt natürlich darauf an, wieviel Aufwand für Dich dahinter steckt.

Warum traust Du dich an das mod_rewrite nicht mehr ran?

Verfasst: 04.09.2007, 05:12
von D@ve
Die Sache ist eigentlich nicht sooo wirklich wild, als dass man da Angst haben müsste. Das mit dem Verlinken ist natürlich kein sonderlich genialer Einfall gewesen. Wie schon gesagt:
1. falls möglich alte php-Dateien umbenennen so, dass Google die alten URLs nicht mehr finden kann
2. statische URLs per htaccess auf die neuen Dateien linken
3. alte und neue dynamische URLs in der robots.txt verbieten
4. schauen dass alle Links auf die dynamischen URLs durch die statischen ersetzt werden
5. (falls Du 1. durchgeführt hast) die alten dynamischen URLs per 301 auf die neuen statischen umleiten

Damit sollte es ziemlich idiotensicher funktionieren.

Verfasst: 05.09.2007, 14:48
von shaker1212
D@ve hat geschrieben:Die Sache ist eigentlich nicht sooo wirklich wild, als dass man da Angst haben müsste. Das mit dem Verlinken ist natürlich kein sonderlich genialer Einfall gewesen. Wie schon gesagt:
1. falls möglich alte php-Dateien umbenennen so, dass Google die alten URLs nicht mehr finden kann
2. statische URLs per htaccess auf die neuen Dateien linken
3. alte und neue dynamische URLs in der robots.txt verbieten
4. schauen dass alle Links auf die dynamischen URLs durch die statischen ersetzt werden
5. (falls Du 1. durchgeführt hast) die alten dynamischen URLs per 301 auf die neuen statischen umleiten

Damit sollte es ziemlich idiotensicher funktionieren.
Zu 5.: Wie kann ich denn die alten dynamische URLs per 301 auf die neuen statischen umleiten. Bitte gib' mir ein Beispiel.

Verfasst: 05.09.2007, 14:59
von Sunbringer
das kannst per php regeln... einfach als alles erstes (!!! da das nur funzt, solange noch keine Ausgabe erfolgt ist, und seis nur ne session) ne abfrage rein, obs die php oder die html ist und notfalls umleiten

Code: Alles auswählen

	$newurl = "Location: http://www.seite.de/video-".$videotitel.".html";
	header("Status: 301 Moved Permanently"); 
	header("".$newurl."");
	exit; 

Verfasst: 16.09.2007, 13:47
von shaker1212
Hallo,

das technische ist jetzt soweit geklärt. Ich frage mich jetzt welche URL ist besser:
1. /videos/videokey/videotitel.html
oder
2./videos/videokey/videotitel
oder
3./videos/videokey/videotitel/

Die zweite oder dritte Möglichkeit ist kürzer bringt aber die Gefahr von doppeltem Content, wenn ich beide ermögliche.
Außerdem habe ich gehört die .html Dateiendung würde für Suchmaschinen nochmal unterstreichen, daß die Seite statisch ist.
Was meint Ihr?

Verfasst: 16.09.2007, 14:53
von duospilus
1!

Verfasst: 17.09.2007, 12:41
von shaker1212
Hallo,

Nun habe ich alle Links auf die dynamischen URLs durch die statischen ersetzt.
Meine URL mit den Videos sieht nun so aus:
/videos/videokey/videotitel.html

Alles läuft prima nur jetzt hab' ich ein Problem mit der Ajax Rate Funktion für die Videos.
Folgender Fehlercode wird beim raten angezeigt:

Code: Alles auswählen

[CPAINT error] invalid http response code '404'
Da stimmen glaube ich irgendwelche Pfadangaben nicht mehr.
Nur wo, ich hab' in allen PHP und Ajax Dateien nachgeschaut, ich finde den Fehler einfach nicht.
Kann mir jemand helfen?
Vielen Dank!