der titel ist eigentlich relativ selbst erklärend! Ich habe eine kleine Applikation (asp) die ca 5.000.000 Datensätze umfasst übernommen! Leider ist da das sem keines wegs berücksichtigt worden!
jetz zu meiner frage:
es geht um bücher-autoren-verläge
jeder autor hat bücher diese bücher haben wiederumm verläge, usw...!
Das heißt ich bringe mit den Datensätzn eine unmengen an interne Links zusammen. Die links haben derzeit keine link struktur einige der links 800 (ich weiß lächerlich) sind bereits indiziert worden! Da die Seite nicht ser suchmaschinen freundlich ist/war sanken die crawlerbesuche enorm!!
Meine Frage ist nun ich habe mir ein Konzept durchgedacht mit URL Strucktur - Seitenhierachie - Keywords - Design (sem bassiert), und alles rundherum und will dies einfach mal austesten. Ist es sinvoll das alles auf einmal zu machen oder Schritt für Schritt? d.h. zuerst mal eine ordentliche startseite um den crawler wieder anzuregen... ein bisschen warten und dan weiter veränderungen?
Schritt für Schritt dauert länger - hat aber den Vorteil, die Auswirkungen jedes einzelnen Schrittes erkennen zu können.
Aber wenn sowieso alles umgesetzt werden soll, dannn geht es auch sofort auf einmal.
"d.h. zuerst mal eine ordentliche startseite um den crawler wieder anzuregen... ein bisschen warten und dan weiter veränderungen? "
ähh ja.. zeig dem Googlebot deinen nichtoptimierten Content und lass ihn diesen indexieren und schlecht ranken.. macht nicht so viel Sinn, oder?
Nimm dir erst deine Seite vor und hol dir dann den Googlebot.
Wenn du keine Statistik über den "Erfolg" deiner Maßnahmen haben willst, dann mach alles auf einmal, sprich:
Titel
Meta Description / Keywords
Keyword Density
interne Verlinkung inklusive Verhinderung von duplicate Content