ich habe mir mal unsere Domain im google Webmaster angeschaut und dort sehr viele fehler festgestellt und diese lösen zu können:
Wer von Euch kann mir sagen wie ich diese fehler beheben lassen kann?
1. URL-Parameter
Der Googlebot hat derzeit keine Probleme mit dem Crawlen Ihrer Website, daher müssen Sie keine URL-Parameter konfigurieren. Verwenden Sie diese Funktion nur, wenn Sie mit der Funktionsweise von Parametern vertraut sind. Wenn Sie URLs fälschlicherweise ausschließen, kann dies dazu führen, dass viele Seiten aus der Suche verschwinden.
"Von"-Parameter, die der Googlebot auf Ihrer Website gefunden hat. Die Parameter in der folgenden Liste ändern den Inhalt Ihrer Seiten offenbar nicht. Google ignoriert diese daher. Falls Sie sicher sind, dass dies nicht richtig ist, können Sie angeben, wie diese Parameter gehandhabt werden sollen.
replytocom PHPSESSID
Parameter Überwachte URLs Konfiguriert Effekt Crawling
PHPSESSID 3.568 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
replytocom 2.908 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
mingleforumaction 96 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
id 95 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
referer 66 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
refsite 56 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
ref 56 - - Entscheidung dem Googlebot überlassen Bearbeiten / Zurücksetzen
2. Crawling Fehler
- Server Fehler 16
- Zugriff verweigert 1
- Nicht gefunden 1600
3. HTML Vorschläge
Doppelte Metabeschreibungen 111
Lange Metabeschreibungen 0
Kurze Metabeschreibungen 627
Titel-Tag Seiten
Fehlende "title"-Tags 3
Doppelte "title"-Tags 74
Langer Text zwischen den "title"-Tags 0
Kurzer Text zwischen den "title"-Tags 0
Irrelevante "title"-Tags 0
1. URL-Parameter
hier würde ich gar nichts machen. Der Googlebot kann ja deine URLs lesen und somit ist alles in Ordnung. Wenn du was machst, dann musst du dich wirklich gut auskennen und langfristig denken. Denn wenn du einmal einen Parameter eingegeben hast, kannst du diesen nie wieder ändern.
2. Crawling Fehler
hast du eine Sitemap integriert, oder warum 1600 Seiten nicht gefunden? Grundsätzlich ist es normal, dass Google einige Seiten nicht findet. Bei den 16 Seiten Seiten solltest du mal die Ladezeit überprüfen und schauen, ob diese vom Server gebloggt werden.
Zugriff verweigert, heißt ja nur, dass der Bot dort nicht drauf darf. Das könnte z. B. an deiner robots.txt liegen.
3. HTML Vorschläge
Wie man sieht, hast du hier noch ne ganze Menge zu tun. Google gibt hier quasi erste SEO-Tipps. Wunschdenken ist, dass jede Seite eine eigene Meta Description und einen Title hat. Fehlt diese, ist sie zu kurz oder eben doppelt, meldet dir dies WMT.
Ich hoffe, ich konnte dir hiermit etwas weiterhelfen.
zu 2 ja ich habe eine Sitemap drin, soll ich diese entfernen? Der google Bot kommt doch so oder so vorbei oder?
zu 3 ich habe mir diese mal angeschaut:
Bei diesen Doppelte Metabeschreibungen 111
habe ich gesehen das er die doppelt erfasst es handelt sich dabei immer um die gleichen Artikel 1x nimmt er den eigentlichen artikel und 1x den artikel aus der Kategorie.
Wenn wire einen Artikel schreiben, wir dieser meist unter den Markennamen, passende Kategorie etc. gepostet und dieses erkennt er als doppelt an denke ich