Überhaupt nicht seltsam. Du hast du irgendeine nicht Suma-gerechte Form der Weiterleitung von / auf /index.php. Solltest du einfach ganz rausnehmen und von allen Unterseiten immer schön auf / verlinken.
Du kannst, wenn du dich mit Webentwicklung prinzipiell ein bisschen auskennst (HTML, PHP oder andere Scriptsprachen, Photoshop) vielleicht irgendwo ein Praktikum machen. Das ist dann zwar vielleicht unbezahlt, aber besser, als für ein Seminar tausende € zu zahlen.
Wenn manche Unterseiten nur über die jetzt ausgeschlossen Übersichtsseiten verlinkt waren, fliegen die als Folge auch raus. Oder die Robots.txt ist fehlerhaft und schließt zu viel aus. Vielleicht hat auch einfach Google nen schlechten Tag. Würde jedenfalls jetzt erstmal nach dem Grund für den Traffi...
Alternativ kannst du auch die Anzahl der Suchergebnisse pro Seite auf 100 erhöhen. Für einen schnellen Überblick, wie es auf Platz 400 aussieht, ganz gut geeignet. Ansonsten nutze ich auch den Free Monitor for Google.
Ok...Also ich habe einen PR6 und nen PR7 Backlink und einige PR4 PR3 usw Backlinks. Per Backlink Checker habe ich einen zukünftigen Pagerank 5. Ich denke, dass sollte an der Stelle in Ordnung sein. Ich habe mir auch extra Backlinks bei Themenrelevanten Seiten organisiert. Du hast weder einen PR7- (...
Google frisst nicht alles, was auf der Straße rumliegt, man muss es auch gut würzen. Und das beste Gewürz hierzu sind PR-starke Backlinks. Nen Startseiten-PR von 6, besser 7, würde ich schon empfehlen, um (bei guter interner Verlinkung) wenigstens annähernd alles in den Index zu prügeln. Alternativ ...
Google wird sich hüten, URLs, die in Formularen auftauchen, weiter zu verfolgen. Denn möglicherweise reicht der Aufruf einer solchen URL, um etwas zu bestellen / zu bewerten / eine Mail zu verschicken etc. Außerdem weiß Google nicht, warum diese URL im Formular steht. Ob das als Link gedacht ist, od...
Wie bei beinahe allen SEO-Maßnahmen ist es auc hhier so: Wenn die Maßnahme einen Mehrwert für den Besucher darstellt, wird sie wahrscheinlich einer manuellen Überprüfung standhalten. Massenweise Keywords sind halt zumeist kein Mehrwert.
Wenn es wirklich ein AJAX-Tool ist, wird der Content erst auf Knopfdruck aus dem Internet geladen und nicht gewertet. Man kann dies aber auch einfach per CSS lösen, indem ein Container, der den Text enthält, per JS sichtbar gemacht wird. In diesem Fall sieht Google den Text.
Wahrscheinlich liegts wirklich am Thema. Die Klickrate ist mit 1-2% eigentlich ganz ok, denke ich. Ich werde mal mehr Anzeigen ausliefern (hatte noch nicht auf allen Unterseiten welche drauf), vielleicht hilfts ja noch etwas. Ich seh schon, ich brauch auch mal so ne Versicherungsseite ;-) Danke und ...
Wenn du die Indizierung wirklich verhindern willst, reicht nofollow alleine nicht aus. Du weißt ja nie, was für Links von außen kommen. Da muss dann noch, wie schon geschrieben, per robots.txt oder meta-tags gesperrt werden.