Hallo bydlo, buttheads, gretzeugen herzlichen Dank für die Antworten. Ich hoffe richtig recherchiert zu haben!
zu bydlo:
Duplicate Content sind Inhalte, die in der gleichen Form schon im Internet vertreten sind. Da Suchmaschinen es nicht als nötig befinden doppelte Inhalte in ihrem Index zu speichern versuchen Sie, nur eine Version anzuzeigen. Bei 2 identischen Seiten fällt somit eine aus den Ergebnissen. Es könne sich aber negativ auf PR auswirken z.B 1 Seite PR3 und die andere PR4 .
Wenn Webseiten umbenannt werden, oder eine Website auf eine andere Domain umzieht, kann man von den alten Dateien auf die neuen mit einem sogenannten permanent Redirect (301 Redirect) weiterleiten. Diese Art der Weiterleitung wird auch von der Suchmaschine Google empfohlen.
Danke das werde ich machen !
Session-ID
Die sog. Session-ID ist ein zufällig ausgewählter Schlüssel, der die Sessiondaten auf dem Server eindeutig identifiziert. Dieser Schlüssel kann z.B. über Cookies oder als Bestandteil der URL an ein Folgescript übergeben werden, damit dieses die Sessiondaten auf dem Server wiederfinden kann.
Das Entfernen von Session ID's bei Online Shops/Foren und bei anderen dynamisch erstellten Webseiten. Dies könnte von Google grundsätzlich als eine Form des Cloaking bezeichnet werden, da es oft mit einem Referrer Check (User_Agent/IP) einher geht. Wenn der Googlebot kommt lasst man die Session ID weg. Wenn ein User mit einem Browser kommt, generiert man die Session ID wieder.
akzeptable oder Cloaking-Bestrafung ? Kann dieses bedenkenlos gemacht werden ?
Dynamische Webseiten für Suchmaschinen lesbar machen
Statische Webseiten erstellen,
die in kompakter Form wesentliche Inhalte des dynamischen Angebots wiederspiegeln. Diese Seiten sind sozusagen das Schaufenster Ihres Angebotes, egal ob es sich nun um einen Shop oder andere Angebote handelt. Einige Links von diesen Seiten führen zum eigentlichen Inhalt. Die statischen Webseiten werden ganz normal in Suchmaschinen angemeldet.
Suchmaschinenoptimierung dynamische Seiten
Seiten, die serverseitige Programmierung, z.B. in PHP enthalten, brauchen besondere Optimierungshilfen.
Dynamische Seiten, die bei jedem Abruf neu aus einer Datenbank erstellt werden, haben bei Suchmaschinen schlechte Karten und wurden früher gar nicht indiziert.
Heute können viele Suchmaschinen sie auswerten (Test: Suchen Sie nach "index.php?id=1").
Problematische URL mit zu langem Parameteranhang (z.B. Artikel mit Kategorie und Größe aus einemWebshop) lassen sich durch serverseitige Maßnahmen in scheinbar statische Seiten umschreiben (mod_rewrite).
Auch möglich: Doorwaypages, die den Inhalt der Website in statischer, suchmaschinenfreundlicher Weise beschreiben und auf die Homepage linken.
Ist mod_rewrite der richtige Lösungsweg ?
Weg mit dem ganzen überflüssigen Metaschrott
<META NAME="Title"..................
<META NAME="Abstract"..................
Hast Du diese beiden damit gemeint ...raus damit oder noch viel mehr ?
raus mit der URL aus dem Titel und den Titel sinnvoll ergänzen
werde ich machen Danke.....Dachte immer es wäre besonders schlau die URL im Titel anzugeben, wenn das Haupt-Keyword = "Software" im
www.Domain-Namen.de enthalten ist und somit dann auch wieder im Titel erscheint.
standarddomain definieren-mit htaccess
CODE:
# Set some options
Options -Indexes
Options +FollowSymLinks
RewriteEngine On
#Standarddomain
RewriteCond %{HTTP_HOST} ^www\.meineseite\.de [OR]
RewriteCond %{HTTP_HOST} ^meineseite\.de
RewriteRule ^$|^site/?$
https://www.meineseite.de [L,R=301]
Würde das bedeuten, dass die Seite nur noch unter www. erreichbar ist und ist der gefundene Code korrekt ?
zu buttheads:
Danke...das baut mich wieder auf *g
zu gretzeugen:
Ja habe ich wohl ...eine gute Listung ist eine Sache und PR eine andere.... dann müßte ich ja nur noch G**gle fragen, ob die Lust haben auf meine Seite zu verlinken ...dann wäre ich doch fein raus...wenn die das nicht möchten, könnte ich hier ja noch mal vorsichtig anfragen, wer da sonst Lust zu hätte oder wie man sich da austauschen könnte. Viele Grüße hibir