Seite 1 von 2

Links mit Seesion ID im Index

Verfasst: 14.12.2008, 22:26
von daily-picks
Hallo,
Bei einem Backlinkcheck hab ich gerade mehrere male die gleiche Seite auf meiner eigenen Domain gefunden, nur die jeweils angehängte SessionID ist anders.
Wird das irgendwie als SAPM bewertet?
Kann ich das irgendwie umgehen?
Oder ist das völlig unbedenklich?
Ist aber ja doof wenn ich da 50 mal die gleiche Seite gelistet bekomme nur mit einer anderen Session ID.
Es handelt sich um eine gewöhnliche Homepage, also kein Shop o.ä.

Verfasst:
von

Verfasst: 14.12.2008, 23:01
von w3news
so weit ich weiß schneidet google die session id's ab, sind denn die seiten wirklich alle gleich, egal welche session id?

Verfasst: 14.12.2008, 23:17
von daily-picks
ja, es ist die gleiche Seite,
Ich habe einen backlinkchecker benutzt:

https://www.seo-united.de/backlink-chec ... ten&side=0

und warum werden die IDs angezeigt, wenn sie google abschneidet?
Hängt es evtl. mit dem Formular zusammen?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 15.12.2008, 10:55
von MikeK
Na, 119x die eine Seite im Index sieht nicht nach "abschneiden" aus:
https://www.google.de/search?&q=site%3A ... otour.html

Nutze die robots.txt Datei um das indizieren von solchen URLs auszuschliessen. Kannst Du auch in den Google WebmasterTool überprüfen:

Code: Alles auswählen

Disallow: *?PHPSESSID*
Ciao,
Mike

Verfasst: 15.12.2008, 14:32
von daily-picks
danke,
ich hab jetzt
User-Agent: *
Disallow: /*PHPSESSID
Allow: /
in meiner robots.txt, ist das okay so?
Wie lange wird es wohl dauern, bis die Seiten aus dem Index verschwinden?
Und wird die Seite jetzt ohne SessionID indiziert, oder womöglich gar nicht mehr, das wäre natürlich auch schlecht, denn die Session brauch ich eigentlich schon.

Verfasst: 15.12.2008, 14:54
von MikeK
daily-picks hat geschrieben:in meiner robots.txt, ist das okay so?
Warum nimmst Du nicht das was ich angegeben habe?
Hast Du die Deine robots.txt mit den Webmastertools überprüft?

:roll:

Verfasst: 15.12.2008, 17:23
von daily-picks
hab ich jetzt gemacht, die webmastertools haben aber die neue robots noch nicht geladen.

Verfasst: 15.12.2008, 17:27
von MikeK
Dann trag halt Deine Änderungen in die angezeigt robots.txt ein! Dafür ist das Feld doch da ... :o
Testen Sie diese robots.txt-Datei und probieren Sie Änderungen aus.

Verfasst: 15.12.2008, 17:41
von daily-picks
oh, ich glaub ich stand gerade nicht nur aufm Schlauch, sondern hab gleich mein Auto drauf geparkt :-?

Also, die Sessionurls werden jetzt blockiert, aber werden denn die urls ohne Sessions jetzt trotzdem gespidert?
Es handelt sich halt um PHP Seiten auf denen eine Session erstellt wird.

Verfasst: 15.12.2008, 17:54
von Nicos
brauchst Du die Session überhaupt? Oft werden Sessions echt unnötig (früh) eingesetzt!


Grüße
Nicos

Verfasst: 15.12.2008, 17:57
von daily-picks
naja, schon,
sie dienen dazu zu überprüfen, ob ein user angemeldet ist, wenn nicht, dann erscheint halt die anmeldebox.

Verfasst: 16.12.2008, 01:21
von daily-picks
was vielleicht noch wichtig ist: Komischerweise habe ich mehrere Seiten mit einem

session_start();

aber nur einige werden mit SessionID indiziert, andere widerum werden ganz normal, ohne die Session aufgenommen.

Verfasst: 16.12.2008, 04:24
von Zerstreuter
Fassen wir einmal zusammen:
1. Ideal ist es natürlich, wenn überhaupt keine SessionID an die URL angehängt wird. Dies kann man z.B. durch folgende Einstellung in der php.ini erreichen:

Code: Alles auswählen

session.use_cookies = 1
session.use_only_cookie = 1
session.use_trans_sid = 0
Setzt aber voraus, das der User Cookies zuläßt. Eine "Einschränkung" mit der ich persönlich gut leben kann.

2. Eine weitere Möglichkeit ist, das beim Besuch eines Bots keine Sessions gestartet werden:

Code: Alles auswählen

if( !eregi( '(Googlebot|MSNbot|slurp)', $_SERVER['HTTP_USER_AGENT'] ) ) { 
    session_start();
}
3. Das Ausperren von URLs mit SessionIDs mit Hilfe der robots.txt ist die dritte und eigentlich die schlechteste Lösung. Ein Grund hierfür ist, das falls die URLs immer eine SessionID enthalten die Seiten überhaupt nicht mehr indexiert werden (wie daily-picks schon vermutet hat). Der zweite Grund ist, das man seine interne Verlinkung schwächt.

Verfasst: 16.12.2008, 11:17
von alex.k
hi all,

Also ich habe bei einer Seite von mir das wie folgt gelöst.

.htaccess
php_flag session.use_trans_sid off

Weiß nicht ob die Lösung jetzt nu die bessere oder die schlechte ist.!?

mfg
Alex

Verfasst: 16.12.2008, 16:28
von daily-picks
php_flag session.use_trans_sid off
okay, das klingt einfach, muss halt mal schauen, ob die user alle cookies akzeptieren.

Vorerst versuch ich Zerstreuters Vorschlag

Code: Alles auswählen

function sessionsetzen() {
$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);
if(!preg_match("~(googlebot|msnbot|slurp|ask jeeves)~",$useragent))
	{
	session_start();
	}
}
Danke an alle.