Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Links mit Seesion ID im Index

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 14.12.2008, 22:26

Hallo,
Bei einem Backlinkcheck hab ich gerade mehrere male die gleiche Seite auf meiner eigenen Domain gefunden, nur die jeweils angehängte SessionID ist anders.
Wird das irgendwie als SAPM bewertet?
Kann ich das irgendwie umgehen?
Oder ist das völlig unbedenklich?
Ist aber ja doof wenn ich da 50 mal die gleiche Seite gelistet bekomme nur mit einer anderen Session ID.
Es handelt sich um eine gewöhnliche Homepage, also kein Shop o.ä.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

w3news
PostRank 8
PostRank 8
Beiträge: 938
Registriert: 10.10.2006, 23:17
Wohnort: Berlin

Beitrag von w3news » 14.12.2008, 23:01

so weit ich weiß schneidet google die session id's ab, sind denn die seiten wirklich alle gleich, egal welche session id?
MfG Lars

News, Tarife und Mobilfunk: w3news.de
Mobile Datenflatrates

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 14.12.2008, 23:17

ja, es ist die gleiche Seite,
Ich habe einen backlinkchecker benutzt:

https://www.seo-united.de/backlink-chec ... ten&side=0

und warum werden die IDs angezeigt, wenn sie google abschneidet?
Hängt es evtl. mit dem Formular zusammen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 15.12.2008, 10:55

Na, 119x die eine Seite im Index sieht nicht nach "abschneiden" aus:
https://www.google.de/search?&q=site%3A ... otour.html

Nutze die robots.txt Datei um das indizieren von solchen URLs auszuschliessen. Kannst Du auch in den Google WebmasterTool überprüfen:

Code: Alles auswählen

Disallow: *?PHPSESSID*
Ciao,
Mike

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 15.12.2008, 14:32

danke,
ich hab jetzt
User-Agent: *
Disallow: /*PHPSESSID
Allow: /
in meiner robots.txt, ist das okay so?
Wie lange wird es wohl dauern, bis die Seiten aus dem Index verschwinden?
Und wird die Seite jetzt ohne SessionID indiziert, oder womöglich gar nicht mehr, das wäre natürlich auch schlecht, denn die Session brauch ich eigentlich schon.

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 15.12.2008, 14:54

daily-picks hat geschrieben:in meiner robots.txt, ist das okay so?
Warum nimmst Du nicht das was ich angegeben habe?
Hast Du die Deine robots.txt mit den Webmastertools überprüft?

:roll:

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 15.12.2008, 17:23

hab ich jetzt gemacht, die webmastertools haben aber die neue robots noch nicht geladen.

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 15.12.2008, 17:27

Dann trag halt Deine Änderungen in die angezeigt robots.txt ein! Dafür ist das Feld doch da ... :o
Testen Sie diese robots.txt-Datei und probieren Sie Änderungen aus.

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 15.12.2008, 17:41

oh, ich glaub ich stand gerade nicht nur aufm Schlauch, sondern hab gleich mein Auto drauf geparkt :-?

Also, die Sessionurls werden jetzt blockiert, aber werden denn die urls ohne Sessions jetzt trotzdem gespidert?
Es handelt sich halt um PHP Seiten auf denen eine Session erstellt wird.

Nicos
PostRank 9
PostRank 9
Beiträge: 1900
Registriert: 30.10.2006, 11:31

Beitrag von Nicos » 15.12.2008, 17:54

brauchst Du die Session überhaupt? Oft werden Sessions echt unnötig (früh) eingesetzt!


Grüße
Nicos
Keywordmonitoring: [URL]httpss://www.DYNAPSO.com[/URL]

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 15.12.2008, 17:57

naja, schon,
sie dienen dazu zu überprüfen, ob ein user angemeldet ist, wenn nicht, dann erscheint halt die anmeldebox.

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 16.12.2008, 01:21

was vielleicht noch wichtig ist: Komischerweise habe ich mehrere Seiten mit einem

session_start();

aber nur einige werden mit SessionID indiziert, andere widerum werden ganz normal, ohne die Session aufgenommen.

Zerstreuter
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 04.07.2005, 12:12
Wohnort: Schwalmstadt

Beitrag von Zerstreuter » 16.12.2008, 04:24

Fassen wir einmal zusammen:
1. Ideal ist es natürlich, wenn überhaupt keine SessionID an die URL angehängt wird. Dies kann man z.B. durch folgende Einstellung in der php.ini erreichen:

Code: Alles auswählen

session.use_cookies = 1
session.use_only_cookie = 1
session.use_trans_sid = 0
Setzt aber voraus, das der User Cookies zuläßt. Eine "Einschränkung" mit der ich persönlich gut leben kann.

2. Eine weitere Möglichkeit ist, das beim Besuch eines Bots keine Sessions gestartet werden:

Code: Alles auswählen

if( !eregi( '(Googlebot|MSNbot|slurp)', $_SERVER['HTTP_USER_AGENT'] ) ) { 
    session_start();
}
3. Das Ausperren von URLs mit SessionIDs mit Hilfe der robots.txt ist die dritte und eigentlich die schlechteste Lösung. Ein Grund hierfür ist, das falls die URLs immer eine SessionID enthalten die Seiten überhaupt nicht mehr indexiert werden (wie daily-picks schon vermutet hat). Der zweite Grund ist, das man seine interne Verlinkung schwächt.

alex.k
PostRank 3
PostRank 3
Beiträge: 92
Registriert: 27.07.2006, 07:19

Beitrag von alex.k » 16.12.2008, 11:17

hi all,

Also ich habe bei einer Seite von mir das wie folgt gelöst.

.htaccess
php_flag session.use_trans_sid off

Weiß nicht ob die Lösung jetzt nu die bessere oder die schlechte ist.!?

mfg
Alex
Wer immer nur das tut, was er schon immer getan hat, wird immer nur das bleiben, was er schon ist!
Webmaster Tools
Suche LP für: Flirt und Chat Seiten, Internet Community, Fun Onlinegames, Webmaster, Kleinanzeigen, Ferienwohnungen. u.v.m.

daily-picks
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.04.2008, 10:33

Beitrag von daily-picks » 16.12.2008, 16:28

php_flag session.use_trans_sid off
okay, das klingt einfach, muss halt mal schauen, ob die user alle cookies akzeptieren.

Vorerst versuch ich Zerstreuters Vorschlag

Code: Alles auswählen

function sessionsetzen() {
$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);
if(!preg_match("~(googlebot|msnbot|slurp|ask jeeves)~",$useragent))
	{
	session_start();
	}
}
Danke an alle.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag