Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Session-Ids, dynamische URLs: Nachgefragt

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Mudder
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 02.08.2005, 15:45

Beitrag von Mudder » 03.08.2005, 17:21

Für nen Crawler kann man selten was anständiges mitloggen, doch das Probelm ist - zumindest bei "Fertig-Scripts", dass überall mal nen session_register() oder $_SESSION['var'] = "Dummdidumm"; stehen kann.

Deswegen muss man jede dieser Stellen extra kontrollieren bzw. schauen ob Session nun gestartet wurde oder nicht..


Was haltet Ihr denn von der Variante, sogar eigene Crawler-Templates zu gestallten..
Ohne Usermenüs sondern nur undesignerischer Content

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 03.08.2005, 17:53

sollteste lieber nicht machen... wird auch als cloaking bezeichnet... wenn google es mitbekommt, biste schnell raus...

kannst das Design aber komplett über CSS machen, dann haste auch schön schlanke Seiten......

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 03.08.2005, 23:39

Deswegen muss man jede dieser Stellen extra kontrollieren bzw. schauen ob Session nun gestartet wurde oder nicht.

Wenn es ein Fertigscript sein muss: Ein mal globale Suche auf alle Scriptdateien und durcharbeiten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

whobee
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 19.07.2005, 00:10

Beitrag von whobee » 04.08.2005, 01:13

Auch "große" CMS lassen sich relativ leicht umbauen.
ohne den Quelltext umschreiben zu müssen.

Augsgabepufferung, kann ich nur empfehlen :-)
Allerdings kommt man doch (oder nur ich?) mit sehr vielen und komplexen Urls,optionalen Parameter usw. ganz schön ins Schwitzen, wenn man sie alle per mod_rewrite überschreiben will ?! Und Keywords sind auch noch keine drin ... :(

Haupvergehen ist aber doch immer noch die ID im URL,auch wenn sie wie ein Verzeichnis aussieht
www.url.de/123asd1a56sd16as5d1asd/seite.html
Nach meinen Erfahrungen crawled Google solche URLs wie gesagt nur sehr schlecht bis gar nicht, und auch wenn, ist es sicher kontraproduktiv, weil sich derselbe Inhalt im Prinzip in beliebig vielen URLs wiederfindet, wie southmedia schon sagt...

Ich habe für den bot alle Session-IDs ebenfalls über Ausgabepufferung entfernt. Die URLs sind immer noch "voll dynamisch" :-) aber ohne IDs crawled Google (bis jetzt) stetig meine Seiten,Tendenz stark steigend! Fragezeichen und &s scheinen ihm überhaupt nicht zur stören, ich finde URLs mit 6! Parametern im Index....

Aber ganz frei von Sorgen bin ich nicht, denn ich habe u.a.folgendes festgestellen müssen
Eins meiner Probleme:Nachdem die Session-ID weg war, war ich von einer Eindeutigkeit meiner eingehenden Links immer noch weit entfernt, weil viele dieser Links Tracking-IDs mitbringen, die wir auswerten .... Ich dachte, es wäre sinnvoll (falsch gedacht??), hinsichtlich Link-Popularity dafür zu sorgen, daß sich für Google diese URLs nicht unterscheiden. Kommt Googlebot mit keiner oder einer ihm nicht zugeordneten Tracking-ID bekommt er (per 301) seine eigene, auch in der internen Verlinkung. Das scheint hervorragend zu funktionieren, aber:

Auf demselben Weg habe ich auch den Request auf / an ein Script (sagen wir home.script) per 301 delegiert. (das war notwendig, weil ich auch eingehende Links auf /home.script?bla=bla und dergleichen habe ... :( )

Seitdem speichert Google keine Informationen mehr für meine Domain!
info:meineDomain.de liefert keine Ergebnisse (mehr!).
Eine Verifizierung meines PR schlägt mit einer beunruhigenden Meldung fehl!
Ich habe gelesen, daß ein 301 schon auch mal ein paar Monate auf sich warten lässt, was ich eigentlich nicht bestätigen kann...

Kennt jemand das Problem? Abwarten und Teetrinken?????

whobee

whobee
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 19.07.2005, 00:10

Beitrag von whobee » 07.08.2005, 09:19

Schade eigentlich ....

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 07.08.2005, 10:46

1. Session id killen ist vollig akzeptiert von Google (Von Google mehr mals bei konferenz und persönlich bestätigt.) Man ändert die sichtbares content nicht, nur die url. also Sessio nid killen ist komplett gestattet bei Google und sogar empfohlen (genau wie server seitige umleitungen mit 301).

2. Diese Forum nutzt sessio nid killen. Es gibt eine einfach if statement um die User_Agent zu prüfen in die datei sessions.php.

Unten die code...

Code: Alles auswählen


	if ( !empty($SID) && !eregi('sid=', $url)  && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'Googlebot') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'slurp@inktomi.com;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'Yahoo! Slurp;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'msnbot;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'teoma;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'crawler;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'scooter;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'fireball;'))
	{
		$url .= ( ( strpos($url, '?') != false ) ?  ( ( $non_html_amp ) ? '&' : '&' ) : '?' ) . $SID;
	}
In andere worten falls es noch nicht eine sessionid gibt ( !empty($SID) und die User_Agent NICHT eine von die liste oben ist, dann liefern eine session id.

Obwohl das oben ist eine beispiel von nur phpbb ist, sind fast alle session ids auch so gebaut. Man muss nur die code finden und eine if statement nutzen.

3. Mann könnte auch fragen ob es wirklich nötig ist eine session id in "gäste" bereich nötig ist. Normalerweise sind session ids für das tracking nach eine log in bereich wie eine warenkorb oder mitgleich bereich. Liefern die session id nur bei warenkorb formular z.B.

4. Lieber eine cookie nutzen und gefunden werden als keine cookie und keine traffik kreigen imo. Ich denke auch nicht das so viel cookies abschalten. 30% klingt mir zu viel. Heutzutages nutzen soviel webseiten cookies das die einfach nötig ist um vernunftig zu surfen.

5. Bitte mein furchtbares schriftliches deutsch entschuldigen :-)

alan
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag