Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Session ID und Cloaking

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
BenSchwarz
PostRank 2
PostRank 2
Beiträge: 50
Registriert: 13.03.2006, 17:19
Wohnort: Landsberg

Beitrag von BenSchwarz » 21.03.2006, 08:36

Guten morgen,

habe schon diverse Beiträge durchgelesen, aber sehr kontroverse Meinungen gefunden.
Was ist Eure aktuelle Meinung? Ist es OK Session IDs für Bots per user_agent Weiche auszublenden oder könnte dies für Google bereits als Cloaking gelten?
Exisitiert nicht evtl. auch das Problem, dass kleinere SuMas evtl. nicht erkannt werden (nicht ganz so schlimm) und Google evtl. dann durch deren Links denken könnte es handle sich um DC (wäre schlimm)?

Noch eine Frage. Wie viel Eurer Besucher akzeptieren Cookies und wieviele nicht?

Gruß
Ben Schwarz

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 21.03.2006, 17:52

user agent weichen sind eher gefährlich, google schickt auch den spider unter "falschen" user-agents los um solche "doorwaypages" zu filtern.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 21.03.2006, 18:10

matin hat geschrieben:user agent weichen sind eher gefährlich, google schickt auch den spider unter "falschen" user-agents los um solche "doorwaypages" zu filtern.
Woher hast du diese Information?

Ich unterscheide seit einiger Zeit zwischen Bots und Besuchern. Die Seiten sind inhaltlich identisch, ansonsten komplett unterschiedlich. Ich kann das sehr empfehlen, es hat eine Weile gedauert, bis ich nur noch sinnvolle Seiten im Index hatte, das dankt mir Google jetzt... :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 21.03.2006, 18:59

Christophe hat geschrieben:
matin hat geschrieben:user agent weichen sind eher gefährlich, google schickt auch den spider unter "falschen" user-agents los um solche "doorwaypages" zu filtern.
Woher hast du diese Information?
aus den Logfiles....

Visits von googlebot IP (DNS: crawl-x-x-x-x.googlebot.com)mit Useragent Netscape 6.0;, meist wurde genau die gleiche Seite kurz vorher mit Useragent Google 2.1; besucht.... und er hat auch noch weitere Useragent... z.B. der mediabot für Adsense oder der Bilder-bot....

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 21.03.2006, 23:20

net(t)worker hat geschrieben: Useragent Netscape 6.0;,
meist wurde genau die gleiche Seite kurz vorher mit Useragent Google 2.1; besucht....
und er hat auch noch weitere Useragent...
bei Zeitgleich deutet es wirklich auf einen Cloaking Check

gibts auch einen "Firefox"?
habe Heute ein Cloacking eingebaut
Feuerfüxe bekommen eine ".gif" Favicon (ist animiert)
alle Anderen ".ico" (da IE eh nur .ico anzeigt)

Anonymous

Beitrag von Anonymous » 21.03.2006, 23:31

das wäre ja kein cloaking, sondern eine Art browserweiche.... oder?

bisher habe ich noch kein Mozilla mit googlebot-ip gesehen...

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 22.03.2006, 08:01

@benschwarz

hatte sowas Jahrelang ohne Probleme eingesetzt, Problem war nur die Useragentenliste zu pflegen und die pseudosumas vom Hals zu halten, da die glatt die sessionids mitspeicherten und reichlich DC produzierten.

FEAnoR
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 22.10.2005, 14:58

Beitrag von FEAnoR » 22.03.2006, 08:03

dass kleinere SuMas evtl. nicht erkannt werden (nicht ganz so schlimm) und Google evtl. dann durch deren Links denken könnte es handle sich um DC (wäre schlimm)?
Google "denkt" nicht durch Links von anderen SuMas, das ist etwas abwegig. :lol:

Die Frage ansich ist gut, hab' diese Methode bei einer Website auch im Einsatz. Bisher gab es jedoch noch keinen Ban. Ich könnte mir jedoch vorstellen, dass der Bot das Fehlen bzw. das Vorhandensein von SIDs nicht überbewertet, bzw. ein Indiz für Cloaking darstellt.

honk
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 23.11.2005, 14:14

Beitrag von honk » 22.03.2006, 09:43

Den Logeintrag mit dem Netscape 6.0 würde ich gerne mal sehen,
hab grade mal ein paar Gigabyte von verschiedenen Domains durch den Filter wandern lassen und dergleichen nicht gefunden?!

Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 22.03.2006, 11:21

Selbst wenn Google in der Lage ist, Unterschiede festzustellen, glaube ich nicht, dass das negative Konsequenzen hat. Google sagt:
Versuchen Sie nicht, Ihre Nutzer zu täuschen, und bieten Sie Suchmaschinen keine Inhalte an, die Sie nicht auch für die Nutzer verwenden.
(Hervorhebung von mir)
Solange man die Inhalte nicht ändert, sondern nur deren Erscheinungsform halte ich das für legitim und ungefährlich.

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 22.03.2006, 12:00

Diese Forum killt session ids durch user agent prüfen. Session id killen ist völlig ok (steht sogar auf die Google seite). User agent prüfen um google andere CONTENT zu liefern ist was komplett anders.

Alan
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

FEAnoR
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 22.10.2005, 14:58

Beitrag von FEAnoR » 22.03.2006, 12:25

@Webby
Welche user agents habt ihr festgelegt, um möglichst alle SuMas zu erfassen? Auch mit Platzhaltern gearbeitet?

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 22.03.2006, 13:08

Code: Alles auswählen

!strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'Googlebot') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'slurp@inktomi.com;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'Yahoo! Slurp;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'msnbot;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'teoma;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'crawler;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'scooter;') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'fireball;'))

Hoffe das hilft.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 22.03.2006, 14:29

Bei stristr kann man kann statt googlebot und msnbot auch einfach bot verwenden und bei yahoo einfach slurp.


Und strpos() sollte laut php.net schneller als strstr() sein.

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 22.03.2006, 14:36

marc75 hat geschrieben:Bei stristr kann man kann statt googlebot und msnbot auch einfach bot verwenden und bei yahoo einfach slurp.


Und strpos() sollte laut php.net schneller als strstr() sein.
Webby "if" ist ausgelegt auf

"was nicht so ist = tschüß"

wenn du google & msn verkürzt auf "bot"
dann erlaubst du auch "Dödelbot"
Webby will zu dem aber tschüß sagen

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag