Seite 1 von 1
spiders via php erkennen?
Verfasst: 03.07.2007, 21:39
von zepho
gibt es eine möglichkeit spiders via php zu erkennen? habe diese bestimmte IP's oder andere erkennunsmerkmale?
Bin für Antwort dankbar
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 03.07.2007, 21:51
von SISTRIX
Um welche Spider geht es dir?
Gruß Johannes
Verfasst: 03.07.2007, 23:35
von Hasso
@zepho
Wenn ich Deine Frage richtig interpretiere, willst Du via PHP generell mit Sicherheit "erkennen" können, ob es sich bei dem "Besucher" um ein Spider/Robot handelt?
Bei einer tiefgründigen Prüfung von IP-Adresse, IP-Netz / Browserkennung, Aufrufmerkmale, Verhaltungsmuster etc., evntl. mit Geotargeting usw. bekommst Du sicherlich schon eine gewisse "Ahnung"
Aus den Ergebnissen kannst aber nicht stets zu 100% einen Roboterzugriff ableiten.
Gruß
Hasso
Verfasst: 04.07.2007, 01:12
von flash
Du kannst die OpenSource-Counter mit Boterkennung (zB den ChCounter) anschauen um eine konkrete Implementierung zu bekommen.
Verfasst: 04.07.2007, 10:15
von zepho
ja stimmt, ich wollte im mein cms ein paar seo features einbauen, unter anderm wan welcher bit mich besucht um welche browser, meine Kunden haben, ein und ausstiegsppunkt der seite, etc. um meine seite mehr zu optimieren.
Ich kan mir denken, das es sicher schon skripte in dieser richtung gibt, mache aber immer gern alles elber, allein wegen dem lerneffekt, so kann ich auch ausnahmezusänden und fehlern gegensteuern.
Hat sonst noch jemand eine idee, was man so an nützlichen infos gewinnen könnte? ich dachte ich könnte mit googleabfrage (link:) doch auch prüfen welche backlinks bestehen.
Jetzt habe ich noch eine anfänger frage: (Seid nicht böse wenn sie sehr dumm ist, komm grad aus der nachtschicht

).
Man könnte doch die größten, ausschlagebensten, werte, wie backlinks und keyworddichte , etc. in einem skript zusammenführen, deren effekt auf eine geraume zeit beobachten und so eine Formel erstellen, oder? ich meine nach einigen Formeln muss googel & co doch auch arbeiten
Verfasst: 05.07.2007, 08:10
von pr_sniper
Hallo Zepho,
setze einfach das kostenlose Google Analytics ein bzw. verwende die Logprotokolle deines Webhosters. Wenn du das Rad wirklich neu erfinden willst, wende dich besser an ein spezielles Programmierer-Forum.
Das Erkennen lieber und böser Bots ist ebenfalls ein ständiges Thema. Es ist eine kleine Wissenschaft, allerdings relativ einfach lösbar z.B. mit Spider-Trap.
Ja, Google kennt nur Nullen und Eisen und verwendet natürlich wie jeder Rechner (auch wenn er etwas dicker ist) die Grundrechenarten. Zu den vielen Rankingkriterien (100...200 - jedes hat seinen eigenen Algorithmus) und ihren Beziehungen zueinander gibt es keine (öffentlichen, vollständigen) Angaben - das ist wie beim Cola-Rezept.
Lies aber mehr in diesem Forum, auch immer in angegebenen Quellen, dann wirst du nach einigen Jahren zumindest Zusammenhänge besser als heute erkennen können.
Beginne einfach mal:
https://www.google.de/support/webmaster ... swer=35769
https://www.abakus-internet-marketing.d ... undlag.htm
Verfasst: 05.07.2007, 11:56
von Itds-Online
Willst du ein Cloaking Script bauen?
Verfasst: 06.07.2007, 05:15
von zepho
@sniper: na das ist mal eine rat, dankeschön.
@ itds: nein, soweit ich weiß darf man das doch garn ned oder? laut richtlinien?