Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Noch mehr faked GoogleBots

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 17.08.2006, 16:21

Noch mehr faked GoogleBot ausm SperrLog:
(letzter Eintrag ist die zugehoerige IPRange)

67.15.78.89 brooklyn.netwidemedia.com - Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) - **zensur** - iprange - 67.15.0.0/67.15.255.255

72.232.205.18 18.205.232.72.reverse.layeredtech.com - Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) - **zensur** - iprange - 72.232.0.0/72.232.255.255

und noch ein extern gemeldeter:

IP 66.230.157.90
wird leider nich in n dns name aufgeloest, aber die ip range gehoert:

Reality Check Network RCN-66-230-156-0-1 (NET-66-230-156-0-1)
66.230.156.0 - 66.230.157.255
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 18.08.2006, 12:50

und noch 2 neue googlebot fakes:

ip 128.122.253.147 new york university, iprange 128.122.0.0 - 128.122.255.255

ip 206.252.133.136 Digital Telemedia, iprange 206.252.133.112 - 206.252.133.255
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 19.08.2006, 13:36

Und wieder 1 neuer:

IP 140.115.17.127
inetnum: 140.115.0.0 - 140.115.255.255
netname: TANET
descr: Taiwan Academic Network
descr: Ministry of Education computer Center
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 21.09.2006, 21:06

Herr Lehrer, ich weiß was ...

Mensch Airport1, hör mit Deiner kindischen Spammerei auf. Wen soll schon interessieren, ob heute jemand als GB, morgen als slurp oder übermorgen als Jupp unterwegs ist, derweil die Hälfte dieses Forums selbst als GB unterwegs ist, mich eingeschlossen.

Es ist mittlerweile sinnvoll, mit gefaktem UA unterwegs zu sein.
"zentrale Meldestelle", ich brech' zusammen. Haste vielleicht noch 'nen Zertifizierungsdienst?

Gruß
HardPollux

everflux
PostRank 8
PostRank 8
Beiträge: 939
Registriert: 01.05.2006, 17:15

Beitrag von everflux » 21.09.2006, 21:18

Welchen Sinn macht es denn, seinen UA zu faken?
(Mal abgsehen daß ich damit in einigen Foren lesen kann, wofür man sich sonst anmelden muß *gg)
https://everflux.de/ blogging about life, programming, seo and the net

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 21.09.2006, 22:16

everflux hat geschrieben:Welchen Sinn macht es denn, seinen UA zu faken?
(Mal abgsehen daß ich damit in einigen Foren lesen kann, wofür man sich sonst anmelden muß *gg)
Weil Sie sonst draußen bleiben müssen. Es sind mittlerweile auch Horden von Bots mit Browser UA unterwegs, etliche mit t-online IP.

Gibt es etwas, das die Zugriffszeiten und Verweildauer pro Page misst und bei einem Muster oder zu schneller Durchlauf die Tür schließt?

everflux
PostRank 8
PostRank 8
Beiträge: 939
Registriert: 01.05.2006, 17:15

Beitrag von everflux » 21.09.2006, 22:31

Wer muß draußen bleiben!? Irgendwie steh ich aufm Schlauch :)
https://everflux.de/ blogging about life, programming, seo and the net

Michael1967
PostRank 9
PostRank 9
Beiträge: 2158
Registriert: 26.10.2005, 23:51

Beitrag von Michael1967 » 21.09.2006, 22:43

everflux hat geschrieben:Wer muß draußen bleiben!? Irgendwie steh ich aufm Schlauch :)
Ich denke die schon auf der schwarzen Liste stehen *gg*

everflux
PostRank 8
PostRank 8
Beiträge: 939
Registriert: 01.05.2006, 17:15

Beitrag von everflux » 21.09.2006, 23:40

Google hat aber nen offiziellen Weg den bot zu verifizieren:
https://googlewebmastercentral.blogspot ... lebot.html

Naja, besser als nix...
https://everflux.de/ blogging about life, programming, seo and the net

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 22.09.2006, 09:11

everflux hat geschrieben:Wer muß draußen bleiben!? Irgendwie steh ich aufm Schlauch :)
Ich denke nicht wenige haben eine Whitelist auf der das Dutzend nützlicher Bots steht, alles andere bleibt draußen.

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 22.09.2006, 09:47

Das Sperren von "Googlebots", die nicht aus den IP-Bereichen von Google sind, kann in Einzelfällen zielführend sein, wenn der IP-Bereich sperrenswert erscheint - z.B. Fernost, sofern man diese überhaupt noch zuläßt.
Von unreflektiertem Sperren kann angesichts der Tatsache, daß erfahrungsgemäß auch Google-Qualitätsteams von Nicht-Google-IPs aus mit Googlebot-User-agent Besuche abstatten, nur abgeraten werden.
hard_pollux hat geschrieben:Mensch Airport1, hör mit Deiner kindischen Spammerei auf.
Wir gehen davon aus, daß es ihm selbst in naher Zukunft zu blöd wird.

Gruß
bull

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 22.09.2006, 10:20

sobald sich die toolbar zu 90% verbreitet hat, werden die bots eh abgeschaltet. dann ist jeder googlebenutzer ein googlebot. dort können nämlich schnell annahmen über die qualität der "gepiderten" seite gemacht werden....

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 22.09.2006, 13:05

Nullpointer hat geschrieben:sobald sich die toolbar zu 90% verbreitet hat, werden die bots eh abgeschaltet. dann ist jeder googlebenutzer ein googlebot. dort können nämlich schnell annahmen über die qualität der "gepiderten" seite gemacht werden....
Das ist wohl auch Sinn und Zweck der Aktion Googlebar mit Firefox.

fornex
PostRank 4
PostRank 4
Beiträge: 154
Registriert: 01.03.2006, 01:14
Wohnort: :tronhoW

Beitrag von fornex » 24.09.2006, 14:00

hard_pollux hat geschrieben:Herr Lehrer, ich weiß was ...

Mensch Airport1, hör mit Deiner kindischen Spammerei auf. Wen soll schon interessieren, ob heute jemand als GB, morgen als slurp oder übermorgen als Jupp unterwegs ist, derweil die Hälfte dieses Forums selbst als GB unterwegs ist, mich eingeschlossen.

Es ist mittlerweile sinnvoll, mit gefaktem UA unterwegs zu sein.
"zentrale Meldestelle", ich brech' zusammen. Haste vielleicht noch 'nen Zertifizierungsdienst?

Gruß
HardPollux
+1

Ausserdem, sehe ich selber kein Sinn diese IPs langfristig auszuschliessen. Man mietet nen Server fuer solche Zwecke für 1-2 Wochen, dann gehört dieser Server jemand anderen. Normalerweise wird für solche harvesting scans ein cluster gemietet mit 50-200 IPs. Willste die alle verbannen? Und was ist, wenn ein Botnet eingesetzt wird? Jeder drone scannt 1 Seite, parst die und schickt "saubere" Daten an die "zentrale Stelle"?

Dieser Topic ist einfach sinnlos
Suche Linkpartner für Bereiche:
Flirt - Fun - Erotik - 1 Click Hoster

ICQ: 7o7727

Googlebot versteht Javascript

Dracul
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 29.09.2006, 21:52

Beitrag von Dracul » 29.09.2006, 21:58

moin,

auch mal abgesehen von über proxys gehen oder das scriptgesteuerte zeitlich unterschiedliche weitergehen von links. was dann wieder scripte aushebeln würde die sich genau auf das zu schnelle abarbeiten von pages verhindern sollen.

wenn ich da weiter drüber nachdenke fallen mir bestimmt noch andere dinge ein was man da machen kann.

gruss

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag