Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

kann man das googlemon-problem irgendwie lösen?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
camworks
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 04.08.2004, 13:38

Beitrag von camworks » 19.03.2005, 12:08

hi,

wir kennen ja nun alle das problem mit dem "free google monitor", daß jetzt immer öfter die meldung "virus/spyware" kommt.
passiert das auch, wenn man eine gültige licence eingibt?

gibt es einen anderen weg, wieder ne abfrage machen zu können?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 19.03.2005, 12:47

Ganz einfach:
Weniger Abfragen. Auf die einzig sinnvollen Abfragen beschraenken.
Sind die 50, 100, 1000, 10000 denn noetig? M.E. nein/nie.
SEOs uebertreiben es halt gern ;-)

Kann jedenfalls keinerlei Einschraenkung feststellen. Frage dafuer aber auch im vernuenftigen Masse ab ;-)
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

fo
PostRank 6
PostRank 6
Beiträge: 360
Registriert: 15.05.2004, 14:20

Beitrag von fo » 19.03.2005, 12:58

Google stresst doch schon, wenn ich mit dem Tool nur eine Domain mit 10 Keywords überprüfe!! Also von sinnvollem Beschränken kann hier gar nicht die Rede sein.. Das Tool kann man leider in die Tonne haun, es sei denn man hat Lust, immerwieder mal zu disconnecten und neu zu connecten, damit sich die IP ändert.

camworks
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 04.08.2004, 13:38

Beitrag von camworks » 19.03.2005, 13:18

ich hab das problem auch erst seit gestern, airport. du wirst sicher auch noch das vergnügen bekommen.... abwarten und tee trinken :roll:

und ich mach nur ca. 150 abfragen pro tag mit je 1-2 kw´s.

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 19.03.2005, 13:33

Als ewiger Kritiker muss ich mal hinterfragen: was bringt es GoogleMon jeden Tag gleich mehrmals zu befragen? Bringt dies das All-Seelen-Heil oder wird man dadurch erleuchtet? Das ist doch nur Geschaeft um des Geschaeftes willen ;)

1 (!) Abfrage am Tag mit z.B. 2 (!) Keywords reicht doch ewig...
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

camworks
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 04.08.2004, 13:38

Beitrag von camworks » 19.03.2005, 15:17

häh? ich befrage nicht mehrmals am tag!
ich habe ca. 150 verschiedene kw´s, auf die das "gesamtkunstwerk" optimiert ist (jede einzelseite ca. 2-10 kw´s). die frage ich einmal pro tag hintereinander ab.

was ist daran nicht nachvollziehbar? :roll:

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 19.03.2005, 17:03

150 halte ich fuer etwas viel. Wenn ich Google waere, waere man schon nach der 3. Abfrage gesperrt. Die lassen m.E. noch viel zu viel durchgehen ;-) Versetz Dich mal in die Lage, jemand macht 150 Script Abfragen auf Deine Seite...
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

camworks
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 04.08.2004, 13:38

Beitrag von camworks » 19.03.2005, 19:21

und? google verursacht beim spidern traffic ohne ende, macht sachen, die ich ihm per robots.txt verboten habe (z.b. bilder-verzeichnis spidern) und stellt sich auch sonst seine eigenen regeln auf.
warum sollte ich das dann nicht tun?

übrigens: laut api-licence darf ich ja pro tag 1000 abfragen machen...

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 20.03.2005, 15:13

Keine Probleme mit dem Monitor hat man, wenn man die Abfragen per API machen lässt (siehe Options). Das ist dann zwar auf 1000 Abfragen beschränkt, aber wenn man nicht immer bis Position 1000 suchen lässt, sollte das locker genügen. Pro API-Abfrage können nur eine begrenzte Anzahl Suchtreffer abgerufen werden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag