Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

PR-Update-Infomail

Alles zum Thema Google Pagerank und Backlink Updates.
Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 28.07.2007, 22:32

Also.. ich würdige die Idee von Seo-Link auch wenn ich Sie nicht nutzen werde.

Wie heist es so schön.... Mitleid bekommt man umsonst, Neid muß man sich erarbeiten.

Und Neider treten immer dann auf den Plan, wenn Sie eine Idee verpennt haben und die anderen den Reibach machen.

Also Seo-Link Laß die anderen reden, der ein oder andere wirds Dir danken. Und sicherlich wirst Du auch den einen oder anderen Nutzen aus der Idee ziehen können. Und wenn es nur mehr Einträge in deinen eigenen Katalogen sind.

Gruß Scubi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

saudepp
PostRank 7
PostRank 7
Beiträge: 505
Registriert: 09.08.2006, 09:43

Beitrag von saudepp » 28.07.2007, 23:49

und was ist mit meinem tool ...?

am anfang wollte ich ja nur beweisen, dass es sehr einfach ist, so ein tool selbst zu schreiben.
mittlerweile ist es eben online ...

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 29.07.2007, 00:26

Das habe ich bis eben nicht getestet.

Generell würdige ich aber jede programmiertechnische Arbeit.

Unverständlich war für mich folgende Aussage:

Anzahl unterschiedlicher PRs = 1: Kein aktuelles PageRank Update
Anzahl unterschiedlicher PRs > 1: Google PageRank Update läuft

Das macht für mich keinen Sinn.

Gruß Scubi

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


t-rex
PostRank 7
PostRank 7
Beiträge: 585
Registriert: 15.03.2004, 14:00

Beitrag von t-rex » 29.07.2007, 00:30

LOL, lustiger Thread :roll:

- Da kommt einer, macht seine Idee bekannt.
- 25 quatschen dagegen und reden es mies.
- und ein paar andere machen sich sofort dran, und versuchen mit ihrem halbwissen, die Idee zu kopieren.

Ich habe also wirklich schon viel gelesen und gesehen. aber das hier ist ein Schauspiel fürs "Narräbläddle". Das ist lächerlich hoch 10 und absolut peinlich!

seo-links sei die Idee zugestanden. Auch wenn sie nicht wirklich neu ist.

saudepp: es ist wirklich nicht sehr einfach, alle 60 sec. 5 oder mehr Domains bei 20 versch. DC abzufragen. Seo-Server frägt ja wohl was über 200 Server ab. Selbst wenn Du alle 5 Domains pro Server in 1 sec. abgefragt hast, benötigst Du, bei 200 DC/Server 200 Sekunden. Dass da nach vielleicht einer halben Stunde schon der Server die Grätsche macht sollte einleuchten.

Google wird, bei solch einer aggressiven Vorgehensweise 1000%ig schon nach 2 Tagen den Hahn dicht machen. Und wenn du das ganze auf 4 Abfragen pro Tag reduzierst, wird Google ein Schema erkennen, und halt nach 1-2 Wochen dicht machen. Dass Du dafür einen Freehoster ans Messer lieferst, ist dazu noch einmal ein ganz anderes Thema. Aber eben auch nicht eine sehr feine Art. Wer so vorgeht, darf sich auch nicht über Spammails beklagen.

So Jungs und nun haut rein, ich tues auch. 8) Und freut euch aufs nächste Update.

Sonnige Grüsse
HaPe
Keiner weiss wass ich tue, aber alle wissen wie ich es besser machen kann
save the bookmark - logocreatr - backgrounds - templatr- PPC Themes

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 29.07.2007, 00:51

@ T-Rex

Bischen mehr Toleranz hätte ich Dir zugetraut. Auch du versuchst über dieses Forum und deine Signatur bischen Bekanntheit abzugreifen.

Laß Saudepp doch mal bischen experiminetieren..

Ok, den Traffic anderer dafür zu nutzen ist keine feine Art.

Gruß Scubi

saudepp
PostRank 7
PostRank 7
Beiträge: 505
Registriert: 09.08.2006, 09:43

Beitrag von saudepp » 29.07.2007, 01:15

Ich bin nun mal Physiker und experimentiere gerne, insbesondere mit Google. Die Zusammenhänge und Mechanismen von Google sind schließlich von Menschen gemacht und daher viel einfacher zu verstehen als z.B. die Quantenmechanik.

Und was ist an meinem Tool schon so schlimm?
Ich war schon länger auf der Suche nach so nem Tool, das mir den PR blitzschnell (in ca. 7 Sekunden) auf 22 DCs anzeigt. Es gibt zwar tausende andere PR Checker, die haben aber alle lästige Captchas, blödsinnige DCs in gleichen class-c Netzen, oder sind eben zu lahm ...
Ich zwinge niemanden, mein Tool zu nutzen!

@ t-rex:

7 sec, für 22 DCs und eine Domain.
5 Domains = 35 Sec. Wenn ich aber 5 PHP Skripte mit 5 unterschiedlichen Domains parallel ausführe, sind es aber insgesamt nur 7 Sec!
Also kein Problem, die alle 60 Sec zu checken - läuft auch schon ganz gut ...

Wieso sollte G da was dagegen habe? Sind doch nur 22*5 Abfragen pro Minute - das sollte bei der sonstigen G Serverlast keine Rolle spielen. Ich glaube nicht, dass G den Server von freehostia (einem der größten Webhoster in den USA) für PR Abfragen sperren wird ...
Zuletzt geändert von saudepp am 29.07.2007, 02:03, insgesamt 1-mal geändert.

t-rex
PostRank 7
PostRank 7
Beiträge: 585
Registriert: 15.03.2004, 14:00

Beitrag von t-rex » 29.07.2007, 01:21

Hi Scubi :)

Danke für den Hinweis! Also was die Toleranz angeht, da soll jeder machen was er möchte. Solange er keinem WIRKLICH schadet. Na du weisst schon nichts kriminelles halt.

Was mein Kommentar angeht. Ich habe schon ein bisschen mit mir gerungen, ob ich das überhaupt und wenn schon, dann so schreiben kann und soll. Ist ja sonst nicht so meine Art. 8)

Aber, und das hat mich dann dazu bewogen, es doch zu posten, diese zur Schau Stellung von Neid, Missgunst, "auch haben will" und "ihr könnt das nicht lass mich mal ran" habe ich wirklich noch nicht gesehen. Und vor allem nicht in der Konzentration.

Ob das 1998/1999 Das Forum von SelfHTML war, oder das Jaginforum in seinen Glanzzeiten 2000/2002, oder das Sumatricksforum. Es gab viel Zankerei, Rechthaberei und Angeschwärze. Aber noch nie habe ich so einen dreisten Threadverlauf miterlebt. Übrigens alles Eigenschaften, die ich als typisch Deutsch zuordne.

Aber um des lieben Friedens Willen, nehme ich mich mal zurück, setz noch einen :wink: Und nehmt es nicht so Bierernst. Denn auch wenn ich das etwas hart formuliert habe, es ist nicht so ernst gemeint.
Laß Saudepp doch mal bischen experiminetieren..
Aber Hallo. Saudepp kann machen was er will :wink: Und was ich geschrieben habe, sind Erfahrungen, die ich gemacht habe!!!! Das hat nichts mit schlecht reden oder so zu tun.

Ohne mich jetzt in den Vordergund zu stellen zu wollen. Ich habe genau solch ein Monitoring des Rankings und des PRs 2002/2003 für meine WICHTIGSTEN Seiten und für ein paar Seiten von Freunden und bekannten laufen lassen. 2x am Tag alle 50 Domains bei knapp 30 Server abgefragt. Das ganze mit variabler Wartezeit zwischen den einzelnen Abfragen. Und so gut wie möglich über den Tag verteilt. Ich habe auch einige Anläufe benötigt, bis das ganze rund gelaufen ist. Gerade weil Google immer wieder meinte, dass in meinem Netz ein Virus sei :wink: Und genau diese Erfahrung wollte ich mit meinem Kommentar weitergeben.

So und nun haut rein. Ich kanns ab 8)

sonnige Grüsse
HaPe
Keiner weiss wass ich tue, aber alle wissen wie ich es besser machen kann
save the bookmark - logocreatr - backgrounds - templatr- PPC Themes

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 29.07.2007, 01:36

Will hier jetzt auch weder dem einen noch dem anderen Recht geben. Verstehe Euch beide. Internet ist eben nicht mehr das was es mal war.


Also Ellenbogen raus abgreifen und ducken wenn es eng wird.

Gruß Scubi

t-rex
PostRank 7
PostRank 7
Beiträge: 585
Registriert: 15.03.2004, 14:00

Beitrag von t-rex » 29.07.2007, 01:38

Hi,
7 sec, für 22 DCs und eine Domain.
5 Domains = 35 Sec. Wenn ich aber 5 PHP Skripte mit 5 unterschiedlichen Domains parallel ausführe, sind es aber insgesamt nur 7 Sec!
Ja das ist die Theorie. :roll:

Erst einmal, hinkt diese Aussage, da ein Server, und sowieso eine Maschine, die noch zig andere verschiedene Accounts drauf hat, nie die gleiche Prozessorlast und RAM Belegung hat, die ich bräuchte, um eine zuverlässige Zeitangabe zu machen.

Das Netz selbst unterliegt genauso Schwankungen, dass auch hier keine zuverlässige Aussage über den Transport der Daten getroffen werden kann.

Und dann ist da noch Google "him self". Auch diese Server sind auch nicht den ganzen lieben langen Tag in der gleich guten Laune.

Und so müsste Deine erste Aussage eigentlich lauten. Das Skript überprüft 5 domains auf 22 verschiedenen DC in 7-30 Sekunden. wobei das auch schon wieder gelogen ist. Denn der normale Timeout für eine Remoteverbindung über PHP ist 30 Sekunden. Kann also mal keine Verbindung zu dem Remote aufgebaut werden, kann es bis 30 Sekunden dauern, bis das PHP Skript aufgibt - wohlgemerkt für diese eine Verbindung. Da sind aber dann noch weiter 21 DC und 4x22 DC. auch in so einem Fall "überholen" sich die Prozesse.

Der 2. Teil der Aussage möchte ich ebenfalls nicht so stehen lassen. Denn, wenn Du deine Abfragen mit "nur" einem Skript machst, dann werden alle Abfragen sequentiell abgearbeitet. Hier würde jeder Abfrage, in etwa die gleiche Rechenleistung und auch der RAM zur Verfügung stehen. Bei einer parallelen Abarbeitung von 5 Skripten, ist auch die Prozessorlast höher, genauso wie auch der RAM, der "gleichzeitig" zur Verfügung stehen muss. Hinzu kommt noch, dass wenn Du alles über ein Skript abwickelst, die benötigten Funktionen schon nach der ersten Abfrage geparst sind. Während bei der 5 fachen Abfrage das Skript 5 mal geparst wird.

Es mag im Moment funktionieren .... :wink:

sonnige Grüsse
HaPe
Keiner weiss wass ich tue, aber alle wissen wie ich es besser machen kann
save the bookmark - logocreatr - backgrounds - templatr- PPC Themes

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 29.07.2007, 01:48

1:0 für T-Rex

Und das dann über fremden Traffic....

Keine feine Art :o

Gruß Scubi

saudepp
PostRank 7
PostRank 7
Beiträge: 505
Registriert: 09.08.2006, 09:43

Beitrag von saudepp » 29.07.2007, 02:16

@ t-rex
Glaub mir als Theoret. Physiker verstehe ich was von Parallel Computing ...
Schiebe jeden Tag Jobs mit 12 Gigs RAM auf 40 Prozessoren. Und das für nicht ganz so triviale Aufgaben wie im PR Check Bereich 8)
Hier würde jeder Abfrage, in etwa die gleiche Rechenleistung und auch der RAM zur Verfügung stehen. Bei einer parallelen Abarbeitung von 5 Skripten, ist auch die Prozessorlast höher, genauso wie auch der RAM, der "gleichzeitig" zur Verfügung stehen muss.
Naja RAM und Prozessorlast sind nun wirklich nicht hoch, wenn man an Google mit fputs einen query string raussendet und einen Integer zurückbekommt ... probier's mal aus!

Bisher wurden 462 Abfragen über jeweils 22 DCs und 5 Domains an G gesandt.
Die mittlere Response Time ist 8.72 Sec für 22*5 Ergebnisse.

Könnte ich Cronjobs mit zeitlicher Auflösung < 60 Sec setzen, würde ich also alle 8.72 Sec checken ;-)

t-rex
PostRank 7
PostRank 7
Beiträge: 585
Registriert: 15.03.2004, 14:00

Beitrag von t-rex » 29.07.2007, 03:11

Hi,

danke für die Bestätigung :D
Glaub mir als Theoret. Physiker verstehe ich was von Parallel Computing ...
Schiebe jeden Tag Jobs mit 12 Gigs RAM auf 40 Prozessoren. Und das für nicht ganz so triviale Aufgaben wie im PR Check Bereich
Denn nicht nur theoretisch, sondern auch praktisch unterscheiden sich Maschinen, für Parallel Computing und Webhosting Maschinen etwas. Auch ist die Kommunikation, zwischen den Blades!? und/oder Prozessoren nicht vergleichbar, mit der Kommunikation zweier Stationen im Internet. Während ersteres ziemlich ungestört ablaufen kann, findet man Internet um einiges mehr an Störfaktoren, die eine reibungslose Verbindung einfach nicht zulassen. Im Internet davon auszugehen, man könnte zuverlässig mit Millisekunden rechnen, ist eine Milchmädchenrechnung. Der Rest der ersten Aussage, sagt dann aber noch nichts über Deinen Kenntnisstand und Deinen Erfahrungsschatz in der Skriptprogrammierung, und insbesondere der Einsatz solcher Skripte, aus.
Naja RAM und Prozessorlast sind nun wirklich nicht hoch, wenn man an Google mit fputs einen query string raussendet und einen Integer zurückbekommt ... probier's mal aus!
Und gerade auf einer Kiste mit "gesharten" Resourcen, ist Prozessorlast und RAM DIE Grösse, um die es geht.

Ähhh, Du liest aber schon, was ich schreibe :roll: Ich berichte von Erfahrungen. Also nicht von theoretischen Geschichten. Sondern Dinge, die ich selbst schon probiert habe. Wobei ich bei den Erfahrungen, natürlich auch andere Arbeiten, die mit Datenaustausch im Internet zu tun haben, dazu zähle.
Bisher wurden 462 Abfragen über jeweils 22 DCs und 5 Domains an G gesandt.
Die mittlere Response Time ist 8.72 Sec für 22*5 Ergebnisse.
Nun und hier drin steckt dann auch die Bestätigung. Irgendwann vorher waren es einmal 7 Sekunden, die das Skript benötigt. Jetzt sind wir bei einer mittleren Response von 8,72 Sekunden. Dann bedeutet das doch, im günstigen Fall dauert die Abfrage 7 Sekunden und im schlechten Fall 10 Sekunden. Wenn alles normal und gut läuft. Das ist ja schon einmal der Beleg dafür, dass es im Internet eben nicht so rund läuft, wie bei einer Maschine mit 40 Prozessoren und 12 GB RAM.
Könnte ich Cronjobs mit zeitlicher Auflösung < 60 Sec setzen, würde ich also alle 8.72 Sec checken
Um das Skript 6x pro Job laufen zu lassen, könntest du doch direkt als Cronjob, oder als extra Bashskript etwa folgendes einsetzen.

for ((i=1; i<=6; i++)) ; do /path/to/prcheck.php & sleep 10 ; done

sonnige Grüsse
HaPe
Keiner weiss wass ich tue, aber alle wissen wie ich es besser machen kann
save the bookmark - logocreatr - backgrounds - templatr- PPC Themes

To-Bi-As
PostRank 6
PostRank 6
Beiträge: 443
Registriert: 08.10.2006, 02:20

Beitrag von To-Bi-As » 29.07.2007, 03:21

@saudepp

Also all Dein Wissen mal hin oder her, aber die Zeiten sind rein theoretisch.
Bisher wurden 462 Abfragen über jeweils 22 DCs und 5 Domains an G gesandt.
Das heißt doch, das waren 5 User, die 462 Abfragen machten. 8 Abfragen davon waren von mir, bzw. 2 Domänen.

Da kannste noch so viel Speicher und CPUs im System haben, wenn hier mal alle Abakus User gleichzeitig das System nutzen wird es down gehen oder zumindest bei weitem nicht mehr die 8 Sek. erreichen. Seo-Server läuft auch mal schnell und mal langsam. Oder gar nicht.

fputs, also fsockopen? Da gibt es deutlich besseres was PHP nicht so belastet, sondern rein auf dem Server läuft (ohne PHP-Timeouts). Egal ob da nur ein Int geliefert wird, die Verbindung ist deutlich schneller und lässt sich auch besser steuern bei einem Fehlerfall wie Timeout beim Verbindungsaufbau oder zu langsam gelieferten Daten.

5 PHP-Scripte? Warum? PHP5 kann das simultan mit einem Script, also warum 5 Prozesse oder Childs laden?

Also entweder ich habe das nun nicht verstanden oder .... nee, kein oder.

Finde Dein Tool aber klasse und hab es auch in den Favs, aber bei wirklich Traffik denke ich nicht dass es noch performant läuft.

Gruß, Ingo

Edit: Da war einer vor mit, oder ich zu langsam...

seo-link
PostRank 9
PostRank 9
Beiträge: 2073
Registriert: 28.09.2006, 06:19

Beitrag von seo-link » 29.07.2007, 07:40

@ saudepp
Ich finde Dein Tool auch Spitze .... :wink:

@ t-rex
Ich gebe Dir in allen Punken Recht! Ich habe mit den Reaktionen gerechnet und dieser Verlauf zeigt mir, dass es immer schlimmer wird.

Jeder kann machen, was er will. Es wird immer Neider und Nachahmer geben. Aber solange man Erfolg hat, sollte man sich von solchen Leuten nicht beinflussen lassen und SEIN Ding durchziehen. :wink:

Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 29.07.2007, 08:25

Hallo,

ich finde auch, dass das Tool eine feine Sache ist. Ich schätze, selbst die Kritiker werden mir durch ihre regelmäßigen späteren Besuche indirekt Recht geben :wink:

Grüße

Gretus

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag