Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Zu schneller Linkaufbau wirklich schädlich?

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
t-rex
PostRank 7
PostRank 7
Beiträge: 585
Registriert: 15.03.2004, 14:00

Beitrag von t-rex » 01.09.2010, 23:22

MeNoZony hat geschrieben:
t-rex hat geschrieben: Das Crawlen und speichern einer Seite dauert im Normalfall nicht einmal 1 Sekunde.
Nein, im Optimalfall.
Das ist ein erheblicher Unterschied. Google crawlt asiatische Server nicht aus Asien und deutsche Server nicht aus Deutschland usw.
Hmmm... Jetzt habe ich extra Tiefgestapelt in der Hoffnung, wir finden einen gemeinsamen Nenner. Denn einen Optimalfall nenne ich 10 Dokumente in einer Sekunde. Und wohlgemerkt unabhängig vom Standort.
MeNoZony hat geschrieben:
t-rex hat geschrieben: 1 Crawler kann demnach 86400 Seiten/Urls am Tag abarbeiten. Auf einem Rechner können 100, 1000, 10000 oder mehr Crawler gleichzeitig arbeiten. Das wären dann bis zu 864.000.000 Dokumente am Tag auf einem Server. In ein Rack passen 46 Server. und so käme ich auf 39.744.000.000 Dokumente die an einem Tag durchsucht werden können.
Ja, kann er.
Ein Ferrari kann theoretisch 300km/h fahren, nur wird ihm das auf der B1 von Essen nach Dortmund nachmittags um vier nur in den allerseltensten Fällen gelingen.
Wenn Sonntagsfahrverbot ist o.ä.
Ich dachte wir reden vom täglichen Betrieb und nicht von Ausnahmesituationen. Und wir reden doch nicht über einen Hobbyprogrammierer der seine Spider über eine 128kbit ISDN Standleitung schickt. Also was ist das für ein Vergleich?
MeNoZony hat geschrieben:
t-rex hat geschrieben: Alle Links die gefunden wurden, kommen in eine Tabelle von wo aus versch. Bewertungsprozesse
Diese Technik ist mir geläufig, stand aber prinzipiell gar nicht zur Diskussion.
Ich würde schon sagen, dass dies ebenfalls zur Diskussion steht. Denn die Trennung von Crawlen und Bewerten ist Dir bei der Einschätzung, dass dies 15 Sekunden dauern würde entgangen.
MeNoZony hat geschrieben:
t-rex hat geschrieben: Die 1 Milliarde war schon 2000 unter Dach und Fach. Seit 2008 sind es über 1 Billion.
Jou.
War mir auch bekannt.
Was letztendlich den Anspruch einer universellen Suchmaschine noch mehr ad absurdum führt und noch mehr Leuten die Hoffnung stiehlt, irgendwann in diesem Leben nach oben zu kommen...
Dann frage ich mich, warum Du in einem vorherigen Posting das platzen des Rechnerparks von Google auf 1 Mrd. Seiten festgemacht hast!?

Ich hatte es schon in meinem vorherigen Post angedeutet, dass es schwer ist nachzuvollziehen, auf was Du raus willst. Du schreibst, dass Du schon 30 Jahre programmierst!? So dürften wir wohl in etwa im selben Alter sein. Wenn ich aber lese was Du Wie schreibst, kommen Zweifel in mir auf. Sowohl am geschätzten Alter als auch an der Erfahrung. Da ich aber keine anderen Fakten an der Hand habe, muss ich auch die Möglichkeit in Erwägung ziehen, dass Du irgendwo in den Anfängen des Internets stehen geblieben bist.

15 Jahre Erfahrungen zu haben in denen man mit der Technik gewachsen ist, ist mit Gold nicht zu bezahlen. Aber Zahlen, Daten, Fakten zu Verbindungsgeschwindigkeiten und Programmiermöglichkeiten von vor 15 Jahren in die Diskussion zu werfen ist absurd. Da waren Modems mit 9600 Baud schon rasend schnell und Compuserve und AOL waren das Internet.

Aber lassen wir das. Profo hat einen guten Link gepostet. Da steht ja alles was man wissen sollte.

Sonnige Grüsse
HaPe
Keiner weiss wass ich tue, aber alle wissen wie ich es besser machen kann
save the bookmark - logocreatr - backgrounds - templatr- PPC Themes