Ja, von solchen Zahlen kann man wohl ausgehen. Wie Fantastixxx schon sagte muss jede Seite eingelesen, ausgewertet und die relevanten Daten gespeichert werden. Hierbei geht es nicht einfach um die Zahl der registrirten Domains, sondern um jede einzelne Unterseite im WWW. Welche Massen sich da auftürmen hat grossy ja angedeutet. Und diese Daten müssen nicht nur regelmässig gesammelt und archiviert, sie müssen auch ausgewertet werden. Ich kann mir kaum vorstellen wie es möglich sein soll 100 Milliarden Datensätze nach einem Schema zu durchsuchen, die dafür benötigte Rechenkraft ist aber auf jeden Fall enorm. Und nun stellen wir uns einmal vor wieviele Anfragen es weltweit auf einen solchen Dienst geben würde? Sekündlich! Einfache PR-Abfragetools, welche es hundertfach im Netz gibt, fallen zu Stosszeiten doch schon regelmässig wegen Überlastung aus, was wird es wohl für einen Ansturm auf einen solchen Dienst geben?wowglider hat geschrieben: Ahja, Google checkt also mit 1000senden Rechnern NUR Links? Interessant, zum Thema Schulferien, ja glaub schon, weiß ich aber nicht genau denn ich geh nicht mehr zur schule.
Um so etwas zu bewerkstelligen ist mit Sicherheit ein Cluster im dreistelligen Bereich nötig, vielleicht geht es tatsächlich in die tausende - je nach Power der eingesetzten Maschinen.
Und als Schüler wollte ich Dich nicht darstellen, eher war meine Absicht auf das alljährliche Sommerloch und den damit verbundenen politischen Schnapsideen anzuspielen.