Seite 1 von 1

Suchmaschinen-Arbeitsweise

Verfasst: 13.05.2006, 16:30
von Gachet01
Hi,

weiss jemand, wie die Arbeitsweise von Suchmaschinen abläuft? Damit meine ich nicht den Algorithmus, auch nicht die Vererbung oder Serps..mir geht es lediglich um den Ablauf des Spiders.

Um die Fragestellung zu konkretisieren...

Suma betritt eine Seite..findet auf dieser Seite ausgehende Links...sagen wir mal 10...folgt dann die Suma diesen Links sofort oder arbeitet Sie erst die Seite ab? Wenn sie nicht gleich folgt, muss sie ja vermerken das dort diese ausgehenden Links waren um die Seite, falls noch nicht im index...später zu besuchen und indexieren...demnach müsste im Hintergrund Daten gespeichert werden, die eigentlich unverwaltbar sind und für mich schwer vorstellbar kontrolliert werden können. Sicherlich bestimmt der Rank wie oft die Seite besucht wird....zuerst kommt der Scout, welcher Veränderungen erfasst, vermerkt und dann später die ganze Deepcrawler Familie vorbeischickt...

Arbeitet die Suma sich also nach eine Liste vor..von A-Z und fängt dann von vorne an..oder ist der Spider willkürlich unterwegs und frißt sich durchs netz..mit eigendynamik und selbstkontrolle...und während dessen er sich so vollfrißt und immer dicker wird muss er sich seiner daten ja auch mal entledigen, welche dann aber auch wieder gepflegt werden müssen....ok, ich denke die Fragestellung ist klar..ich möchte kein Spider sein :roll:

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 13.05.2006, 18:50
von Wirths Media
Das ist je nach Suma und Spinder unterschiedlich...

Der eine so der andere so...

Verfasst: 13.05.2006, 19:41
von matin
der spider analysiert eine seite in vielen arbeitsschritten. einer davon ist die suche nach links. die gefunden links werden dann in eine datenbank gegeben. der spider arbeitet dann diese datenbank zu einem späteren zeitpunkt ab. klar, dass da ne ganze menge an daten zusammenkommen. goolge hat aber nicht nur einen pc sondern 10.000 (oder waren es 60.000?). whatever, ne ganze menge halt.

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 13.05.2006, 21:15
von yankee
Das Auslesen der Gesamtseiten kann wirklich lange dauern, da es ja auch wirklich viele sein können. Grundsätzlich ist die Leistung der SUMAs doch wirklich beachtlich. Wenn man seine Seiten dann immer aktuell hält und häufig neue Seiten oder Änderungen vornimmt, dann kommt der Bot in immer kürzeren Abständen und die Tiefen werden auch schneller bearbeitet.

Meine Meinung

Yankee

Re: Suchmaschinen-Arbeitsweise

Verfasst: 14.05.2006, 04:51
von 800XE
Gachet01 hat geschrieben:Suma betritt eine Seite..findet auf dieser Seite ausgehende Links...sagen wir mal 10...folgt dann die Suma diesen Links sofort oder arbeitet Sie erst die Seite ab?

Wenn sie nicht gleich folgt, muss sie ja vermerken das dort diese ausgehenden Links waren um die Seite, falls noch nicht im index...später zu besuchen
wie soll ein SPider eine Seite lesen und dann sofort 10x wo anders weitermachen
dort auch wieder verzehnfachen
und daort auch jeweils verzehnfachen
=
1
10
100
1000

wie soll das funktionieren

es gibt eine Datenbank mit Links "todo"
der älteste Eintrag wird ausgelesen .... alle gefunden Links auf der gespeiderten Seite kommen wieder in diese "todo" wenn sie nicht schon drin waren .... danach wird die aktuell gespeiderte aus der Liste gelöscht
bzw die Seiten werden nicht gelöscht, sondern der Zeitstempel "nächster Crowl" wird hochgesetzt, je nach PR der Site 1Tag ... 7Tage ...