Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Suchmaschinen-Arbeitsweise

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Gachet01
PostRank 4
PostRank 4
Beiträge: 137
Registriert: 01.02.2006, 14:41

Beitrag von Gachet01 » 13.05.2006, 16:30

Hi,

weiss jemand, wie die Arbeitsweise von Suchmaschinen abläuft? Damit meine ich nicht den Algorithmus, auch nicht die Vererbung oder Serps..mir geht es lediglich um den Ablauf des Spiders.

Um die Fragestellung zu konkretisieren...

Suma betritt eine Seite..findet auf dieser Seite ausgehende Links...sagen wir mal 10...folgt dann die Suma diesen Links sofort oder arbeitet Sie erst die Seite ab? Wenn sie nicht gleich folgt, muss sie ja vermerken das dort diese ausgehenden Links waren um die Seite, falls noch nicht im index...später zu besuchen und indexieren...demnach müsste im Hintergrund Daten gespeichert werden, die eigentlich unverwaltbar sind und für mich schwer vorstellbar kontrolliert werden können. Sicherlich bestimmt der Rank wie oft die Seite besucht wird....zuerst kommt der Scout, welcher Veränderungen erfasst, vermerkt und dann später die ganze Deepcrawler Familie vorbeischickt...

Arbeitet die Suma sich also nach eine Liste vor..von A-Z und fängt dann von vorne an..oder ist der Spider willkürlich unterwegs und frißt sich durchs netz..mit eigendynamik und selbstkontrolle...und während dessen er sich so vollfrißt und immer dicker wird muss er sich seiner daten ja auch mal entledigen, welche dann aber auch wieder gepflegt werden müssen....ok, ich denke die Fragestellung ist klar..ich möchte kein Spider sein :roll:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Wirths Media
PostRank 9
PostRank 9
Beiträge: 2050
Registriert: 20.09.2004, 20:25

Beitrag von Wirths Media » 13.05.2006, 18:50

Das ist je nach Suma und Spinder unterschiedlich...

Der eine so der andere so...

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 13.05.2006, 19:41

der spider analysiert eine seite in vielen arbeitsschritten. einer davon ist die suche nach links. die gefunden links werden dann in eine datenbank gegeben. der spider arbeitet dann diese datenbank zu einem späteren zeitpunkt ab. klar, dass da ne ganze menge an daten zusammenkommen. goolge hat aber nicht nur einen pc sondern 10.000 (oder waren es 60.000?). whatever, ne ganze menge halt.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


yankee
PostRank 5
PostRank 5
Beiträge: 312
Registriert: 25.02.2005, 21:52

Beitrag von yankee » 13.05.2006, 21:15

Das Auslesen der Gesamtseiten kann wirklich lange dauern, da es ja auch wirklich viele sein können. Grundsätzlich ist die Leistung der SUMAs doch wirklich beachtlich. Wenn man seine Seiten dann immer aktuell hält und häufig neue Seiten oder Änderungen vornimmt, dann kommt der Bot in immer kürzeren Abständen und die Tiefen werden auch schneller bearbeitet.

Meine Meinung

Yankee
Wer Schreibfehler findet kann sie behalten.

SEO Blog www.seonauten.com
SEO Podcast www.radio4seo.de

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 14.05.2006, 04:51

Gachet01 hat geschrieben:Suma betritt eine Seite..findet auf dieser Seite ausgehende Links...sagen wir mal 10...folgt dann die Suma diesen Links sofort oder arbeitet Sie erst die Seite ab?

Wenn sie nicht gleich folgt, muss sie ja vermerken das dort diese ausgehenden Links waren um die Seite, falls noch nicht im index...später zu besuchen
wie soll ein SPider eine Seite lesen und dann sofort 10x wo anders weitermachen
dort auch wieder verzehnfachen
und daort auch jeweils verzehnfachen
=
1
10
100
1000

wie soll das funktionieren

es gibt eine Datenbank mit Links "todo"
der älteste Eintrag wird ausgelesen .... alle gefunden Links auf der gespeiderten Seite kommen wieder in diese "todo" wenn sie nicht schon drin waren .... danach wird die aktuell gespeiderte aus der Liste gelöscht
bzw die Seiten werden nicht gelöscht, sondern der Zeitstempel "nächster Crowl" wird hochgesetzt, je nach PR der Site 1Tag ... 7Tage ...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag