Seite 1 von 1

Google und co nichtmal 1/10 des Web indiziert?

Verfasst: 19.01.2006, 02:23
von Cole
Das hier hab ich eben in nem anderen Forum gefunden...

Angeblich sollen in einem "Deep Web" nur 60 Sites schon ca 84 Milliarden
Content-Seiten haben, gut das 10-fache des Google-Index, das kann doch
imho kaum sein, wären ja an die 1,4 Milliarden Unterseiten bei jeder dieser
60 Sites...

Ausserdem wird da behauptet SuMas könnten dynamische Seiten angeblich
grundsätzlich oft gar nicht spidern, soweit ich weiss trifft das nur zu wenn es
sehr viele Parameter in der URL sind, man findet ja schliesslich auch mehr als
genug dynamische Seiten im Index.

Irgendwie hört sich der ganze Artikel für mich an als hätte den ein deprimierter
kleiner Webmaster geschrieben der verärgert war dass man seine Seite nicht
über Google findet und froh war eine vermeindliche Erklärung dafür zu
finden bei der er nicht selber schuld ist...

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 19.01.2006, 03:34
von Hasso
Kurz und knapp: was verlinkt ist - wird auch indexiert, das was.

Grüsse
Hasso

Verfasst: 19.01.2006, 05:17
von net(t)worker
Hasso hat geschrieben:Kurz und knapp: was verlinkt ist - wird auch indexiert, das was.

Grüsse
Hasso
Naja, so ganz einfach ist es ja auch nicht.... man sagt ja auch heute immernoch, dass möglichst jede Seite von der Startseite max 2 Klicks entfernt sein sollte, damit die Linktiefe max 3 Ebenen ist... oder man braucht halt nen hohen PR ab 4 oder 5 aufwärts damit tiefer gecrawlt wird...

und es gibt mit Sicherheit immernoch Webseiten die nur über ein Javascript-menu navigiert werden können, da wirft nen robot auch das handtuch...

Oder denk mal an die ganzen geschützten Bereiche, da kommt nen robot auch nicht immer rein...

Oder webmaster die ihre Seiten komplett per robots.txt sperren...

Das Internet besteht auch nicht nur aus Webseiten, über Newsgroups werden auch sehr viele Informationen verbreitet, und ich habe noch keinen News-Server gesehen der auch wirklich alle Newsgroups anbieten kann... und wenn man mal einen großen Newsserver sieht, der bietet direkt mehrere hunderttausend dieser newsgroups an...

Ich denke, dass dort sehr wohl noch viele Informationen nicht von Google und Co gefunden werden....

Ich denke mal, dass die Bezeichnung "Deep Web" eine Schöpfung einer Marketingabteilung ist, um die Software zu verkaufen, was die da jetzt genau meinen kann man so nicht sagen... Mögliche Kunden werden einfach neugierig welche Infos ihnen entgehen, bevor es dann genaue Infos gibt, muss man einen Ansprechpartner und eine Telefonnummer angeben... und scho können die Verkäufer an ihre Arbeit gehen.... immer mal wieder freundlich nachfragen etc....

Verfasst:
von

Google und co nichtmal 1/10 des Web indiziert?

Verfasst: 19.01.2006, 06:40
von symantec
Also ich habe mehr Seiten wo Google nicht reinkommt, als Seiten die G. spidern darf.
Da hast Du völlig recht @net(t)worker

Google und co nichtmal 1/10 des Web indiziert?

Verfasst: 19.01.2006, 17:50
von ION
Alle Flashseiten, alle Informationen in Bildern, alle Informationen, die erst nach Ausfüllen und Abschicken eines Formulars sichtbar werden (Unterkünfte, Veranstaltungen usw.)... Es gibt viele Chancen, nicht in Suchmaschinen aufzutauchen ;)

Google und co nichtmal 1/10 des Web indiziert?

Verfasst: 20.01.2006, 00:01
von Hasso
Klar doch, dass bestimmte von net(t)worker oben genannten Sachen entweder nicht indexiert werden können (da sollte sich schon der Seitenbetreiber darum kümmern, wenn er auf der Seiten was Lesenswertes hat und es den anderen zur Verfügung stellen möchte) oder nicht indexiert werden dürfen (weil der Seitenbetreiber es gesperrt hat) aber es ist doch voll in Ordnung.
Ich zumindest finde zu 98% Prozent immer das, wonach ich suche :)

Grüsse
Hasso