Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google und co nichtmal 1/10 des Web indiziert?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Cole
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 10.07.2005, 18:26

Beitrag von Cole » 19.01.2006, 02:23

Das hier hab ich eben in nem anderen Forum gefunden...

Angeblich sollen in einem "Deep Web" nur 60 Sites schon ca 84 Milliarden
Content-Seiten haben, gut das 10-fache des Google-Index, das kann doch
imho kaum sein, wären ja an die 1,4 Milliarden Unterseiten bei jeder dieser
60 Sites...

Ausserdem wird da behauptet SuMas könnten dynamische Seiten angeblich
grundsätzlich oft gar nicht spidern, soweit ich weiss trifft das nur zu wenn es
sehr viele Parameter in der URL sind, man findet ja schliesslich auch mehr als
genug dynamische Seiten im Index.

Irgendwie hört sich der ganze Artikel für mich an als hätte den ein deprimierter
kleiner Webmaster geschrieben der verärgert war dass man seine Seite nicht
über Google findet und froh war eine vermeindliche Erklärung dafür zu
finden bei der er nicht selber schuld ist...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 19.01.2006, 03:34

Kurz und knapp: was verlinkt ist - wird auch indexiert, das was.

Grüsse
Hasso

Anonymous

Beitrag von Anonymous » 19.01.2006, 05:17

Hasso hat geschrieben:Kurz und knapp: was verlinkt ist - wird auch indexiert, das was.

Grüsse
Hasso
Naja, so ganz einfach ist es ja auch nicht.... man sagt ja auch heute immernoch, dass möglichst jede Seite von der Startseite max 2 Klicks entfernt sein sollte, damit die Linktiefe max 3 Ebenen ist... oder man braucht halt nen hohen PR ab 4 oder 5 aufwärts damit tiefer gecrawlt wird...

und es gibt mit Sicherheit immernoch Webseiten die nur über ein Javascript-menu navigiert werden können, da wirft nen robot auch das handtuch...

Oder denk mal an die ganzen geschützten Bereiche, da kommt nen robot auch nicht immer rein...

Oder webmaster die ihre Seiten komplett per robots.txt sperren...

Das Internet besteht auch nicht nur aus Webseiten, über Newsgroups werden auch sehr viele Informationen verbreitet, und ich habe noch keinen News-Server gesehen der auch wirklich alle Newsgroups anbieten kann... und wenn man mal einen großen Newsserver sieht, der bietet direkt mehrere hunderttausend dieser newsgroups an...

Ich denke, dass dort sehr wohl noch viele Informationen nicht von Google und Co gefunden werden....

Ich denke mal, dass die Bezeichnung "Deep Web" eine Schöpfung einer Marketingabteilung ist, um die Software zu verkaufen, was die da jetzt genau meinen kann man so nicht sagen... Mögliche Kunden werden einfach neugierig welche Infos ihnen entgehen, bevor es dann genaue Infos gibt, muss man einen Ansprechpartner und eine Telefonnummer angeben... und scho können die Verkäufer an ihre Arbeit gehen.... immer mal wieder freundlich nachfragen etc....