Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 10.05.2006, 07:21

Georgi hat geschrieben:Der Artikel auf den Fridaynite anspielt ist wohl: https://www.nytimes.com/2006/05/02/tech ... wanted=all

...
Er hat 27 Absätze und im viertletzten und drittletzten (!) Absatz steht etwas davon, dass Google 1,5 Mrd $ für Hardware ausgeben und dass ihr Speicherplatz knapp wird.
...


Erstens, wenn es so wäre dass dies ein einfaches Speicherplatzproblem wäre, könnte Google einfach ein paar Bilder oder Videos weniger indizieren und würde bedeutend mehr Seiten aufnehmen können.
Zweitens können die Rechenzentren der Suchmaschine einfach aufgestockt werden, da sie auf Redundanz mit billiger Hardware ausgelegt sind und

...

Vodka, Georgi
Langsam wir mir das zu blöd. BHProject hatte bereits geschrieben, dass Du selbst den Link gepostet hast. Warum sollte ich hier alles doppelt schreiben. Aber um das nicht so offen stehen zu lassen.

Der CEO sagt es wird knapp, aber nach einem tiefen Blick in die Glaskugel und dem Löschen von ein paar Videos und einer handvoll neuer SATA Platten ist wieder alles in Butter. Der Link ist übrigens oben dran gelesen habe ich Ihn nicht ist wohl jetzt oder auch vorher schon Memberarea, aber ich verlaß mich mal auf Deine Aussage oder sollte ich das nicht tun?
In diesem Sinne.

EDIT:
Fakt ist, dass Google den Index innerhalb des letzten Jahres nach dem Yahoo-Rekord verdreifacht hat.

Und noch einer weil ich gerade drüber gestolpert bin:
https://www.chip.de/news/c1_news_19751762.html

und da Du des englischen mächtig bist das Original aus der Tribune:
https://www.iht.com/articles/2006/04/21 ... GOOGLE.php

Wer suchen kann ist klar im Vorteil

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 10.05.2006, 11:46

GreenHorn hat geschrieben:Ich kenne keine sauberen Web-Seiten die sich schlecht in den Positionen entwickelt haben.
Wer redet von Positionen? Hier geht es um Seiten die aus dem Index fliegen, auch wenn es saubere Seiten mit unique Content etc. sind, die kein Bolg sind. Ist es da auch "ZU RECHT!"?

Pretender
PostRank 9
PostRank 9
Beiträge: 1081
Registriert: 22.04.2004, 14:44
Wohnort: Naumburg

Beitrag von Pretender » 10.05.2006, 12:18

ts hat geschrieben: EDIT:
Fakt ist, dass Google den Index innerhalb des letzten Jahres nach dem Yahoo-Rekord verdreifacht hat.

hmmmm, also tja.....

Ein Bespiel mal zum Anfang:
Ich habe bei einer Domain ca. 20.000 Seite auf dem Server liegen - Google zeigt bei der Site Abfrage 80.000 Seite an.

Sollte Yahoo wieder einmal mehr Seiten im Index haben als Google, kann Google den Mutliplikator wieder um 3 erhöhen und schon haben Sie wieder mehr Seiten im Index als Yahoo.

Ich finde das einfach lächerlich, auf so ein plumpe Art den Index künstlich aufzublähen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 10.05.2006, 13:22

Also, wenns nicht so traurig wäre bräche ich gerade weg vor lachen...

Da stellt irgendjemand ein Fragment eines Artikels hier rein und behauptet, dass bei Google der Speicher knapp ist, was alle Phänomene die wir gerade sehen begründet. Ich suche den New York Times - Artikel heraus, lese ihn mir durch und poste einen Link dazu. Wohlgemerkt, ich zerlege die Informationen in dem Artikel, weil es in dem durchaus nicht um Speicherplatzprobleme geht sondern um ein Shootout Google vs. Microsoft.

Und ein paar Posts später wird ein Google-Speicherplatzproblem als offiziell bestätigt bezeichnet. Wie, von der New York Times offiziell bestätigt oder was?

@BHProject: Ich weiß immer noch sehr gut, welche Links ich poste und welche nicht. Im Gegensatz zu Dir lese ich sie auch und: Das ist KEINE offizielle Bestätigung wie sie angekündigt wurde und auf die warte ich immer noch. Es gibt schon einen kleinen Unterschied zwischen einem Interview in der NY Times und etwas, das ich als gegeben hinnehme.

@ts: Fakt ist auch, dass Google den Speicher bei GMail im letzten halben Jahr von 1 GB (freiwillig!) auf 2,7GB gehoben hat (Quelle: https://www.heise.de/ct/06/10/162/ ). Bei über einer Million geschätzter User (Quelle: https://www.oz.com/news/Mobile%20email.pdf) macht das dann immerhin maximal 1,7 Petabyte mehr Speicher der gebraucht wird. Schon klar, dass die da ein Speicherplatzproblem in ihrem Kerngeschäft Suchmaschine haben und nicht mehr alle Seiten in den Index aufnehmen können... .

Wenn Du Dir jetzt den Tribune-Artikel nochmal durchliest, dann wirst Du feststellen, dass es da nicht um momentane Speicherplatzprobleme geht, sondern darum, dass der ganze Schlonz auch gezahlt werden muss.

Achja und: "Der Link ist übrigens oben dran gelesen habe ich Ihn nicht ..." - ja, dass Du ihn nicht gelesen hast ist mir auch klar geworden. Ihn dann aber als "offizielle Bestätigung" zu bezeichnen, nur weil es Dir gerade in Dein Weltbild passt, das ist schon extraherb.

Vodka, Georgi

Edit: Den Link zu www.oz.com bitte herauskopieren, die Weiterleitung frisst das %20...

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 10.05.2006, 14:07

So... jetzt hat sich ein wenig bewegt in meinem site-Index. Viele alte sind rausgefallen und durch neue ersetzt worden. Nach wie vor spielt sich aber alles auf einem sehr niedrigen Niveau ab. Von 74 links ging es nun mal kurz rauf auf 120. Dann aber direkt am nächsten Tag wieder runter auf 90... und da hänge ich nun. Fehlen gerade mal 29.900 im Vergleich zu vorher :D

Die im Index befindliche Anzahl passt überhaupt nicht zu den gespiderten Seiten... die letzten Tage hat nämlich Blindbot tatsächlich mal wieder so etwas wie einen Deepcrawl durchgezogen... leider hat er wohl auf dem Nachhauseweg das meiste wieder vergessen :D


...aber solange ich mich in so zahlreicher Gesellschaft von abgekrachten Seitenbetreibern befinde und nicht alleine dastehe, ist es doch direkt nur halb so schlimm :D

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 10.05.2006, 14:12

@Wolfgang 67:
Geht mir ganz genauso. Von zigtausend Seiten sind aktuell noch 3 im Index :crazyeyes:

Da die 20 Seiten dieses Threads, wenn man mal diese Seite hier liest, möglicherweise nur aus gegenseitigen "du liest aber nicht richtig" bestehen :

Könnte vielleicht jemand in zwei, drei Sätzen zusammenfassen, worum es hier eigentlich konkret geht und was Sache ist ?

Das wäre hilfreich. Danke.

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 10.05.2006, 14:26

Hasenhuf hat geschrieben:Hier geht es um Seiten die aus dem Index fliegen, auch wenn es saubere Seiten mit unique Content etc. ...
und das ohne erkennbare Ursache/Kriterien auf Seiten von google und auf Seiten der Seiten.

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 10.05.2006, 14:28

@Garfield, sehr gerne:

Einige Leute haben festgestellt, dass die Anzahl an gefundenen Seiten per "site: ..." - Abfrage seit ca. 2-3 Monaten immer weiter nach unten gehen. Jede Seite die nicht mehr per site:... angezeigt wird ist auch nicht mehr in den SERPs vorhanden. Eine Übereinstimmung konnte hier nicht festgestellt werden, es sind alte/neue, dynamische/statische, mit Google-Tools/ohne Google-Tools, white/black-sites etc. p.p. betroffen.

In der letzten Woche sind dann bei einigen Leuten die Stats wieder nach oben gegangen und auch wieder Besucher von Google aufgeschlagen. Worum es mir geht ist: Warum tritt dieser Effekt auf und vor allem wie kann man ihn nutzen um wieder ein bisschen mehr in die Blackbox Google zu blicken.

So ungefähr würde ich es zusammenfassen.

Vodka, Georgi

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 10.05.2006, 14:32

nach dem die letzten wochen ~80 seiten von ~200 drin waren, bin ich jetzt bei 3.
es handelt sich um statische html seiten, ohne tricks und doppelten boden. unique content und die domain ist 2 jahre alt (davor war nix drauf).
für ne hobby seite ganz okay verlinkt und der inhalt ist nicht anzufechten.

soll mir also niemand erzählen, dass das ne normale bereinigung ist.
in dem fall juckt es mich nur nicht, weil es halt ne hobby-seite ist und google nicht so relevant ist.

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 10.05.2006, 14:38

Das letzte Offtopic von mir in diesem Thread

@Georgi
Herold Tribune hat geschrieben:Referring to the sheer volume of Web site information, video and e-mail that Google's servers hold, Schmidt said: "Those machines are full. We have a huge machine crisis."
Was wollen mir diese Worte sagen?

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 10.05.2006, 14:55

@ts - Dass Schmidt den Shareholdern wohlstimmen und ihnen beibringen will, dass neue Maschinen gekauft werden müssen und dabei in nächster Zeit den Gewinn auffressen werden? Darum zumindest gehts in dem Artikel.

Thema Ende, Georgi

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 10.05.2006, 15:10

@ts: Lies doch mal den ganzen Artikel.

@BHProject: Die Frage bei solchen Beobachtungen ist nicht nur: 'Warum diese Seiten', sondern ebenso: 'Warum jene Seiten nicht'.

Bsp.: Warum hat google bei mir ein Verzeichnis mit knapp 100 Seiten vor BigDaddy als zunächst zwei Seiten zusammengefaßt (also relative Ähnlichkeit) und nun, nachdem ich hier von diversen Rauswürfen und Abrutschern lese, zeigt mir google über dreißig Seiten bei der ersten Suche an? Zu dem Verzeichnis gehören auch die zwei dazugefügten Seiten.

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 10.05.2006, 15:18

Weiß nicht, ob der link hier schon irgendwo gesetzt wurde:

https://www.webmasterworld.com/forum30/34228.htm

...ist das gleiche Thema.

(Ihr braucht euch nicht zu registrieren... einach nochmal auf der Seite auf den Link klicken)

BHProject
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 27.02.2006, 08:30

Beitrag von BHProject » 10.05.2006, 15:31

Die in USA diskutieren das ja schon lange genug, da gibt es Statements von Googleguy mit Sonderhilfs Email Adressen, weil das Google Team selber nicht mehr durchblickt. Inzwischen sollen da sogar verschiedene Abteilungen zusammen arbeiten. Ich weiss ja nicht, mit was die ansonsten ihre Zeit verbringen, aber vielleicht bekommen sie das Problem ja doch noch mal in den Griff.

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 10.05.2006, 15:49

Eigentlich wollte ich es mir verkneifen, aber wegen der Nachfrage.
oldInternetUser hat geschrieben:@ts: Lies doch mal den ganzen Artikel.
Wie darf ich das verstehen. In diesem Artikel wird erklärt, wie das Geld der Shareholder verbraten wird. Unter anderem wurde gesagt, dass man 350 Mio Dollar im ersten Quartal in Hardware gesteckt, weil "die Maschinen voll sind". Was gibt es an den Worten " Those maschines are full" falsch zu verstehen ganz egal in welchen Zusammenhang.

Der Umkehrschluß für mich wäre, wenn ich Dich und Georgi richtig interpretiere: Der Schmidt hat eh keine Ahnung und will nur die Shareholder beruhigen.
Ihr Leut dann erzähle ich aber nichts von einer "crisis" wenn ich meine nervösen Jungs in Schach halten will.

Nicht unwahrscheinlich ist es aber auch so, dass man am Bot und der Indizierung geschraubt hat, aus welchen Gründen auch immer (Big Daddy, Platte voll, ...) und jetzt ein Bug drin ist. Damit ist das Thema volle Platte endgültig für mich gehakt. Geht eh nur noch um Spitzfindigkeiten und nicht mehr um die Sache.

Ontopic:
Was mir in diesem Bezug aufgefallen ist, die Anzahl der Treffer bei der Site-Abfrage stimmt nicht unbedingt. Wenn man weiter in die Ergebnisse hineinklckt ändert sich die Anzahl der Treffer.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag