Hallo,
Webkataloge sind für Google zweischneidig.
Warum sind die Google Guidelines und der Algo so
wie er ist?
1.) Eine gute Art um Seite zu bewerten.
2.) Die die ihren PR verbessern wollen verbessern
automatisch die Google Infrastruktur.
Warum? Wie Google begann war das größte Problem
das Deepweb und das ist es immer noch. Google hat das
meiste Interesse daran Seiten aus dem Teil des Netzes
zu bekommen die kein anderer hat. Deshalb auch die
Anstrengungen mit gmail, Gbar e.t.c. Dementsprechend
bewertet Google Quellen die als einzigstes Quelle für
unbekannte Domains sind ausgesprochen hoch.
Das Problem der Kataloge ist das in allen die selben
Seiten sind. Ich weiß nicht ob Goggle Seiten, Domains,
Subdomains unterscheidet, da aber die meisten Kataloge
nur TLDs zulassen verschlimmert sich die Situation
natürlich.
Ich bin ganz sicher wenn man einen Katalog betreiben
würde wie es eigentlich mal gedacht war und SELBER
LINKS SUCHT UND EINTRÄGT, so das man Domains
im Katalog hat die nur in diesem Katalog stehen Google
den Katalog als äussert positiv bewertet.
Wenn man mal überlegt warum google durch massenhafte
Verlinkung überhaupt eine verbesserung des PR zulässt
sogar selber empfielt ...
... ihr die Seo´s habt aus den Trampelpfanden für Google
Autobahnen gebaut. Der Crawler könnte niemals in einer
solchen Geschwindigkeit arbeiten und hätte nur einen
Bruchteil der Links gefunden gäbe es kein SEO. Bei Google
weiß man das ganz genau deshalb wäre es auch unmöglich
auf PR zu verzichten da der Anreiz zur massenhaften Verlinkung
nicht mehr gegeben wäre und sich das Deepweb in ein paar
Jahren wieder vergrössern und der Google Index verarmen
würde da ja nicht jeder gmail benutzt.
Kern der Sache ist also das ambivalente Verhältnis zwischen
Google und den SEO´S. Google hat sich den ehemaligen
"Feind" zum Ausbau seiner Infrastruktur zu nutze gemacht.
Der Ausbau ist nun so weit das der Stand der verlinkung
des I-Netz für Google recht gut ist. Dennoch tut man sich
bei Google schwer die "Bauarbeiter" in der Arsch zu treten.
So erklährt sich das Google vieles duldet z.b. gewisse
Linktauschnetze, Linklisten e.t.c. ...
Ich habe mir mal die Mühe gemacht das hier aufzuschreiben
da wir vieles sehr speziell diskutieren, die Lösung aber
wohl teilweise einfacher ist. Das ganze stammt
übrigens aus eine "Streitgespräch" zwischen mir und einem
Kumpel der am MIT hockt und sich dort mit dem Thema
Deepweb beschäftigt. Kernaussage von ihm ist das die
SUMA die amm tiefsten im Deepweb und den privaten Intranets
ist (google desktopsuche) auf dauer der Marktführer sein wird.
Das Google das auch so sieht kann man ja an den Produkten
sehen Toolbar, g-mail, desktopsuche, map.
Hoffe der Erguss hat nicht genervt
Gruß
Micha