Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Rankingkriterium: Links von "Experten"-Seiten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
KeepCool
PostRank 8
PostRank 8
Beiträge: 715
Registriert: 02.01.2004, 11:55

Beitrag von KeepCool » 08.03.2004, 11:23

Was ich damit zum Ausdruck bringen wollte:

Der in diesem Thread angesprochene Punkt mit Bezug auf Links ist sicherlich NICHT ausschlaggebend.

WARUM ?

Um eine Rankingberechnung gemäss aller hier diskutierten Faktoren vornehmen zu können, ist eine enorme Rechenkapazität nötig, die G - momentan - EFFEKTIV nicht hat...Genaueres:

1. Unsere Auswertungen über ca. 40 000 Domains UND betreffend NUR ca. 70-80 KWs, laufen auf zwei Dual-2,5 G-Maschinen mit SCSI 15 000 U/Min, 2,25 G RAM, etc., also WISSENTLICH einer durschnittlichen G-Maschine HAUSHOCH überlegen, was Speed betrifft...die Algos und Methoden laufen als C-Daemons, also schneller geht es NICHT...(nur ein kleines Beispiel: komplexe Abfrage über 47 Mio. Datensätze - Verarbeitungszeit = 0,03 Sek | inkl. Datenbankroutinen).
Das ist ein "Minibiotop", nicht zu vergleichen mit G's Datenmengen...
Bei semantischen / sonstigen komplexen Anwendungen (z.B. Linkbewertung im thematischen Zusammenhang), wird aufgrund der Mehrdimensionalität und Komplexität der Abhängigkeiten, riesige RECHENLEISTUNG und -ZEIT verbraten...
Wie soll G das machen, wo sie doch momentan, mit der vorhandenen Rechenkapazität nicht mal mehr die Backlink-Updates - aufgrund gestiegener Datenmenge - bewältigten kann ? :o :o :o

ES KANN SCHON REIN RECHNERISCH GAR NICHT FUNKTIONIEREN !!!

WAS MACHT GOOGLE ?

G fährt ein extrem minimalistisches System, der da heisst: LP und Linktext, die Ressourcen hierfür sind vorhanden, das ist momentan die realistischste - und von der Rechenkapazität her realisierbare - Methode zur Beurteilung einer Seite.

Es geht NICHT darum ob G, etwas programmiertechnisch kann oder nicht kann...es geht darum, dass es technisch in der momentanen Lage NICHT MACHBAR IST und in absehbarer Zeit (bis IPO ?) dies auch so bleiben wird.
Jeder hier, der schon einmal mit solchen Datenmengen umgegangen ist wird mir zweifelslos Recht geben...

ALSO, MEINE TIPS

Anstatt zu spekulieren, lasst Fleiss walten:

1. LP-Steigerung - reserviert bei verschiedenen Anbietern und versch. C-Blocks 100+ Domains und belegt diese "Slaves" mit irgendeinem Content, lasst sie von G "schlucken"...
2. Überlegt Euch eine stringente, kontrollierbare Linkstrategie, inkl. Linktext...
3. Vermeidet den Eindruck eines geschlossenen Linksystems...
4. Bei dickerem Geldbeutel, kauft Links...
5. Pointet damit auf die Hauptprojekte !!!
6. VERGISST DIE ON-PAGE-OPTIMIZATION, die spielt u.U. gar keine Rolle; aber Vorsicht - wird OPO betrieben, muss man momentan mit den externen Linktexten / Anzahl / internen Verlinkung schon etwas jonglieren...ALLES wird aber durch eine gigantische LP-Power "wegrasiert"...

Gruss,

KeepCool

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 08.03.2004, 11:37

Naja, ich glaube opo hat immer noch eien deutung, aber, nur für 'autorität' seiten. Also erst der link pop (und anzahl von unterseite) steigen um autorität status zu erreichen und dann kann opo doch eine einflüß haben.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 08.03.2004, 11:38

KeepCool hat geschrieben: 1. LP-Steigerung - reserviert bei verschiedenen Anbietern und versch. C-Blocks 100+ Domains und belegt diese "Slaves" mit irgendeinem Content, lasst sie von G "schlucken"...
2. Überlegt Euch eine stringente, kontrollierbare Linkstrategie, inkl. Linktext...
3. Vermeidet den Eindruck eines geschlossenen Linksystems...
4. Bei dickerem Geldbeutel, kauft Links...
5. Pointet damit auf die Hauptprojekte !!!
6. VERGISST DIE ON-PAGE-OPTIMIZATION, die spielt u.U. gar keine Rolle; aber Vorsicht - wird OPO betrieben, muss man momentan mit den externen Linktexten / Anzahl / internen Verlinkung schon etwas jonglieren...ALLES wird aber durch eine gigantische LP-Power "wegrasiert"...

Gruss,

KeepCool
Meine Worte..... :wink:

Gruß
Frank
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

KeepCool
PostRank 8
PostRank 8
Beiträge: 715
Registriert: 02.01.2004, 11:55

Beitrag von KeepCool » 08.03.2004, 11:44

@Webby

Full ACK !!

>1. die LP
>DANN OPO

G arbeitet an ausgefeilte Technologie und hat diese bereits EINSATZBEREIT !! Ohne Zweifel...inkl. Hilltop, inkl. Semantik und anderer weitentwickelten Methoden...

NUR: um diese sinnvoll und zukunftsorientiert einsetzen zu können, brauchen sie mindestens das 3-fache der jetztigen Rechenkapazität...

Gruss,

KeepCool

KeepCool
PostRank 8
PostRank 8
Beiträge: 715
Registriert: 02.01.2004, 11:55

Beitrag von KeepCool » 08.03.2004, 11:51

@Seoxx

Wie schon mehrfach erwähnt, bin ich Dir sehr dankbar für viele wertvolle "Untersuchungstips"...

Wir haben diese genutzt, um über Sonntag, Benchmarks laufen zu lassen...Ergebnis: wird der "Algo" mit komplexeren Faktoren appliziert, entstehen enorme Verarbeitungszeiten...und Rechenkapazität wird gebunden...

Anhand der (ziemlich genau und teilweise auf eigene Angaben basierte) geschätzten G-Datenmenge und -rechenkapazität, ist eine Berechnung seitens G NICHT EINMAL THEORETISCH möglich...selbst angenommen wir hätten uns GROB verrechnet...

Gruss und nochmals Danke,

KeepCool

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 08.03.2004, 12:05

KeepCool hat geschrieben:@Seoxx

Wie schon mehrfach erwähnt, bin ich Dir sehr dankbar für viele wertvolle "Untersuchungstips"...

Wir haben diese genutzt, um über Sonntag, Benchmarks laufen zu lassen...Ergebnis: wird der "Algo" mit komplexeren Faktoren appliziert, entstehen enorme Verarbeitungszeiten...und Rechenkapazität wird gebunden...

Anhand der (ziemlich genau und teilweise auf eigene Angaben basierte) geschätzten G-Datenmenge und -rechenkapazität, ist eine Berechnung seitens G NICHT EINMAL THEORETISCH möglich...selbst angenommen wir hätten uns GROB verrechnet...

Gruss und nochmals Danke,

KeepCool
Hi KeepCool,

wobei momentan noch nicht klar ist welche Richtung Google einschlägt. Vielleicht entschließen Sie sich dazu auf ein monatliches echtes Linkupdate zu verzichten und dafür lieber die neuen Technologien langsam einfließen zu lassen. Von Heute auf Morgen ist das sicherlich nicht möglich. Dann ist es natürlich so, dass Sie mindestens dreimal so lange brauchen um alle Seiten auszuwerten. Aber vielleicht nehmen Sie sich die Zeit. Eine gewisse Aktualität (ausser bei News- und Freshseiten) bleibt dabei natürlich dann auf der Strecke.

Zumindest hat nun schon sieben Wochen kein richtiges Linkupdate mehr stattgefunden. Erst wenn es Dieses gegeben hat werden wir wohl mehr über die Strategie von Google erfahren. Ich bin gespannt. :wink:

Gruß
Frank
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 11.03.2004, 10:29

KeepCool hat geschrieben: 6. VERGISST DIE ON-PAGE-OPTIMIZATION, die spielt u.U. gar keine Rolle; aber Vorsicht - wird OPO betrieben, muss man momentan mit den externen Linktexten / Anzahl / internen Verlinkung schon etwas jonglieren...ALLES wird aber durch eine gigantische LP-Power "wegrasiert"...

Gruss,

KeepCool
hi KeepCool,
Was verstehst du unter On-page-optimization,

mfg
viggen

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 11.03.2004, 11:48

Ende Februar diesen Jahres wurde wiedermal ein neues Patent von Bharat (über Google) angemeldet, welches sich unter anderem auf den Hilltop Algo bezieht und lautet: "Ranking search results by reranking the results based on local inter-connectivity"

<in meinen augen schwachsinn>
Aber laut KeepCool Experten Seiten spielen ja eh keine Rolle, weils technisch nicht zu realisieren wäre, sondern alles was zählt ist Linkpop, Linkpop und nochmal Linkpop....
</in meinen augen schwachsinn>

Übrigens für die die es interessiert. Das oben genannte Patent beschreibt einen Re-Optimierungs-Prozess, eines bereits "berechneten Indexes", der Seiten, welche oft im Web zitiert werden...also Experten Quellen...ein besseres Ranking verschafft, als Seiten die weniger oft im Web "zitiert" werden.

gruß
tbone.

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 11.03.2004, 14:52

Hi tbone78,
<in meinen augen schwachsinn>
Aber laut KeepCool Experten Seiten spielen ja eh keine Rolle, weils technisch nicht zu realisieren wäre, sondern alles was zählt ist Linkpop, Linkpop und nochmal Linkpop....
</in meinen augen schwachsinn>
aus meiner Erfahrung kann ich Dir da nur beipflichten.
KeepCool's Aussagen treffen ausschließlich da zu, wo die Konkurrenz ihre Site nach dem gleichen Muster nach vorne gepuscht hat.
1001 Links wiegen halt mehr als 1000 Links.
Hierzu ein kleines Beispiel:
Unter einem Kw aus dem englischsprachigen Raum, welches ich rein interessehalber seit Jahren beobachte, waren Rang 1 - 5 bis "Austin" fest vergeben.
Der "Platzhirsch" hat das Kw nicht auf der Seite, also nach KeepCool's Methode nach vorne gepuscht.
Nach "Austin" ist plötzlich ein Affili-Experte auf Rang 1, der auch mit unsauberen Methoden operiert.
Allerdings sind die verwendeten unsauberen Methoden nicht der Grund für seinen Erfolg, wie ich nun nach 2 Monaten herausbekommen habe, sondern eine ganz banale Bedingung die die Seite erfüllt, die dem Eigentümer der Seite wohl offensichtlich als Kopierfehler unterlaufen ist.
So kann es gehen, und soviel zu LP und OPO.
Lt. Google gibt es an die 100 Rankingkriterien, und LP ist nur eines davon. Mit welchem Gewicht, weiß nur Google alleine. Darüberhinaus ist Google jederzeit in der Lage, das Gewicht der einzelnen Kriterien im Gesamtgefüge zu verändern.
Selbstverständlich kann man mit LP viel machen, aber bitte nicht überbewerten.

Im übrigen möge man sich an KeepCool's erste "wissenschaftliche" Aussage über den Zusammenhang zwischen dem Ranking und den Adword-Preisen erinnern - nichts als heiße Luft.
Und wer immer noch dieser These anhängt, dem ist nicht zu helfen.

moinmoin
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 11.03.2004, 16:38

Beitrag von moinmoin » 11.03.2004, 16:41

Hallo hard_pollux

Du hast mich neugierig gemacht, was ist denn der Schlüssel für die gute Plazierung trotz geringer LP.

Gruss Moinmoin

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 11.03.2004, 22:50

@moinmoin
Danke, daß Dich mein Post interessiert.
Das angeführte Beispiel diente selbstredend der Unterstreichung der Wichtigkeit einer ordentlichen OnPage-Optimierung. Ein solches Wissen teile ich gerne mit Anderen, wenn es dazu beiträgt, das eher niveaulose Pushen mit Backlinks zu dämpfen, bzw. die vermeintliche Abhängigkeit von Backlinks.
Den angesprochenen "Schlüssel" werde ich natürlich nicht teilen, dafür habe ich aufgrund seiner absoluten Banalität, zuviel Aufwand für die Erkennung seiner unangemessen hohen Bewertung in Google's Rankingmuster erbringen müssen.

Zudem könnte es ja sein, daß gerade Du es bist, dem die Seite gehört, und Du nicht weißt, warum sie vorne ist.
Und sollte es einfach so sein, daß Du Deine Seite nicht nach vorne bekommst, dann analysiere die Seiten, die vorne sind. Kopiere sie nicht einfach, sondern entwickle Deinen eigene Stil, und dann hast Du auch Erfolg.
Danach kannst Du Dich um Backlinks und Pagerank für's Ego kümmern und Du bist ein "Platzhirsch".

Ich helfe gerne, wenn ich kann, aber ich unterhalte keine "Armenspeisung", d.h. es gibt von mir kein "Fertigfutter", bei dem man nur noch "schlucken" braucht.
Eigenleistung ist für den eigenen Erfolg angesagt!

Gruß
Hard_Pollux

Abakus Forengast
Nutzer/in
Nutzer/in
Beiträge: 1462
Registriert: 24.01.2004, 13:14

Beitrag von Abakus Forengast » 12.03.2004, 13:55

@hard_pollux
"Ich helfe gerne, wenn ich kann, aber ich unterhalte keine "Armenspeisung", d.h. es gibt von mir kein "Fertigfutter", bei dem man nur noch "schlucken" braucht.
Eigenleistung ist für den eigenen Erfolg angesagt!"
Sehr gute Einstellung.... :wink: Wenn alle in Zukunft so handeln, wäre es möglich die "nächste Optimierung" länger zu erhalten..... und nicht, dass 1000 Spammer durch das "schlucken" von kostenlosen Infos ohne Gegenleistung, wieder den index platt machen ....

:wink:

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 12.03.2004, 14:41

6. VERGISST DIE ON-PAGE-OPTIMIZATION, die spielt u.U. gar keine Rolle; aber Vorsicht - wird OPO betrieben, muss man momentan mit den externen Linktexten / Anzahl / internen Verlinkung schon etwas jonglieren...ALLES wird aber durch eine gigantische LP-Power "wegrasiert"...
Dazu sag ich jetzt mal ein Gegenbeispiel:
Ich habe eine Seite mit einem PR7 mit über 600 Backlinks >PR4 in G*.
Ich habe auf diese Backlinks überhaupt keinen Einfluss, da sie nicht von mir selbst gesetzt wurden, sondern von irgendwelchen Webmastern, die auf meine Seite verlinken, da für sie die Thematik interessant ist.
Nun habe ich das Problem, dass diese Seite unter ihrem eigentlichen Namen gar nicht gefunden wird, sondern nur unter zigtausend verschiedenen Suchbegriffen.

Hier spielt die ONpage-Optimierung meiner Meinung nach eine ganz erhebliche Rolle.
Da werde ich mich jetzt mal dransetzen und mir was überlegen. Bislang war diese Seite nämlich von mir unter diesem Gesichtspunkt überhaupt nicht betrachtet worden.

Gruss
Fridaynite.

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 12.03.2004, 15:02

OT @traxx-x:
Traxx-X hat geschrieben:und nicht, dass 1000 Spammer durch das "schlucken" von kostenlosen Infos ohne Gegenleistung, wieder den index platt machen ....
Wieviel wäre dir denn zb. der derzeit "kostenlose" Inhalt wert?

Code: Alles auswählen

if &#40;$kostenlos&#41; &#123; $users = "viele"; $topinfos = "moderate"; $popularity = "10"; &#125; else &#123; $users = "wenige"; $topinfos = "excellent"; $popularity = "1"; &#125; $erfolg = $users+$topinfos+$popularity; $money = $erfolg;
print "$money";
gruß
tbone.

Abakus Forengast
Nutzer/in
Nutzer/in
Beiträge: 1462
Registriert: 24.01.2004, 13:14

Beitrag von Abakus Forengast » 12.03.2004, 15:13

tbone78

Ich habe noch nie etwas gegen "untereinander helfen" gesagt.... Unsere zivilisation ist durch geben UND nehmen aufgebaut..... Beachte UND...

Allerdings wäre:

if ($kostenlos) { $users = "viele"; $topinfos = "moderate"; $popularity = "1000"; }

$erfolg = $users+$topinfos+$popularity; $money = $erfolg;
print "$money";

$money = "Geldgier(mit 80% Spam) x 1000 -> Googleindex bricht zusammen
Ergebniss 1: google verschwindet vom Markt
Ergebniss 2: google verschärft Kriterien nochmals, sodass ALLE "verbluten"...... auch die die gegeben haben....

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag