Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Klar. Grund eins bis zehn: macht Ihr Seitenbetreiber mal unsere Drecksarbeit, danke vielmals dafür.Beloe007 hat geschrieben: Die Einführung von Nofollow hat sicher auch seine Gründe![]()
Es geht mir in Bezug auf vollgefressen nicht primär um die Links sondern darum, daß ab einem bestimmten Punkt das System Google in der jetzigen Form nicht mehr funktionieren kann, weil einfach zuviel Datenmaterial vorhanden ist.Beloe007 hat geschrieben: Aber "voll gefressen" glaube ich nicht, eher "unmöglich" Links sinnvoll zu werten...
(Zumindest der Ansatz ist gut)X hat geschrieben:..., dabei ist das der einzige Fels in der Brandung gegen die gegenseitige Verdummung im Internet.
Das übersteigt vielleicht die Kapazitäten deiner Programmierfähigkeiten. Lies doch bitte was ich geschrieben habe. Die linkanalyse funktioniert nicht so, dass google sieht, "oh ein link" und dann zwei Ebenen tiefer geht. Google analysiert links analog zum Text, wenn sie eine Seite gecrawlt haben, dann analysiert google ja auch, welches Wort in einer Überschrift vorkommt und ebenso gucken sie sich die links an und bewerten die, ohne noch nach sonstwo zu springen. Das kostet vielleicht mehr Ressourcen wie ein einzelnes Wort, aber nur graduell mehr und da es viel weniger links wie Worte gibt ist das locker verschmerzbar.MeNoZony hat geschrieben: Nehmen wir mal o.g. Beispiel mit 900K BLs. Wenn ich diese BLs also fundamental in einer Tiefe von nur 2-3 Ebenen auswerten will und das nur hochrechne auf wirklich interessante Domains dann übersteigt bereits das eigentlich schon Kapazitäten im logischen Sinne.
Dir ist schon klar, dass der bot und das Auswerten der Seite komplett getrennte Dinge sind?MeNoZony hat geschrieben: Ich darf ausserdem nicht nur von den Kapazitäten eines Rechnerparks ausgehen, ich muß ja auch von den Verbindungsqualitäten ausgehen.
Schreibe einen Spider und kontrolliere danach, wieviele TimeOuts generiert werden und Du weißt dann, was nach menschlichem Ermessen überhaupt geht und was nicht.
Kann ich nicht nachvollziehen, es gab temporäre Aussetzer, weil die google-Bildersuche umgestellt wurde und die sämtliche Bilder gerendert werden mußten, weshalb sie Rechenkapazität vom bot abgezogen hatten, das hat sich aber wieder normalisiert.MeNoZony hat geschrieben:Die Quote von gesetzten Backlinks, die von Google innerhalb 90 Tagen (eine von mir willkürlich gesetzte Marke) erkannt wird, verschlechtert sich seit einiger Zeit ständig, in letzter Zeit ist diese Quote unerträglich schlecht geworden.
Eine These, die aus eigener empirischer Erfahrung gewonnen wurde mit eben dieser Empirie zu bestätigen ist zumindestens lustig.MeNoZony hat geschrieben:Das bestätigt meine o.g. These.
Mit Verlaub, aber du hast nicht ernsthaft Ahnung davon, wie google funktioniert, wahrscheinlich weißt du noch nichtmal wie der PR berechnet wird, geschweige denn, dass du Kenntnis der verschiedenen Approximationsalgorithmen hättest, dann lass doch solche Aussagen.MeNoZony hat geschrieben:Es sagt aber auch aus, daß sich der Moloch Google langsam vollgefressen hat und durch den Mechanismus PR peu a peu selbst blockiert und letztendlich lahmlegt.
s.o. und warum hat google eigentlich gerade caffeine gelauncht mit dem Anspruch noch viel mehr Webseiten als bisher zu indizieren? Nach deiner Verschwörungstheorie müßten sie doch eigentlich still und heimlich sich weiter auf ihren Datenbestand beschränken und nicht ankündigen noch viel mehr zu indizieren!MeNoZony hat geschrieben:Allein die schiere Masse an vorhandenem Datenmaterial (ich spreche ausdrücklich nicht nur von Seiten) macht es unmöglich, ein früher einmal funktionierendes Konstrukt PR auch nur annähernd funktionabel zu halten. Deshalb muß man sich von der Idee verabschieden, daß sowas heute noch funktioniert weil es einfach vom Datenbestand nicht mehr funktionieren kann.
Was laberst du? Bzw. wo setzt du deine links? Hier beschäftigen sich viele Leute mit der Suche von Linkquellen und das Problem, dass sie einfach nicht gefunden wurden gab es hier noch nicht. Sonst müßte es ja threads geben wie "heise.de hat mich auf der Startseite verlinkt, aber google findet den link einfach nicht! Wie fies."MeNoZony hat geschrieben:Daher muß man, so lange der PR noch zur Anwendung kommt und/oder bis sich Google von seiner jetztigen Logik der Bewertung verabschiedet, auch in puncto Linksetzung umdenken, weil das reine Setzen von Links deswegen nicht mehr funktionieren wird, weil diese einfach nicht mehr gefunden werden.
LSI sagt dir aber schon was, oder?MeNoZony hat geschrieben:Ein anderer Denkansatz wäre intelligente Programmierung, die nicht nur einzelne Keys auseinanderhalten kann sondern Sinnzusammenhänge.
Z.B. werden in threads die threads wo eine gute Antwort steht verlinkt, z.B. sieht google durch das Weitersurfen, dass der Thread nicht so gut war,... es gibt da genug Mechanismen um gute Ergebnisse zu bringen und das tut google auch. Vielleicht solltet ihr eure eigenen Erfahrungen nicht als allgemeingültig setzen.Beloe007 hat geschrieben: Allein wenn man sich das Abakus-Forum anschaut, da werden immer und immer wieder dieselben Fragen gestellt und oft kommen unterschiedliche Antworten... je nachdem wer gerade Lust hat zu antworten. -> Wie soll eine SUMA entscheiden welcher Thread nun die beste Antwort liefert? (Außer über Try & Error, Nutzer sucht weiter also Thread scheiße... kann aber auch heißen, will sich weiter ins Thema vertiefen)
Ich antworte nur darauf weil aus diesem Satz schon deutlich wird, was für einen halbgar verquasten Quark Du da verzapfst und zwar egal ob aus Unwissen oder weil Du nicht gewillt bis, zusammenhängende Texte so zu lesen, wie sich das gehört.Jannick hat geschrieben: Dir ist schon klar, dass der bot und das Auswerten der Seite komplett getrennte Dinge sind?
Die 1 Milliarde war schon 2000 unter Dach und Fach. Seit 2008 sind es über 1 Billion.Gehen wir weiterhin von momentan konservativ von nur 1 Milliarde Dokumenten im Netz aus.
Vielleicht möchte ich nur die Seiten analysieren, die mir der bot bereitstellen kann.MeNoZony hat geschrieben:Ich antworte nur darauf weil aus diesem Satz schon deutlich wird, was für einen halbgar verquasten Quark Du da verzapfst und zwar egal ob aus Unwissen oder weil Du nicht gewillt bis, zusammenhängende Texte so zu lesen, wie sich das gehört.Jannick hat geschrieben: Dir ist schon klar, dass der bot und das Auswerten der Seite komplett getrennte Dinge sind?
Also, Preisfrage:
wie will ich eine Seite auswerten, die ich aufgrund gar nicht vorhanden sein könnender(!) Ressourcen, also weil es
a) zu wenig Ressourcen im Rechenzentrum oder
b) zu wenig Ressourcen im Leitungsbereich (aka ich erreiche die entsprechende Seite wg. schlechter Konnektivität im Netz erst gar nicht in vernünftiger Zeit- TimeOut(!)) gibt,
wie will ich diese Seite und die damit verbunden Links überhaupt analysieren?
Hast du schon Mal was von Gewaltenteilung gehört? Die Exekutive ist auch vo der Judikative komplett getrennt, obwohl die Judikative die Exekutive benötigt. Oder wie ist das mit den Blumen und Bienchen? Letztere benötigen zum Leben auch erstere, trotzdem sind sie komplett getrennt. Da würden mir jetzt Millionen Beispiele einfallen, ich habe nur nicht die Zeit, sie aufzuschreiben.MeNoZony hat geschrieben: Und daraus resultierend die 2. Preisfrage: wieso sind Bot und die Auswertungssoftware "zwei komplett getrennte Dinge" wenn das eine "Ding", die Auswertungssoftware, das andere "Ding", den Bot, unverzichtbar benötigt?
Na?
Naaaa?
Na also.
Ja, da hat er sich redlich bemüht, Mathe habe ich aber erst richtig im Informatikstudium gelernt.MeNoZony hat geschrieben:Und, Kapazitäten: Dein Lehrer hat sich in der Schule bestimmt redlich Mühe gemacht, Deine Mathematikfähigkeiten auf ein zumindest durchschnittliches Niveau zu heben.
Du machst einen Denkfehler, weil du, mit Verlaub, keinen blassen Schimmer von Programmierung hast. Nochmal, damit du es auch verstehst: google denkt sich nicht, prüfen wir doch heute mal spiegel.de und gehen die links bis zu einer Tiefe von 10 Seiten zurück. Auf so eine Idee würde niemand kommen. Google prüft die links, wenn sie auf den indizierten Seiten gefunden werden. Dann fügt er den linktext als Wert zu der linkbekommenden Seite hinzu, erhöht deren link-wert, aktualisiert seine PR-Matrix...MeNoZony hat geschrieben:Also:
Seite #1 hat 900.000 Backlinks.
Wir analysieren die 900.000 Backlinks, indem wir die korrespondierenden Seiten besuchen, jede einzeln. Jeder dieser Seiten hat durchschnittlich 15.000 Backlinks, die betrachtet werden sollen, weil ja die Qualität der Links der 2. Seite zur 1. Seite bewertet werden muß.
Seite 1 ist, zugegeben, ein Mörderteil.
Gehen wir also zurückhaltend von einer Durchschschnittsrate von 2K Links pro Seite im Netz aus. Durchschnitt, OK?
Gehen wir weiterhin von momentan konservativ von nur 1 Milliarde Dokumenten im Netz aus.
Gehen wir weiterhin davon aus, daß die durchschnittliche Zeit bis zum vollständigen Einlesen des Dokumentes bei 15 Sekunden liegt.
Du hast ja Recht.Jannick hat geschrieben: Du machst einen Denkfehler, weil du, mit Verlaub, keinen blassen Schimmer von Programmierung hast.
Weiß ich. Manchmal drücke ich mich halt laienhaft aus weiß wir in einem Laienforum sind.Jannick hat geschrieben: Im Übrigen misst man nicht Rechenkapazität in Sekunden.
Du kannst von mir aus rausjuxen, was Du lustig bist, entscheidend ist, ob Du auch ankommst.Jannick hat geschrieben: Google hat die größten Rechenleistung dieses Planeten zur Verfügung, da läuft alles, aber wirklich alles parallel.
Nein, im Optimalfall.t-rex hat geschrieben: Das Crawlen und speichern einer Seite dauert im Normalfall nicht einmal 1 Sekunde.
Ja, kann er.t-rex hat geschrieben: 1 Crawler kann demnach 86400 Seiten/Urls am Tag abarbeiten. Auf einem Rechner können 100, 1000, 10000 oder mehr Crawler gleichzeitig arbeiten. Das wären dann bis zu 864.000.000 Dokumente am Tag auf einem Server. In ein Rack passen 46 Server. und so käme ich auf 39.744.000.000 Dokumente die an einem Tag durchsucht werden können.
Diese Technik ist mir geläufig, stand aber prinzipiell gar nicht zur Diskussion.t-rex hat geschrieben: Alle Links die gefunden wurden, kommen in eine Tabelle von wo aus versch. Bewertungsprozesse
Jou.t-rex hat geschrieben: Die 1 Milliarde war schon 2000 unter Dach und Fach. Seit 2008 sind es über 1 Billion.
Tipp: wenn man sich vergaloppiert hat: einfach eingestehen oder Klappe halten.MeNoZony hat geschrieben:Ich dachte, ich wäre seit 30 Jahren Programmierer ...
Danke wußt ich noch garnicht das Google so eine Beschreibung über die eigenen Methoden erstellt hat. Wie der Googlebot funktioniert wußte ich ja schon vorher aber den genauen Ablaufen von der Query bis zum Suchresultat...profo hat geschrieben:Tipp: wenn man sich vergaloppiert hat: einfach eingestehen oder Klappe halten.MeNoZony hat geschrieben:Ich dachte, ich wäre seit 30 Jahren Programmierer ...
Ansonsten, wen's interessiert, wie Google funktioniert beschreibt Google einigermaßen einfach erklärt sogar selbst. Ich glaub, das ist auch für Nichttechniker gut lesbar: How Google Works.