Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erkenntnisse vom neuen Google Algorythmus (Teil 3)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 30.11.2003, 17:31

Seoxx hat geschrieben:Aber vielleicht habe ich zuwenig Seiten im Netz um mir ein Bild machen zu können. :wink: Gruß Frank
Frank Du kannst Dir bestimmt ein gutes Bild machen, Du hast soviel ich weiß etwas mehr als eine Seite im Netz :wink:
Ich find es wichtig, daß uns hier auch Leute wie Du, aus ihrer Sicht wichtige Inputs geben. Danke Frank

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 30.11.2003, 19:16

Tja, vielleicht sind die 'alten Resultate' gar nicht die 'alten Resultate', sondern in Wirklichkeit gleich der allinanchor-Abfrage:

https://www.searchguild.com/tpage4709-0.html

Zitat: 'So the -googlegoo search is not showing unfiltered results it's showing this months allininanchor: results'.

Statt -googlegoo wird hier etwas wie -dfdfdf verwendet. Allerdings muß ein Kombinationswort immer gequotet sein:
"Online shopping" -dfdfdf liefert für die ersten 14 Plätze dieselben Ergebnisse wie allinanchor:"Online shopping".

Zitat: 'This month it's completely different, so pretty obvious the anchor text is no longer as important as before'. Ähnlich habe ich @Visitline hier (https://www.suchmaschinentricks.de/foru ... m=1&stm=30) verstanden, wo er im Beitrag #37 schreibt: 'Immer ist es bis jetzt an den Links aus zu machen. Googlebombing Adeeee'. Und die Postings, die er dort erwähnt ('meine Seite ist sauber, aber trotzdem raus'), die nerven mich hier auch.

Daß man solche Veränderungen ohne händischen Eingriff oder eine externe Datenbank mit 'ausgewählten Keywords', nur durch relativ einfache Algorithmusverschiebungen, hinkriegt, das habe ich oben an einem natürlich selbsterfundenen Beispiel erläutert.

-------------
Gruß, Jürgen Auer

Michael B
PostRank 5
PostRank 5
Beiträge: 307
Registriert: 22.07.2003, 17:26
Wohnort: 82008 unterhaching

Beitrag von Michael B » 30.11.2003, 23:39

also mir gefällt die teorie der wertigkeit der ausgehenden links.
auch wen sie höchstwarschein nicht stimmt zeigt sie doch das google sich eigentlich jeden monat was neues einfallen lassen könnte. was das dass ganze seo als absurdum führen würde.

ich habe da übrigens auch eine teorie.
google schaut sich die gelinkten seiten dank erhöter rechenkapazietät an und verarbeited deren inhalt mit. hat man nun eine seite mit 20 ausgehenden links ohne jede temenrelevanz dan ist man drausen aus dem spiel.
die teorie eine kleinen lamas!
.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

NiSti
PostRank 2
PostRank 2
Beiträge: 48
Registriert: 27.06.2003, 13:30

Beitrag von NiSti » 01.12.2003, 00:13

@Michael (und alle anderen, die ähnliches vermuten): Glaubt mir, von Google "schaut" überhaupt keiner ... jedenfalls nicht für poplige Suchphrasen wie "preiswertes Webdesign" oder sonstwas. Die wollen ihre Technologie verkaufen und keine Arbeitsbeschaffungsmaßnahme für Hundertschaften von Studenten darstellen. Meiner Ansicht nach lassen die sich höchstens für extreme Spammer (so ab 500.000 Seiten im Index) dazu herab, eine Domain von Hand zu kicken. Nach ein wenig Umprogrammierung und mit neuer Domain ist der Spam dann auch wieder da ... so funktioniert es nicht. Also bitte keine "da schaut jemand"-Theorien.

Zu der Sache mit der Themenrelevanz denke ich folgendes: Das geht stark in den Bereich der Entwicklung von künstlicher Intelligenz hinein. Bei allem Respekt - davon ist sicher selbst Googles Programmierer-Elite noch sehr weit entfernt. Falls Google irgendwas in der Art anstellen wollte, wäre es eher eine Art "Wortvergleich" auf Quell- und verlinkter Zielseite. Das ließe sich dann genauso leicht optimieren, wie ein Meta-Tag ... also Themenrelevanz hin, Themenrelevanz her .... ich denke, es gibt wichtigere Faktoren, die es derzeit zu berücksichtigen gilt.

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 01.12.2003, 00:52

NiSti, Themenrelevanz per Wortabgleich wäre schonmal ein riessiger Fortschritt - aber imo fast unmöglich da es gigantische Rechenleistungen benötigt. Man kann ja nicht nur die linkende Seite überprüfen sondern muss auch die 2 oder 3 Seiten "davor" ankucken um zu schauen ob eine relevanz vorliegt. Und jeder der mal Textvergleiche per PHP oder so gemacht hat weiss wie die Maschine da qualmt. Google würde da was besseres erfinden - hat aber auch ein paar Milliarden Seiten mehr.

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 01.12.2003, 07:36

Themenrelevanz per Wortabgleich wäre schonmal ein riessiger Fortschritt
Um noch ein Stück weiterzugehen in der englischen Sprache leichter umzusetzen 8) als in deutsch.

Es gibt dazu schon fertige Forschungsergebnisse und teilweise Funktionen. Auf die gut aufgebaut werden kann.

Dennoch erscheint ein Abgleich in dieser Tiefe unrealistisch.


RW

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 01.12.2003, 08:11

NiSti hat geschrieben:höchstens für extreme Spammer (so ab 500.000 Seiten im Index) dazu herab, eine Domain von Hand zu kicken. Nach ein wenig Umprogrammierung und mit neuer Domain ist der Spam dann auch wieder da ... so funktioniert es nicht. Also bitte keine "da schaut jemand"-Theorien..
500.000 ist für die auch noch kein Maß, aber sonst hast Du recht
Zu der Sache mit der Themenrelevanz denke ich folgendes: Das geht stark in den Bereich der Entwicklung von künstlicher Intelligenz hinein. Bei allem Respekt - davon ist sicher selbst Googles Programmierer-Elite noch sehr weit entfernt. Falls Google irgendwas in der Art anstellen wollte, wäre es eher eine Art "Wortvergleich" auf Quell- und verlinkter Zielseite. Das ließe sich dann genauso leicht optimieren, wie ein Meta-Tag ... also Themenrelevanz hin, Themenrelevanz her .... ich denke, es gibt wichtigere Faktoren, die es derzeit zu berücksichtigen gilt
sehe ich ähnlich, danke

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 01.12.2003, 08:21

Southmedia hat geschrieben:NiSti, Themenrelevanz per Wortabgleich wäre schonmal ein riessiger Fortschritt - aber imo fast unmöglich da es gigantische Rechenleistungen benötigt. Man kann ja nicht nur die linkende Seite überprüfen sondern muss auch die 2 oder 3 Seiten "davor" ankucken um zu schauen ob eine relevanz vorliegt. Und jeder der mal Textvergleiche per PHP oder so gemacht hat weiss wie die Maschine da qualmt. Google würde da was besseres erfinden - hat aber auch ein paar Milliarden Seiten mehr.
ich denke Google wird diesbezüglich an den Uni´s genügend gute Leute ködern, aber die sind wohl noch eine Weile am Üben. Ja da müssten ein paar Giga-Rechner her, und selbst dann ist das Gebiet noch schwierig zu beherrschen.

Anonymous

Beitrag von Anonymous » 01.12.2003, 10:52

*g* Na so gut Können die Leute dann nicht sein(oder die üben noch), wenn sich goggle selbst rausschmeißt
Und woher nimmt scroogle eigentlich seine Ergebnisse? Habe bei manchen suchwörtern ganz andere Ergebnisse wie scroggle.
Sti-Ho-dr

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 01.12.2003, 11:12

sti-ho-dru hat geschrieben: Und woher nimmt scroogle eigentlich seine Ergebnisse? Habe bei manchen suchwörtern ganz andere Ergebnisse wie scroggle.
Sti-Ho-dr
auf jeden Fall darfst Du nicht mit google.de vergleichen. Nimm mal google.com und hl=en. Ich nehme an, daß die .com verwenden. Bei mir sind die Resultate ok und vergleichbar. allerdings schwanken sie hie und da!

Anonymous

Beitrag von Anonymous » 01.12.2003, 11:20

Ich hatte schon .com genommen aber du hast recht bei hl=en stimmts ziemlich überein
Sti-ho-dr

regeurk78
PostRank 5
PostRank 5
Beiträge: 271
Registriert: 15.05.2003, 13:22

Beitrag von regeurk78 » 01.12.2003, 13:42

Bin seit heute wieder mit Internetmarketing zu finden. Bis gestern war ich noch im Filter drin, hab aber nichts geändert. Vielleicht lernt er ja noch dazu :roll:
Bild

CMA
PostRank 9
PostRank 9
Beiträge: 1013
Registriert: 16.07.2003, 16:34

Beitrag von CMA » 01.12.2003, 13:47

Jup, vielleicht ist es ein bayesianischer filter,...gab da mal nen guten link dazu;-)
Hier:https://sethf.com/anticensorware/google ... n-spam.php

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 01.12.2003, 13:57

regeurk78 hat geschrieben:Bin seit heute wieder mit Internetmarketing zu finden. Bis gestern war ich noch im Filter drin, hab aber nichts geändert. Vielleicht lernt er ja noch dazu :roll:

scroogle zeigt auf "Internetmarketing" kein Filter. Hast Du da noch irgend ein Zusatzwort miteingegeben, also DoppelKW?

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 01.12.2003, 15:36

macht Google alles rückgängig oder geht der Florida-Backup weiter?

meine wichtigste Seite ist von unendlich auf Platz 12 gerutscht, noch nicht gut aber doch irgendwo ein Lichtblick. Es betrifft bei mir die deutschsprachigen Seiten. #ungläubig guckt#

Gesperrt
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag