Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

grundlegendes zur funktion von google

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
schorsch
PostRank 7
PostRank 7
Beiträge: 613
Registriert: 26.08.2004, 23:00
Wohnort: Erlangen

Beitrag von schorsch » 10.09.2005, 02:08

auf grund dieses threats ( https://www.abakus-internet-marketing.d ... 17898.html ), der eine mischung aus spaß und ernst ist, habe ich mir gedacht vielleicht doch einen eigenen threat zu eröffnen, um einerseits in diesem 3seitigen "spaßthreat" keine ersnthafte diskussion an zu fangen, da dies wahrscheinlich komplett für verwirrung von hobby und anfänger seos führen würde.

was jedoch meiner meinung nach auffällt ist, dass viele verschiedene meinungen über die grundfunktion des google algos existieren.

um vielleicht mal zum start zu erwänen, würde ich sagen dass jedem klar ist, dass google die webseiten spidert und cached, um dann den inhalt samt html code etc. auszuwerten.

nun die frage, was macht google dann eigentlich genau? ich weiss es ehrlich gesagt nicht, da ich kein informatiker bin und mich daher auch nicht mit algorithmen auskenne, genauso wenig würde ich mich als seo bezeichnen. eher als ein hobby seo.

was ich weiss ist, dass gewisse onpage und gewisse offpage faktoren ein rolle spielen, das ranking zu bestimmten suchanfragen zu bestimmen. bezieht man sich nur auf die onpage faktoren, die meiner meinung nach eine bedeutende rolle spielen, denn der content ist ja hauptsächlich dafür verantwortlich, dass man unter bestimmten keywords erscheint und unter bestimmte nicht.
so kommt man jedoch schon zu der ersten fragestellung bei der die meinungen auseinander gehen. wird nur der rohtext und eventuell die metas verwertet oder spielen auch einzelne html elemente wie h1, strong, alt-texte etc. eine rolle? wie siehts aus mit dem verhältnis html code zu rohtext, oder das verhältnis von externen, internen links und rohtext. alles meiner meinung nach faktoren die eine rolle spielen könnten. (die themenrelevanz von externen links mal außer acht gelassen)

hat man jedoch geklärt, welche faktoren alle eine rolle spielen, steh aber immer noch die frage offen, die mich schon immer mal interessiert hat, wie dieser algo nun mit den gesammelten infos umgeht. wenn mal also zb 100 faktoren hat, die gewichtet werden sollen, wie wird dadurch ein automatischer algorithmus erstellt, der zu nahezu unendlich vielen suchbegriff kombinationen verschiedene ergebnisse liefert.

dies ist natürlich eine sehr allgemeine fragestellung. kennt jedoch jemand litheratur, die für nicht-informatiker beschreibt, wie so ein algo arbeitet? denn wenn man sich über die funktionsweise von algos ein bild machen kann, so kann man auch besser zusammenhänge verschiedener faktoren erkennen und bewerten.

ich hoffe das es irgendwie möglich ist sich mit diesen jedoch sehr allgemeinen fragestellungen außeinander zu setzen, denn ich denke, dass dies vielen nicht klar ist und somit auch diese ganzen seo märchen zustande kommen, da sich jeder versucht ein bild davon zu machen wie es funtkionieren könte, aber keiner die grundlegenden funktionsweisen solcher algorithmen kennt, mit denen sich doch alle den ganzen tag beschäftigen.

gruss

schorsch

P.S. sorry für die schreckliche sprache und den ewig langen sätzen, aber es ist schon sehr spät :D

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

SebaF
PostRank 4
PostRank 4
Beiträge: 149
Registriert: 16.08.2005, 07:02

Beitrag von SebaF » 10.09.2005, 07:42

Hi,

letztendlich ist ein algo doch nur die gewichtung der verschiedenen faktoren.
Wenn man den genauen algo nicht kennt, ist es sehr schwer, zu sagen wie er funktioniert.

Du kannst zwar versuchen, eine Regelmäßigkeit (Wertigkeit der einzelnen Elemente) zu erkennen. Du wirst aber immer daran scheitern, da keine Seite unter den gleichen Voraussetzungen startet. Es helfen nur Tests, die mit den gleichen Bedingungen starten.
Ein Beispiel:
Wenn Du testen möchtest, ob eine Überschrift oder das Keyword in der URL mehr Wert sind, dann müßtest Du die gleiche Seiten erstellen. Dann könnte es wieder DC sein. Also müssen die Texte unterschiedlich sein. Nur woher weißt Du, ob nicht vielleicht auch die Anzahl der Subjekte, Verben, Adjektive ... gewertet werden?

Bei den Serps sind auch die eingehenden Links wichtig. Diese sind doch auch immer unterschiedlich.

Ein anderes Thema sind Lizenzkeys für Software. Ich würde behaupten, dass diese leichter gelöst werden können, da hier häufig/meistens die gleichen Bedingungen vorliegen.

Für die Suchmaschinen gibt es tolle Programme, die die Top10-Seiten analysieren. Die Produkte können Dir niemals genau sagen, was richtig und falsch ist.
Sie können Dir nur einen Weg aufzeigen, in welche Richtung es gehen muss.
Sieh Dir z.B. mal die Serps für Versicherungen an. Die haben viele tausend Backlinks....

Viele Grüße
SebaF

angelpage
PostRank 5
PostRank 5
Beiträge: 228
Registriert: 06.07.2004, 15:01

Beitrag von angelpage » 10.09.2005, 08:19

:D Guten Morgen,

lies Dir einfach mal durch, was Google selbst dazu sagt:

https://www.google.de/intl/de/webmaster ... lines.html

Übers Menü erhälst Du dort weitere Informationen. Meine Erkenntnis über Jahre: wer sich einigermaßen daran hält, hat auf Dauer! bei Google ausgezeichnete Karten (eine ausgezeichnete Positionierung).

Die Algorithmen dagegen sind nur bei toten Suchmaschinen statisch. Ansonsten sind sie dynamisch, werden mit großen Anstrengungen kompetenter Programmierer und Mathematiker ständig verfeinert und angepaßt. Prioritäten ändern sich damit ständig.

Eine Offenlegung der Algorithmen würde den jetzt bereits massiv vorhandenen Spam ins Unermeßliche steigen lassen. Suchmaschinen könnten ihrer Aufgabe nicht mehr gerecht werden.

Was jedoch garantiert bleibt: Content is the King. Und das ist wohl das Grundlegende von Google.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 10.09.2005, 08:49

angelpage schrieb: "Was jedoch garantiert bleibt: Content is the King. Und das ist wohl das Grundlegende von Google."

Der Inhalt einer Seite ist definitiv nicht der König! Wie könnte es ansonsten zu Google-Bomben kommen?? Links und der dazu passende Ankertext ist meiner Meinung das um und auf!
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Radagast
PostRank 6
PostRank 6
Beiträge: 378
Registriert: 22.09.2004, 07:01

Beitrag von Radagast » 10.09.2005, 09:17

jetzt sind wir wieder dort.

keiner weiss was für google am wichtigsten ist. Jeder hat seine eigene Meinung, und glaubt das er/sie recht hat.

Ich betreibe meine seo nach folgenden Kritierien in der Rangfolge:

- Authorität
- Contentgröße und KW Menge, bzw. Dichte
- interne Linkstruktur
- externe Linkstruktur (wobei diese wiederum für die Authorität wichtig ist)


den häufigsten Fehler den viele Seos machen ist meiner Meinung nach die Übertreibung von Punkt 2-4.
Hochwertige Links gesucht? Hier klicken

angelpage
PostRank 5
PostRank 5
Beiträge: 228
Registriert: 06.07.2004, 15:01

Beitrag von angelpage » 10.09.2005, 09:57

@ matin : ich redete über "Dauer" - Erfolge. Zeitweilige Ausnahmen gibts doch immer und überall ...

@Radagast : wirkliche Autorität (diese aber bitte ohne "h") erhält eine Seite durch Kompetenz, Inhalt und Umfang zu einem Thema. Automatisch ergibt sich dann auch eine Keyworddichte, eine absolute gibt es aber nicht.

Eine saubere Linkstruktur fördert das Ranking. Die zunehmenden Linkfarmen und Verlinkungen ausschließlich zur Täuschung (Erhöhung der "Bedeutung" einer völlig unwichtigen Seite in Suchmaschinen oder Darstellung eines ungerechtfertigten Pagerank) jedoch werden es zunehmend schwerer haben, denn sie sind ja gegen die Arbeit und den Sinn einer Suchmaschine gerichtet.

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 10.09.2005, 11:10

Die vielen verschiedenen Meinungen rühren zum Großteil auch daher, dass es viele verschieden Typen von Websites und damit Motivationen gibt.

Wer seine Adsense-SpamMaschine nach vorne bringen will wird ganz andere Kriterien als wichtig ansehen als jemand, der sein Meerschweinchen-Forum in die Ränge bringen will.
Wer seine Seiten selbst zusammenschraubt, wird mehr Wert auf OnPage Optimierung legen (weils ja einfacher geht) als jemand der einen vermurksten Online-Shop optimiert, da zählt OffPage weit mehr.

Ein Wort noch zum Content:
Wo soll denn der immer her kommen? Natürlich sind 2000 Lottoscheine besser als 2, aber die 10fache Seitenzahl verzehnfacht keineswegs den Traffic. Da kann man sich lange eine Karotte vor die Nase halten, bis man draufkommt, dass man nur Arbeit hat damit - für die man "im richtigen Leben" weit mehr bekommen hätte.

Radagast
PostRank 6
PostRank 6
Beiträge: 378
Registriert: 22.09.2004, 07:01

Beitrag von Radagast » 10.09.2005, 12:02

@angelpage

Sorry, ich bin gefehlt in deutsch


Nochmal zum Content:
Meine Erfahrungen: Ich meine damit hauptsächlich Content auf der einzelnen Page. Es bringt mehr bei 1000 Wörtern das KW 2 mal zu haben als bei 100 Wörtern drei mal.
Hochwertige Links gesucht? Hier klicken

LinkPop
PostRank 9
PostRank 9
Beiträge: 1677
Registriert: 02.05.2004, 13:52

Beitrag von LinkPop » 10.09.2005, 13:15

Google arbeitet heute noch genau so wie vor 10 Jahren. Links, Links und vor allem Links. Nur die Gewichtung selbiger wurde im Laufe der Zeit verändert (Hub, Authority, Beständigkeit, Zuwachs) und der Linktext gibt natürlich die Richtung an. Filter wie "Sandbox" wurden eingeführt, um die Ausnutzung der Schwachstellen des Algos zu verhindern.

Warum ist guter Content wichtig? Weil er Links bringen kann. Womit wir wieder wo wären? Bei den Links. Die gleichen Links können ebenso schlechten Content gut positionieren (siehe Serps). Was sagt uns das? Google kann guten und schlechten Content nicht voneinander unterscheiden, sondern läßt das wie eh und je von den Webmastern in Form der Votes erledigen und versucht "Absprachen" zu erkennen.

Die anderen 99+ Faktoren sind nur Beiwerk und können beim heutigen Algo vollständig durch Links ausgeschaltet werden (siehe wieder Serps).
[url=httpss://www.rankseek.com/][img]httpss://www.rankseek.com/img/rankseek-xs-2.png[/img][/url]
  • Täglicher Ranking-Check Deiner Top-Keywords mit Traffic-Index für Mobile und Desktop, Serp-View, Reporting, Ranking-Charts, Konkurrenzanalyse, Ranking-Verteilung, Keyword-Suggest und mehr für nur 11,90 € / Monat. Jetzt alle rankseek-Tools 30 Tage kostenlos testen » [url=httpss://www.rankseek.com/features.php]Features[/url]

schorsch
PostRank 7
PostRank 7
Beiträge: 613
Registriert: 26.08.2004, 23:00
Wohnort: Erlangen

Beitrag von schorsch » 10.09.2005, 13:50

ja links sind auf jedenfall ein sehr wichtiger faktor. ohne links geht nichts. was mir aber auffällt ist, dass man zb unter relativ unumkämpften begriffen mit unterseiten oben steht, obwohl kein einziger externer link auf diese unterseite mit diesem keyword linkt. interne lins linken genau mit der keywordkombi, unter der die seite dann oben steht. aber auch h1 und titel enthalten die gut platzierten keywords. jetzt die frage, wer ist der täter solche einer platzierung. nur die internen link oder vielleicht auch h1, title etc.
nach linkpops aussage dürfte ja h1 und so keine rolle spielen. wäre eigentlich mal einen test wert, wobei das natürlich immer schwer ist so etwas zu 100% nach zu weisen.

gruss

schorsch

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 10.09.2005, 13:50

Links.... Die anderen 99+ Faktoren sind nur Beiwerk
Ja, das ist eine Meinung unter vielen und als Beweis wird gerne Google-Bombing herangezogen. Sollte man aber auch klarstellen, dass das nur mit Keywords funktioniert, die keiner will - etwa "jämmerlicher Versager" oder dergleichen.

Ein Keyword in einer <h1>, <h2>, in der Meta-Description und ein paar mal im Text sparen dir viel Links kaufen und schnorren.
Eine ganz brauchbare Übersicht findet sich hier:
https://www.vaughns-1-pagers.com/intern ... actors.htm

LinkPop
PostRank 9
PostRank 9
Beiträge: 1677
Registriert: 02.05.2004, 13:52

Beitrag von LinkPop » 10.09.2005, 14:44

depp ich hat geschrieben:
Links.... Die anderen 99+ Faktoren sind nur Beiwerk
Ein Keyword in einer <h1>, <h2>, in der Meta-Description und ein paar mal im Text sparen dir viel Links kaufen und schnorren...
Deshalb sagte ich "können...ausgeschaltet werden ". Wenn ich etwas auf die grundlegende OnPage-Optimierung achte, muß ich diese Faktoren nicht mehr ausschalten und komme womöglich auch mit weniger Links ans Ziel.
[url=httpss://www.rankseek.com/][img]httpss://www.rankseek.com/img/rankseek-xs-2.png[/img][/url]
  • Täglicher Ranking-Check Deiner Top-Keywords mit Traffic-Index für Mobile und Desktop, Serp-View, Reporting, Ranking-Charts, Konkurrenzanalyse, Ranking-Verteilung, Keyword-Suggest und mehr für nur 11,90 € / Monat. Jetzt alle rankseek-Tools 30 Tage kostenlos testen » [url=httpss://www.rankseek.com/features.php]Features[/url]

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 10.09.2005, 14:55

schorsch hat geschrieben: nach linkpops aussage dürfte ja h1 und so keine rolle spielen. wäre eigentlich mal einen test wert, wobei das natürlich immer schwer ist so etwas zu 100% nach zu weisen.
habe vor einiger zeit mal seiten rein nach h1, keyworddichte usw. optimiert. das ergebnis war, dass sie in google so um seite 4 oder noch weiter hinter herum krebsten ... vereinzelt waren seiten unter den top 10. aber mit ein paar links und ankertexten ... schwuppsdiwups ... ab nach vorne gings ...
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 10.09.2005, 15:00

Dieses Auseinanderrechnen von OnPage und OffPage hat überhaupt keinen Sinn.

Du kannst eine Site noch so gut onPage optimieren, ohne Link taucht sie nicht auf. Und du kannst noch so viele Links haben, wenn du dich um onPage nicht kümmerst wird sie es auch schwer haben.

Die richtige Mischung machts aus, da braucht doch kein Mensch einen Test dazu.

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 10.09.2005, 15:03

depp ich hat geschrieben:
Die richtige Mischung machts aus, da braucht doch kein Mensch einen Test dazu.
stimme voll zu!
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag