Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Bla bla vers. gute Definition

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 03.01.2010, 20:51

Das kann nur 2 Schlüsse zulassen:

a) es bleibt ein amüsantes Glücksspiel mit eher geringen, wirksamen Manipulationsversuchen

b) die Sachverhalte sind von Keyword zu keyword so unterschiedlich, daß eine Gemeinschaft NIE einen Konsens finden kann (womit dieses Forum und überwiegend jeder Post komplett sinnlos ist).
In erster Linie ist SEO Erfahrung, in zweiter Linie Instinkt und Grundlagen-Wissen und dritter, vierter und fünfter Linie Fleiss und Hartnäckigkeit. Wenn es ein Grundrezept gäbe, das überall funktioniert würde es keine Optimierer geben. (Aber vermutlich auch die Firma Google nicht)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

xAaron
PostRank 5
PostRank 5
Beiträge: 329
Registriert: 23.08.2009, 18:10

Beitrag von xAaron » 04.01.2010, 00:53

@nanoware Du hast eine komische Sicht auf die Dinge. Irgendwie erwartest du hinter SEO eine exakte Wissenschaft und findest aber nur den Versuch einer Annäherung daran vor. Alle Wissenschaft ist Annäherung an die Wahrheit, wobei unsere halt durch den google-Algorithmus definiert wird. SEO ist halt der Versuch durch Empirie, gesunden Menschenverstand und Fachwissen im Bereich des maschinellen Lernens herauszufinden, was die relevanten Faktoren für den google-Algorithmus sind um sie entsprechend anzupassen. Und die groben Fakten liegen auch klar auf der Hand: title, h1/h2..., Keyworddichte, Urls/Bilder gut benannt, backlinks guter Seiten...
Das ist alles banal und das Problem liegt vor allem darin, dass sich offpage Faktoren nicht nach belieben anpassen lassen. Wer hat denn das Geld um Adobe zu kaufen nur um einen link von adobe.com für seinen Dackelzüchterverein zu kriegen?
Sehr geehrter Herr SEO Guru, ich habe eine frage zu Ihren Backlink Tipps. Es ist nämlich nicht so einfach ein Raumschiff zu bauen um einen Backlink von der NASA zu bekommen... bitte antworten Sie auf meine Mails. Zitat von winman.de

SEO-Evangelium
Nutzer/in
Nutzer/in
Beiträge: 862
Registriert: 10.11.2008, 20:58

Beitrag von SEO-Evangelium » 04.01.2010, 01:56

tkay hat geschrieben:Zu den Abstrafungen - na da kannst du dich dann richtig freuen wenn dir das noch nicht passiert ist ;)

Für einen ersten Überblick mal folgende Aufzählung zu den Penaltys:

1. -6 Ranking Penalty:
Neue Abstrafungsform. Etablierte Seiten rutschen von TOP3 auf Pos.6 wenn "überomtimiert wurde".

Ist eine relativ neue Beobachtung und ob es eine Penalty ist oder nicht muss noch genauer analysiert werden, aber das Phänomen gibt es.

2. -30 Suppression Penalty (betrifft ganze Domain): Seite verliert 30 Positonen.
Kommt bei:
- Keywordstuffing, wenig Content
- Gästebuchspam
- JavaScript Redirects
- Doorway Pages
- zu viele identische Linktexte

3. -50 Paid Links Penalty: Seite verliert 50 Positionen.
Betrifft Seiten die sich Links gekauft haben.
Betrifft Seiten die Links verkaufen.

4. - PageRank Penalty (Lightversion der -50 Penalty):
Pagerank wird herabgesetzt
betrifft i.d.R. PR starke Seiten, die Links verkaufen.
Rankings werden nicht beeinflusst
wenn verkaufte Links auf nofollow gesetezt / entfernt werden,
lässt dich der ursprügliche PR wiederherstellen.

5. -950 Penalty (sehr aggressivers Crawler verhalten in der Zeit)
sätrkste Penalty Form.
Seite wird auf letzte Ergebnisseite verbannt.
Es werden wohl nur einzelne Seiten, nicht die ganze Domain
zurückgesetzt.
Gründe (vorbehaltlich) exzessives Linkbuilding, übermässige
OnPage-Optimierung, übertriebene Affliate-Links
ist nicht exakt -950 - aber Domain befindet sich in den letzten
Ergebnissen.
Ganze Domain oder Unterverzeichnis sind betroffen.
"Over Optimization Penalty" - Matt Cutts.

Wie gesagt, es soll nur ein ganz grober Überblick sein, im Einzelnen kann man das noch sehr verfeinern ;)

Zu den Autosubmittern: Da wirst du immer nur pers. Erfahrung hören können, da jede Seite und jedes Key anders ist und gewisse Erkenntnisse nicht zwangsläufig auf andere Übertragbar sind. Ich hab sowas vor paar Jahren mal probiert und gebracht hats nix (kann viele Ursachen haben) einige machen es noch heute und es bringt was (kann auch viele Ursache haben) - darum gehen die Meinungen bei dem Thema auch auseinander ;)

Im Zweifelsfall probiere es selber und hast dann eine Erkenntnis für dich :)
...liebe Kinder - nicht allzuernst nehmen. Da ist sicher die Fantasie, bei allem Respekt für Teileffekte, mit jemand durchgegangen. :wink:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 04.01.2010, 04:06

Doppelposting^^
Zuletzt geändert von catcat am 04.01.2010, 04:12, insgesamt 1-mal geändert.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 04.01.2010, 04:11

nanoware hat geschrieben:[...]

Wie das aber im Detail aussieht, wie man auf einer Seite, die einfach wenig Content hat "sinnvollen Content" bekommt, oder welcher Backlink nun das große Böse verkörpert und welcher die heilige Kuh ist, das kann offenbar nicht beantwortet werden.
Das hab ich nicht geschrieben, weil es eh sonnenklar ist:

Content bekommst Du, indem Du ihn für Deine User schreibst oder schreiben läßt. Entweder von usern (in Foren) oder von Textern.

Backlinks einschätzen ist auch keine Kunst. Ein Footerlink von einer Schrottseite, die auch nur durch Linkkauf gepusht wurde, ist nicht so gut wie ein Backlink von einer gut gepflegten, themenrelevanten Seite.

Das ist alles keine Kunst. Man muß es nur wissen: Entweder durch lesen oder trial&error.
------------
Und nen "Konsens" wirst Du niemals finden, da jeder ne andere Strategie fährt. Der Eine setzt heute ne Site auf und will morgen mit AdSense Geld verdienen. Der andere läßt sich x-10.000 Worte schreiben und haut alles auf einmal raus. Der nächste schreibt selbst und macht jeden Tag eine gute Seite fertig.
Einer schwört auf AdWords, der andere auf Satelliten, wieder einer auf beides. Der Nächste kloppt gekaufte Russenlinks drauf und macht 2 Wochen Geld mit der Site bis sie verbrannt ist...

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 04.01.2010, 10:13

xAaron hat geschrieben:@nanoware Du hast eine komische Sicht auf die Dinge. Irgendwie erwartest du hinter SEO eine exakte Wissenschaft und findest aber nur den Versuch einer Annäherung daran vor. Alle Wissenschaft ist Annäherung an die Wahrheit, wobei unsere halt durch den google-Algorithmus definiert wird. SEO ist halt der Versuch durch Empirie, gesunden Menschenverstand und Fachwissen im Bereich des maschinellen Lernens herauszufinden, was die relevanten Faktoren für den google-Algorithmus sind um sie entsprechend anzupassen. Und die groben Fakten liegen auch klar auf der Hand: title, h1/h2..., Keyworddichte, Urls/Bilder gut benannt, backlinks guter Seiten...
Das ist alles banal und das Problem liegt vor allem darin, dass sich offpage Faktoren nicht nach belieben anpassen lassen. Wer hat denn das Geld um Adobe zu kaufen nur um einen link von adobe.com für seinen Dackelzüchterverein zu kriegen?
Hallo, danke, stimmt!
Ich versuche nach den ersten Hardfacts (h1 Tags...) auch noch etwas Greifbares zu finden. Keine durchgestylte Generallösung. Aber wenn der eine sagt, daß Links von einer Seite auch negativ sein können, der andere sagt, daß es komplett egal ist, im schlimmsten Fall einfach nichts bringt...
wenn einer der Ansicht ist, daß man bei der einen Aktion ganz sicher von Google angestraft wird und der nächste macht das genau so schon erfolgreich seit Jahren, dann stimmt doch mit dem Fachwissen etwas nicht. Das muss doch definierbar sein, ohne daß mir alle großen Suchmaschinenoptimierer in den Rücken fallen und sich Ihrer sicher guten Erfahrung beraubt sehen, nur weil man ein paar mehr Basics / Standards versucht zu definieren.

Egal in welchem Forum, die Unsinnigkeiten und klaren Wiedersprüche sind im SEO Bereich stärker, als bei allen anderen EDV lastigen Sparten. Und das liegt nicht zu letzt an den aktuell noch eher dürftigen "ja so ist das" Aussagen.

Verstehst Du in etwa, worauf ich hinaus will?
Wir haben uns doch schon alle drauf geeinigt, daß h1 Tags gut sind (oder mal gut waren, ist ja auch schon wieder in der Diskussion). Warum lässt sich nicht einfach klar festlegen, ob ein Backlink, egal von welcher Seite, auch Schaden anrichten kann.
= wenn eine andere Seite auf mich verlinkt, dann kann das meiner Meinung nach keinen Schaden anrichten, da man sich ja nicht dagegen wehren kann. In sofern wär das ganze "vorsicht vor schlimmen Links" Gerede nur heiße Luft. Wenn das mal definiert würde, dann fallen auch viele Diskussionen per se weg.

Also: Hat jemand schon konkret DAMIT Erfahrungen gemacht?
Gibt es mehr als "hören-sagen" Beispiele von einer Verschlechterung des Rankings, da "faule Backlinks" dabei waren?

tkay
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 04.09.2008, 11:32

Beitrag von tkay » 04.01.2010, 11:12

...liebe Kinder - nicht allzuernst nehmen. Da ist sicher die Fantasie, bei allem Respekt für Teileffekte, mit jemand durchgegangen.
Im Kern eine sehr richtige Anmerkung! Allerdings habe ich mehrmals betont, dass dies für den Fredsteller - der nach eigener Aussage noch nie richtig was von Penaltys gehört hat - eine erste Übersicht sein sollte.

Natürlich sind das keine "Fakten" sondern Beobachtungen/Phänomene die eben unter den Überschriften wie "-50 Penalty" etc. im Gespräch sind, genau wie die beschriebenen "Ursachen". Das dies mit Vorsicht zu genießen ist, dürfte denke ich hinlänglich klar sein, für einen ersten Eindruck/Überblick der Themen die in Sachen Penalty gerade im Gespräch sind, dürfte es aber durchaus ausreichen ;)

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 04.01.2010, 11:29

@ nanoware
Wenn etwas nicht so funktioniert wie Leute es erwarten neigen nicht nur SEOs dazu, sich die Situation eigenständig zu erklären. So eine eigene Erklärung kann aber immer nur auf der Basis des eigenen (meist dann sehr eng begrenzten Wissens) erfolgen. Somit muss niocht alles richtig sein, was jemandem auf den ersten Blick als logisch und sonnenklar erscheint. Meist fehlen wichtige, dem Entwickler dieser Theorie unbekannte oder falsch eingeschätzte, Faktoren.

So kann eine völlig "unoptimierte" Seite zu schwachen Keys durchaus prima ranken und eine mutmaßlich optimierte eben nicht, weil die Wichtigkeit des Title-Tags falsch eingeschätzt wurde, der Text in einer Weise formuliert wurde die es einer Suchmaschine schwer macht Wichtiges von Unwichtigem zu unterscheiden oder die Keys viel zu häufig verwendet wurden und so weiter und so weiter. Es gibt Leute die sagen es gibt hunderte Faktoren, ich selbst sehe deutlich weniger, aber immer noch genug. Selten liegt nur eine Ursache vor, meist kandelt es sich um eine Kombinaton mehrerer Faktoren die in ihrem darüber entscheiden, dass eine Webseite schlecht gefunden wird.

Hilfen gibt es viele, neben den Grundlagen hier, bei Sistrix oder anderen gibt es gie Google-Hilfe für Webmaster, den Blog, das W3C und vieles, vieles andere was öffentlich zugänglich ist. Allen zu eigen ist, sie machen Mühe, da man lange lesen und viel lernen muss.

Diese Mühe machen sich aber nur wenige und diejenigen die sie sich gemacht haben werden ihr Wissen bestimmt nicht kostenlos mit denen teilen, die zu faul dafür sind. Neben bei hat wohl auch niemand die Zeit dafür so etwas zu tun, ohne das es sich monetarisiert. Insofern würde es mich wundern, wenn jemand eine Anleitung stellt die mehr als die wichtigsten Grundregeln enthält. Diese wäre auch, sobald eine Suchmaschine ihren Algo anpasst oder Filter verändert bzw. neu einführt, sogleich veraltet. Und wenn eine Suchmaschine sowas tun würde, wären die Folgen unabsehbar. So wäre auch die letzte "Lücke" im System auffindbar und der Manipulation erst Recht Tür und Tor geöffnet - Schlimmer als jetzt.

SEOAgentur
PostRank 6
PostRank 6
Beiträge: 439
Registriert: 05.08.2009, 15:39

Beitrag von SEOAgentur » 04.01.2010, 11:59

Alda hat geschrieben: ...eine Suchmaschine ihren Algo anpasst oder Filter verändert bzw. neu einführt, sogleich veraltet. Und wenn eine Suchmaschine sowas tun würde, wären die Folgen unabsehbar. So wäre auch die letzte "Lücke" im System auffindbar und der Manipulation erst Recht Tür und Tor geöffnet - Schlimmer als jetzt.
Hallo Alda,

die letzten Sätze verstehe ich nicht. Suchmaschinen (Google wenigstens) passen doch dauernd ihren Algo an. Inwiefern das die letzte Lücke im System auffindbar macht (will Google mit Algo-Änderungen nicht eher mal eine Lücke schließen?), ist mir nicht klar.
SEO und Social Media Agentur: https://www.max-search.de/

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 04.01.2010, 12:20

SEOAgentur hat geschrieben:Hallo Alda,

die letzten Sätze verstehe ich nicht. Suchmaschinen (Google wenigstens) passen doch dauernd ihren Algo an. Inwiefern das die letzte Lücke im System auffindbar macht (will Google mit Algo-Änderungen nicht eher mal eine Lücke schließen?), ist mir nicht klar.
Vielleicht hab ich mich unklar oder umständlich ausgedrückt. Wenn jedermann Algo und alle Filter kennen würde, kann (theoretisch) auch jeder die Lücken im System ermitteln und natürlich, um seine Seiten relevanter erscheinen zu lassen, mit dem Wissen auch voll an die Grenzen gehen.

Seite 1 hat aber trotzdem nur 10 Plätze.

In der Praxis wäre das aber wieder lediglich denjenigen vorbehalten die entweder selbst über die entsprechende Bildung, also das Wissen verfügen die Schwächen innerhalb eines Algos zu ermitteln oder denjenigen die das Wissen bezahlen können. Werden reine MFA oder Affiliseiten dadurch "besser" oder informativer für den User? Ich vermag das nicht zu beantworten.

Komplett unberücksichtigt bleibt hier die Situation der Suchmaschinenanbieter untereinander. Auch da wäre dann jeder tagesaktuell auf dem Stand des jeweils anderen. Wie nennt man das, Kartell? Darüber hinaus sehe ich noch viele andere Nachteile, was hier aber wioh viel zu weit führen würde.

SEOAgentur
PostRank 6
PostRank 6
Beiträge: 439
Registriert: 05.08.2009, 15:39

Beitrag von SEOAgentur » 04.01.2010, 13:45

@Alda Oh okay, war vorher etwas unverständlich. :-)

@Threadersteller Augen offen halten, manchmal, manchmal gibt es hier wertvolle Infos, wenn die, subjektiv empfunden, immer seltener geworden sind.
SEO und Social Media Agentur: https://www.max-search.de/

xAaron
PostRank 5
PostRank 5
Beiträge: 329
Registriert: 23.08.2009, 18:10

Beitrag von xAaron » 04.01.2010, 15:54

nanoware hat geschrieben: Aber wenn der eine sagt, daß Links von einer Seite auch negativ sein können, der andere sagt, daß es komplett egal ist, im schlimmsten Fall einfach nichts bringt...
wenn einer der Ansicht ist, daß man bei der einen Aktion ganz sicher von Google angestraft wird und der nächste macht das genau so schon erfolgreich seit Jahren, dann stimmt doch mit dem Fachwissen etwas nicht.
Was du noch nicht verstanden hast, ist das die Parameter mit einander verwoben sind, wie ich es in meinem ersten Posting geschrieben habe. Sprich wenn jemand kaum backlinks hat, also wenig trust, und er von einem Tag auf den anderen 1000 Backlinks von verschiedenen osteuropäischen Webseiten bekommt, dann kannst du ihn in der Kanalisation finden. Wenn irgendwer 1000 Backlinks von verschiedenen osteuropäischen Webseiten auf Wikipedia setzt, dann ist das so irrlevant für den Weltenlauf wie auf dem Deich gegen den Wind zu schreien.

Verstehst du, es sind alles Faktoren, die zusammen wirken, die korreliert sind, deshalb lassen sich häufig auch nicht allgemeingültige Aussagen bezogen auf einen Parameter treffen.
Beispiel: "Stürze ich ab, wenn ich auf ein neues CMS mit neuer linkstruktur umstelle? Keine Ahnung, bei 0 Backlinks kannste drauf wetten. Wenn du adobe.com bist, dann ist das nahezu ausgeschlossen."
Sehr geehrter Herr SEO Guru, ich habe eine frage zu Ihren Backlink Tipps. Es ist nämlich nicht so einfach ein Raumschiff zu bauen um einen Backlink von der NASA zu bekommen... bitte antworten Sie auf meine Mails. Zitat von winman.de

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag