Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ursachen für Abwertung von Webkatalogen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Sumatis
PostRank 9
PostRank 9
Beiträge: 1026
Registriert: 12.01.2006, 12:24

Beitrag von Sumatis » 25.01.2008, 16:03

Aber ein BL-Feld oder das Wort "Backlink" alleine sagt noch nichts über die Voraussetzungen und Bedingungen aus.
G scheint ja nur was gegen den Pflicht-BL zu haben.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 25.01.2008, 17:20

Sumatis, Google hat sicher auch etwas gegen die schlechten (+doppelten) Inhalte und ausgehende Links zu bad neighbourhood Seiten.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 25.01.2008, 22:25

Also, Links verkaufen statt tauschen.

Gruß Scubi

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Ju-Hu!
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 23.12.2007, 00:39
Wohnort: Leipzig

Beitrag von Ju-Hu! » 26.01.2008, 02:10

Luzi hat es schon auf den Nenner gebracht.
ein katalog mit 98% reziproken links wird aller wahrscheinlichkeit nach backlinkpflichtig sein, einer mit 37% aller wahrscheinlichkeit nach nicht. so und nicht anders erkennen sie es vollautomatisch, ohne die site auch nur ein mal in augenschein nehmen zu müssen .
Das kombiniert mit einem Schwellwert erklärt teilweie Google's Weisheit. Google hält sehr viel von "Schwellwerten" *g*. Das geht voll mathematisch ab und bedarf i.d.R. keines Eingreifens.

Es mag immernoch Kataloge mit BL-Pflicht geben, die gut oben sind. Aber da verschieben offenbar andere Faktoren den "Schwellwert" an der Grenze zur Abstrafung *g*

Ein Anteil zu vieler Reziproker Links läßt immer auf "SEO", statt "Web 2.0" schließen. Google hat es einfach ...

gelegenheitsbot
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 16.11.2007, 00:30

Beitrag von gelegenheitsbot » 26.01.2008, 03:47

wie gesagt - google "denkt" relativ - weniger absolut. richtet euch darauf ein .. bis zum nächsten algo .... wenn man glaubt google zu haschen .... versinkt man :D bzw. riecht an deren auspuff!
Meinen Kritikern empfehle ich:
https://de.youtube.com/watch?v=ZfCLfbQJATI

duschaust
PostRank 2
PostRank 2
Beiträge: 63
Registriert: 30.10.2007, 14:31
Wohnort: Münster

Beitrag von duschaust » 26.01.2008, 04:12

Und was heisst das nun konkret ? Ich versteh als Anfänger und hobbyseo nur Bahnhof, was muss geändert werden?

gelegenheitsbot
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 16.11.2007, 00:30

Beitrag von gelegenheitsbot » 26.01.2008, 04:28

Ich bin auch noch Anfänger - sind wir wohl alle hier. Weil google ab und an mal nen Rappel hat und tendenzielle Manipulationen gen Masse mal nen neuen Algo schreibt. Nicht komplett neu - aber so ne Schraube an manchen Filtern zieht (persönlicher Eindruck).

Ich kann nur sagen, das ich ein Buch über SEO gelesen hab ... und der Gesamteindruck zeigt, das google eher relativ auswertet. Ist meiner Me9inung nach auch logisch.

Nehmen wir an du hast ein keyword-combo.

Also "maus katze".

die google gleichung ist:
xq * a1 + x2 * a2 + .... + xn = an.

Ist statistisch wie mathematisch weit verbreitet um gute Quali-Quanti-Werte zu erzielen.

Google besitzt 200 Filter ( = 200 terme der gleichung) ... obwohl das ne alte weit verbreitete meinung ist, die meiner meinung nach anhaltspunkte bietet, aber in der optimierung "überholt" ist.

im forum siehst du hier viele aussagen.

setzte alles ins verhältniss!

bsp:

keyword/ keyworddichte
title-key/ alle title-keys
backlink/ outbounds..

usw.

200 kriterien schaff ich nicht.

aber mit etwas logik bekommt man viele zusammen.
Problem ist die Wichtung.
Die ändert google meiner Meinung nach jeh nach Trend und Manipulationsgrad.

Auch wenn dir mein Kommentar wenig bringt ..... lese hier in den Foren mit.
Die Tendenz stimmt!
Wettbwerbsvorteil heisst hier - google Wertungskriterien einzuschätzen.
Dazu heisst es, "Trends" abzuschätzen.

Mancher SEO hat hier schon nach gutem Ranking nen Kasten Bier gekauft nachm Absturz.

SEO ist dynamisch.
Suma sind dynamisch.
Fortschritt ist dynamsich.

Jage allem hinterher!

DIE SEO-OPTIMIERUNGSFORMALE LAUTET:
(nur für mathematiker und lineare optimierer)

1. Ebene
x1 x a1 + x2 x a2 + ... xn + an -> google max!

2. Ebene
suma1 x ergebnis + suma2 x ergebnis + suma(n) x ergebnis(n) = Gewinn (max).

Rechen dabei google zu 90% ein.

Okay das ist sehr einfach formuliert ... wer meckert bekommt von mir komplexere Formeln! :D

Kann das bis zur linear optimierten Simulation treiben! :D

Bitte um Besserwisser! :D
Meinen Kritikern empfehle ich:
https://de.youtube.com/watch?v=ZfCLfbQJATI

Ju-Hu!
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 23.12.2007, 00:39
Wohnort: Leipzig

Beitrag von Ju-Hu! » 26.01.2008, 04:35

Und was heißt das nun konkret ?
Ganz einfach: künstliches pushen unterlassen.

Einfach so tun, als lege man ein völlig normales Wachstum hin *g*.

Google versucht Seiten wie ein "Mensch" zu bewerten". Google orientiert sich bei dem Thema "Wachstum" an Erfahrungswerte.

Nicht zu viele BL's in kurzem Zeitraum raffen.
Mehr als 2 Sätze in den Content einfügen.
Versuchen, Besucher länger als ein paar Millisekunden zu halten (durch "guten" Content).
"Natürliches" Linkwachstum.
Nicht zu viele Reziproke Links.
Und ..... sammele einfach Deine Erfahrungen ....



Ich glaube, heute sind "non reziproke" Backlinks wichtig, wechselnder aktueller (unique) Content und die Aufenthaltsdauer der Besucher. Also das, was eine gute "Web 2.0" Seite ausmacht.

Google, mit einem Fundus von Milliarden Seiten, merkt sehr wohl, was gepusht ist, oder durch "User-Verhalten" als "hochwertig" klassifiziert wurde.

Die alten "Spam-Methoden" kannste bald (ja ,wann?) vergessen, wie Gelegenheitsbot meinte.

Wenn Du eine definitive Antwort wünschst, weniger philosophisch, dann müsstest Du einen gewaltigen Feldversuch mit Millionen Seiten durchführen *g*.
Denn aktuell könnte Dir nur Google sagen, was Du tun musst, um auf Platz 1 bei jedem KW in den Serps zu kommen *g*

Also konkret: versuche in Deiner Optimierung das menschliche Verhalten zu berücksichtigen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag