Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nach Florida / Austin, mit Hilltop

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 04.02.2004, 11:58

Simpel gesagt ... google wird eine Überoptimierung nicht wollen, weil das ein
Zeichen von Manipulation sein muß. Das lässt sich mit Sicherheit auch mit ei-
nigen Statistikgesetzen schlüssig begründen.
Richtiiiiich :D, und ob eine Seite überoptimiert ist oder nicht wird an Hand von ganz wenigen Kriterien ausgemacht und ist meiner Meinung nach lange nicht so komplex wie es vielleicht erstmal erscheint. :wink:

Gruß
Frank
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

The Dance
PostRank 5
PostRank 5
Beiträge: 316
Registriert: 06.01.2004, 20:48
Wohnort: NRW

Beitrag von The Dance » 04.02.2004, 12:55

Ich bin der Meinung das Google abgesehn von einem neuen Filter um überoptimierte Seiten zu entfernen auch noch ein neuen Algorithmus entwickelt hat.

Ein Beispiel wäre eine Seite von mir auf der ich ein jpg (Landkarte zu einer bestimmten Stadt) habe.
Wenn ich jetzt bei Google nach Karte-(die Stadt) suche bin ich auf Platz 1
ohne das ich jemals etwas in diese Richtung optimiert habe. Konkurenten gibt es in diesem Bereich, doch sind die Karten sehr minderwertig.....mir scheint als wäre Google in der Lage die Qualität dieser Karte zu beurteilen.

Das Wort xxxx-Karte taucht ja nur einmal auf und reicht für die Pol ?
Das war früher nicht so, eine enmalige Wiederholung reicht für Platz 100 aber nicht für die Pol?

Mein Bruder (Informatik-Student) erzählte mir von einem Tool das in der Lage wäre den Inhalt von Fotos anhand Geometrischer Formen zu erkennen? Was ist wenn Google eines dieser neuen Tools nutzt um zu überprüfen ob Fotos mit Content übereinstimmen? Ich bin schwer der Meinung, das Google dabei ist Grafik zu bewerten, ein neuer Maßstab bei Seiten mit optischen Implementierungen wird entstehen.

Wie sonst lässt sich meine Beobachtung erklären?

Gruß, The Dance

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 04.02.2004, 13:00

mir scheint als wäre Google in der Lage die Qualität dieser Karte zu beurteilen.

:wink: ... bitte ... gebt diesem Riesenlinksammler nicht eine ganze KI ... sonst muß ich
Angst haben, daß irgendwann der Google-Golem die Weltherrschaft übernimmt.

Hasta la Vista Baby 0X

Huibert

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Jörg
PostRank 9
PostRank 9
Beiträge: 1168
Registriert: 03.07.2003, 07:06

Beitrag von Jörg » 04.02.2004, 13:08

@ the dance

bei einem meiner keywords befindet sich auch schon seit geraumer zeit eine seite in den top 10, die außer einer karte nur den keyword enthaltenden titel und den untertitel "To see full size map, click on the image." enthält. und einen backlink mit dem keyword im linktext. an die fähigkeit googles, die qualität von karten zu erkennen, oder gar die themenrelevanz, mag ich dennoch nicht glauben :)
Suchmaschinenoptimierte Forensoftware ::: [url=httpss://joergs-forum.de/]Webmaster-Forum[/url]

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 04.02.2004, 13:10

@ seoxx

wie erklärst Du es dann aber, daß so viele auch schlecht optimierte (zumindest nicht überoptimierte) Seiten rausgefallen sind.

Grüße Thomas

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 04.02.2004, 13:25

Hi Thomas,

rausgefallen ist meiner Meinung nach bei Austin garkeine Seite. Lediglich unter dem jeweilig optimierten Keyword ausgeblendet. Um nun genau zu beurteilen wegen welchem Kriterium nun die nicht optimierte Seite unter dem jeweiligen Keyword ausgeblendet wird, muss man natürlich die jeweilige Seite kennen.

Dummes Beispiel:
Jemand optimiert seine Seite nicht, trägt sich aber unwissentlich und mit guten Gewissen (nicht aus Spamgründen) in zehn Gästebücher ein und versteht danach die Welt nicht mehr, wenn er unter seinem Keyword ausgeblendet wird. Dann hat er zwar seine Seite nicht wissentlich optimiert, aber ist dennoch in den Filter gelaufen. :wink:

Gruß
Frank
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 04.02.2004, 13:33

@auer:
immer wieder gleiche eingehende links (keyword text) sind ein grund zur abstufung. da teile ich deine meinung.

The Dance
PostRank 5
PostRank 5
Beiträge: 316
Registriert: 06.01.2004, 20:48
Wohnort: NRW

Beitrag von The Dance » 04.02.2004, 14:45

Ich bleib bei meiner Meinung das Google in der Lage ist Qualität zu beurteilen.
Ich hab ja noch mehr Beispiele als nur das eine mit dem jpg, ein weiters Indiez ist das ich vermehrt Seiten mit gutem Content auf besseren Positionen habe, aber html´s die auf Pol waren mit nur einem Keyword-Kombo und ohne Content hat es weit nach hinten geschlagen weil dort der "anständige" Inhalt gefehlt hat...

Bei mir waren zum Beispiel Fotos zu sehen und darunter habe ich den Ort erwähnt ( das Keywort z.B. Ägypten), dann wiederholt in den Metas eingebunden sprich Description, Titel und Alt Tag´s auch ..... So, das ich das Wort ca 12 mal drin hatte mit 5% Gewichtung. Keyword allerdings NICHT als html oder sonst in der Url. Die Seite hat Pr 4 ob das eine Rolle spielt weiss ich noch nicht so genau.

Nach 2 Wochen war die html unter den Top 10 um nach Austin wieder auf 49 zu verschwinden. Ich bin noch drin weil die Bilder zum "fehlenden Content" passen aber die Qualität ist schlecht und zu RECHT auf 49 oder in diesen Bereichen und nicht unter den ersten 10 / Suchbegriff (Fotos Ägyten) ich will ja ehrlich sein!

Was ich damit sagen will ist das der Filter zum Teil schon das richtige getan hat aber da ist noch etwas das zu einer externen Beurteilung führt.
Warum hat es die eine Seite nach hinten verschlagen und die andere mit passendem Content und nur einmaliger Wiederholung des Keyword auf Pol ??

Die Seite zu Ägypten war bestimmt nicht überoptimiert mit 5% Dichte, das kann mir keiner erzählen...die Qualität fehlte!!!

Gruß, The Dance

The Dance
PostRank 5
PostRank 5
Beiträge: 316
Registriert: 06.01.2004, 20:48
Wohnort: NRW

Beitrag von The Dance » 04.02.2004, 15:04

P.S. ich hab aus reiner Neugier die selbe Seite auf einer anderen Url jedoch MIT der Html als Keyword gestartet. Bin gespannt wie sich das dann auswirkt wenns mit in der URL steht.....auch 49 oder nicht???? In 2 Wochen weiss ich mehr.

Mfg

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 04.02.2004, 20:19

moin moin,
Behauptung: Eingehende Links mit wiederholtem Keyword
führen zur Abstrafung unter diesem Keyword, daraus Schlußfolgerung:
Man könne einen Konkurrenten abschießen, indem man tausendfach
auf ihn linkt.
ich habe eine domain, die von jeder seite (150) auf einige andere linkt
mit immer demselben linktext (keywordx.1). bei allen angelinkten
domains sind fast keine anderen eingehenden links, sodass keywordx.1
annähernd 100% ist.

domain1
100% keyword1.1 position >300 (vor austin 4)
0% keyword1.2 position 1 (vor austin 1)
0% keyword1.3 position >300 (vor austin >300)

jetzt habe ich den linktext in keyword3 geändert. dadurch, dass google
die ausgangs-website nur langsam durchspidert, kommt die änderung
auch nur langsam zum tragen.

domain1
90% keyword1.1 position 193
0% keyword1.2 position 1
10% keyword1.3 position 233

domain1
80% keyword1.1 position 169
0% keyword1.2 position 1
20% keyword1.3 position 183

diese tendenzen werde ich mal weiterbeobachten
wenn keyword1 auf keyword2 umgestellt sind, werde ich auf
keyword2 wechseln und dann sehen wir weiter, ob man domains abschiessen kann.

weiterhin habe ich beobachtet, dass das nicht auf alle keywords zutrifft.
ob es die besagten adwords sind, die gefiltert werden, wäre dann noch
zu klären. ich hätte da noch eine andere vermutung.

domain2
100% keyword2.1 position 4 (vor austin 2)

domain3
100% keyword3.1 position 1 (vor austin 2)

Gegenteilige Folgerung, analog zum Beispiel zuvor: Eine Domain,
die von jeder Unterseite auf eine andere Domain linkt, degradiert sich
selbst zur Verweisdomain und verwischt ihren eigenen Content, also kann
sie auch ausgeblendet werden oder zerbröseln.
würde bedeuten, dass das abakus-forum mit zigtausend seiten mit
links im footer, zerbröseln müsste.

ich finde es immer wieder spannend wie blosse vermutungen zu
wahrheiten werden. ich sage nur rasieren bei sonnenaufgang. 8)

grüsse

ps: zu framesets nur soviel "meine sind noch vorn" :D

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag