Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erholung von Florida und Austin : Artikel übersetzung

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
unique
PostRank 7
PostRank 7
Beiträge: 542
Registriert: 09.02.2004, 01:36
Wohnort: Berlin / Warschau

Beitrag von unique » 10.02.2004, 00:18

Wenn zunehmend Links von contentverwandten Seiten zählen, wird es sich für die Zukunft wohl lohnen, mehrere Domains für ein Keyword zu registrieren, optimieren und untereinander Verlinken - zusätzlich noch viel Content auf den Seiten erstellen, damit diese gut gelistet sind... Die meisten Links auf die 'Hauptdomain' setzen, damit diese so weit wie möglich oben steht :roll:

Die verschiedenen Domains evtl. noch bei verschiedenen Hostern anmelden, damit sie Google nicht am IP-Block erkennt :)

Beispielsweise könnte man z.B. zu einem Bestimmten Thema ein Lexikon auf einer Domain anbieten, auf einer anderen ein Forum und auf einer anderen einen Shop... Sehe ich das richtig? Oder wäre es evtl. sinnvoller, auf viel Content auf einer Seite zu setzen und alles unter einer Domain zu vereinen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Jörg
PostRank 9
PostRank 9
Beiträge: 1168
Registriert: 03.07.2003, 07:06

Beitrag von Jörg » 10.02.2004, 00:43

unique hat geschrieben:Oder wäre es evtl. sinnvoller, auf viel Content auf einer Seite zu setzen und alles unter einer Domain zu vereinen?
dazu hat zumindest google selbst geraten:
Marissa Mayer, Director of Consumer Web Products at Google. hat geschrieben:Have unique useful content. Have sitemaps. Make your site easy to reach with a text-based browser. Give your site a hierarchal structure. Have a single domain with mini-sites within, rather than having lots of sites.
(fette markierung von mir)

Quelle
Suchmaschinenoptimierte Forensoftware ::: [url=httpss://joergs-forum.de/]Webmaster-Forum[/url]

Jupp
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 21.01.2004, 23:02
Wohnort: NRW

Beitrag von Jupp » 10.02.2004, 03:55

Hallo unique,
was Jörg zitiert, solltest Du unbedingt beherzigen, kannich nur zu raten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 10.02.2004, 08:14

Moin.
Die verschiedenen Domains evtl. noch bei verschiedenen Hostern anmelden, damit sie Google nicht am IP-Block erkennt
Wie wahrscheinlich ist denn diese These?

Ich erstelle nicht unbedingt eine Vielzahl von Internet-Auftritten, aber alle hoste ich (als Reseller) bei einem Anbieter.

Und nun gibt es Kunden deren Themen untereinander passen (oder auch nicht). Da frage ich nach Links, um sie einander auf den Sprung zu bringen, sich um Backlinks zu kümmern.

Diese These würde doch, durchaus seriöses und dem eigentlich "Surf-Gedanken-des-Internets" dienliches verlinken, die Sache völlig durcheinander bringen. Da würde ich sagen: Danke, Google, da bete ich für den Erfolg einer anderen Suchmaschine, die nicht so rigoros mit den gesammelten und gleichzeitig, in Hinsicht auf den Datenschutz, fragwürdigen Informationen umgeht.

Gruß
Klaus

staatz
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 10.02.2004, 10:05

Beitrag von staatz » 10.02.2004, 10:11

ich habe eine grosse seite mit pr6, da gibts einen link zu "thema"
anchor text is also "thema"
suche ich nun bei google nach "thema" wird aber nicht die seite gefunden, die ich verlinkt habe, sondern die seite woher der link stammt?!

das bedeutet, ich mach auf meine kleine seite einen link zu micros*ft mit anchor "thema" und schon würde meine seite wo der link steht zum suchwort "thema" gefunden!?!?!?

kann ja wohl nicht sein!
habs aber leider sogar 2x!
völlig irrelevante seiten aus einem ganz anderen bereich werden gefunden.

also wenn sich das nicht ändert werden so einige anbieter bald mit links zugeschüttet!

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 10.02.2004, 10:55

moin staatz,

das sollte sich aber noch feineinstellen lassen von google.

am anfang von florida war unter dem keyword "webdesign"
auch eine eishockeymannschaft aus calgary, die hatte unten
im footer einen link "webdesign by".

das wird noch. jeder findet diverse beispiele, wo der neue index
echt (noch) beknackt ist, aber ich finde auch tausende, wo der
index für den suchenden sich echt verbessert hat.
vor allem die masse der semiprofessionalen doorwayspammer
hat doch kräftig einen auf die mütze bekommen, obwohl einige
das doch in ihren tarotkarten oder horoskop hätten kommen
sehen müssen.

grüsse

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 10.02.2004, 11:08

@Jörg

Entscheidend beim Rat auf große Seiten mit klarer Struktur und Untereinheiten zu setzen ist auch noch die Frage ob damit eventuell Subdomains gemeint sind. Dies würde zumindest eine Erklärung für die manchmal sehr gute Positionen solcher Subdomains derzeit erklären.

Grüße Thomas

staatz
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 10.02.2004, 10:05

Beitrag von staatz » 10.02.2004, 11:12

@bugscout
also ich sehe das anders.
der spam hat sich deutlich reduziert, das stimmt, aber dafür stimmt die relevanz einfach nicht mehr.
die "grossen" haben in jedem fall profitiert, da brauch nur das wort tüte einmal auf ner amazon seite stehen, und schon findest du sie in den top10.
das ist für mich keine feinabstimmung, sondern ein gänzlich falscher ansatz.

"am anfang von florida war unter dem keyword "webdesign"
auch eine eishockeymannschaft aus calgary, die hatte unten
im footer einen link "webdesign by". "

das ist ja genau das was ich meinte :) nur sind wir nicht am anfang von florida, sondern irgendwo bei austin.

ich glaub langsam, dass ziel von google ist es, alle möglichkeiten des optimierens einfach zu unterbinden. somit bleibt am ende einfach nur das übrig, was guten content hat. ohne tricks, kein spam.

achne, übrig bleiben wird dann die neue suchmaschine von micros*ft :lol:

gruss michael

CMA
PostRank 9
PostRank 9
Beiträge: 1013
Registriert: 16.07.2003, 16:34

Beitrag von CMA » 10.02.2004, 11:21

Also, ich bin kein Seo, was man jo an meinen platzierungen eh ersehen kann.
Trozdem meine Meinung dazu. Der Artikel von Webby hat sehr gut aufgezeigt wonach es gehen wird, und das kann positiv oder sehr negativ ausfallen.
Durch das Autöritäts System wäre kurzfristig spam weg, nur solange bis jemand das wieder geschickt umgeht, indem er auf einer expertenseite links kauft..wie Webby geschrieben hat.
Content ist sicher enorm teuer und wenn er nicht teuer ist, z.B. ein gut optimiertes Forum, so kann ich aus Erfahrung sagen es ist enorm schwer Experten bekommen und so etwas am Laufen zu halten.

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 10.02.2004, 11:33

moinstaatz,

florida betraf ja eher die englischen keywords und wenn du jetzt bei webdesign
schaust, findest du auch kein eishockey mehr und auch nicht amazon mit seinen
ganzen büchern zum thema. die ganz grossen im markt sind auch nicht vorn.

und wenn am ende nur übrig bleibt was guten content hat, ist es doch super oder?

wenn eine site mit frontpage oder netobjects zusammen-gefriggelt

url=www.Keyword1-keyword2.tld
<title>keyword1-keyword2</title>
<body>=<h1>keyword1 keyword2</h1>
und ein paar backlinks in gästebüchern
oder linktrade-seiten

nicht mehr weltweit unter 500.000 treffern auf seite 1 steht, finde ich das gut.

grüsse

CMA
PostRank 9
PostRank 9
Beiträge: 1013
Registriert: 16.07.2003, 16:34

Beitrag von CMA » 10.02.2004, 11:35

@bugscout:
Sicher ist es gut wenn nur Content oben steht.
Nur die Frage ist, wann haben die spammer ne neue idee das zu umgehen?
Content lässt sich jo auch skripten oder nicht..

Jörg
PostRank 9
PostRank 9
Beiträge: 1168
Registriert: 03.07.2003, 07:06

Beitrag von Jörg » 10.02.2004, 11:37

derExperte hat geschrieben:@Jörg

Entscheidend beim Rat auf große Seiten mit klarer Struktur und Untereinheiten zu setzen ist auch noch die Frage ob damit eventuell Subdomains gemeint sind. Dies würde zumindest eine Erklärung für die manchmal sehr gute Positionen solcher Subdomains derzeit erklären.

Grüße Thomas
ja das frag ich mich auch, ob mit mini-sites subdomains gemeint sind. bei der beschränkung von zwei ergebnissen pro domain in einer serp behandelt sie google andererseits immer noch als eigenständige domains...
Suchmaschinenoptimierte Forensoftware ::: [url=httpss://joergs-forum.de/]Webmaster-Forum[/url]

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 10.02.2004, 11:38

ich gehe davon aus dass google eher meint an subdomains.
wenn ich auf einer seite reisen anbiete, dann ist sinnvol auf andere seite immobilien anzubieten, infos über land auf einer dritte seite etc.
ich kann mir nicht vorstellen dass ich alles unter eine domain packen soll, wo sich keine recht finden kann. also quatsch. sonnst komme ich mir vor wie auf der gemüssemarkt - über gemüsse bis zum t-schirt!
und wenn die domains untereinander verlinkt sind - ist kein spamm, sonder gegenverlinkung. frage dabei ob man nur die startseiten verlinken soll und unterseiten nicht ist offen.

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 10.02.2004, 11:48

Hei bugscout.
wenn eine site mit frontpage oder netobjects zusammen-gefriggelt

url=www.Keyword1-keyword2.tld
<title>keyword1-keyword2</title>
<body>=<h1>keyword1 keyword2</h1>
und ein paar backlinks in gästebüchern
oder linktrade-seiten
Wenn ich mich nicht irre, war das doch jahrelang (und auch noch vor kurzem) genau richtig? Oder nicht? Egal ob DW oder NOF. Und ich habe auf de Seite ducrhaus interessanten content für jemanden, der sucht.

Aus den Anfängen habe ich auch noch eine Seite laufen, die interessanterweise bei den andern sumas weiterhin gut ist. So aufgebaut.

Ob die Überlegungen hier richtig sind und ob Google da weiß, was es machen, das bleibt, glaube ich noch, dahin gestellt. Ich sehe da eher noch weiterhin den AdWords-Gedanken von Google dahinter.

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 10.02.2004, 11:51

Mal ganz davon abgesehen kommen wir langsam in unzumutbare Zustände! Als Internet-Publisher habe ich einzig (!) und alleine den Kunden und Nutzer zu beachten. So muß die usability und meine Seitenstruktur ausschließlich auf diesen abgestimmt sein.

Man kann es nun den Suchmaschinen einfacher machen, ok. Aber keinesfalls hat oder darf mir irgendjemand verbindliche Vorgaben in dieser Richtung machen dürfen. Gut, tut auch keiner, trotzdem wird durch die ranking-algorithmen ein großer Einfluß auf die Struktur des Internets genommen.

Hier besteht ein großes Dilemma, welches sich nur über eine offene Kommunikation klären lässt. Da sind wir aber noch weit entfernt und so wird der Spam nicht bekämft, sondern immer nur kurzfristig wieder ein bischen unter Kontrolle gebracht.

ups, ist gerade so herausgeflossen :-)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag