Seite 1 von 2
Platzierung vom Server abhängig?
Verfasst: 28.04.2010, 02:02
von holger-thies
Hallo Forum!
Folgende Merkwürdigkeit ist in mein Leben getreten:
2 verschiedene Sites, 2 verschiedene Domains.
Gleicher Suchbegriff, nach gleichem Muster die Sites erstellt.
Site A ist bei Provider A gehostet, Site B bei Provider B.
Site A ist bei Google (als Beispiel) auf Platz 13, Site B nicht einmal unter den ersten 100.
KANN das am Provider liegen? Hat jemand ne andere Idee?
Danke fürs Lesen!!!
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 28.04.2010, 02:42
von Hobby_SEO79
Das ist zu wenig aussagekräftig.
Hier musst du versuchen alle Gemeinsamkeiten aufzulisten, alle Unterschiede. Stell die mal gegenüber und poste dann deine Erkenntnisse.
Sonst ist es ein Stochern im Dunkeln ....
Verfasst: 28.04.2010, 02:55
von holger-thies
Das ist garnicht so einfach Unterschiede zu posten. Ich habe zwei Sites erstellt die beide mit Ferienwohnungen auf der gleichen Insel zu tun haben.
Site B, die nicht platziert ist, sogar noch ausführlicher, jedoch garantiert nicht übertrieben, sondern alles logisch eingebunden. Desription, Keywords, CSS, ALT-Tags, Ordnernamen, Dateinamen, usw. Alles bei beiden entsprechend angewand. Stell Dir einfach zwei Dosen Cola vor, und wieso wird aus der einen getrunken und aus der anderen nicht?
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 28.04.2010, 06:38
von HappyHippo
holger-thies hat geschrieben:Stell Dir einfach zwei Dosen Cola vor, und wieso wird aus der einen getrunken und aus der anderen nicht?
Weil das eine Coca Cola ist und das andere Pepsi

Und so wird es bei Deinen beiden Seiten auch sein - Weniger Links - Key im Domainnamen usw. also mit dem Provider hat das sicher nichts zu tun.
Verfasst: 28.04.2010, 09:13
von Andreas I.
Vor vielen Jahren gab es mal Fälle, in denen der Provider den Googlebot ausgebremst hat, um Traffic zu sparen. So ca. 2005 oder früher.
Ob es so etwas heute auch noch gibt?
Verfasst: 28.04.2010, 09:41
von Nicos
die Ladezeit ist ein Rankingfaktor!
Verfasst: 28.04.2010, 10:09
von fw
Aber nicht mit so einer starken Auswirkung.
@holger-thies
Du bist in deiner Antwort nicht auf die BLs eingegangen. Dort wird die hauptsächliche Ursache liegen.
Geht es um die "ferienwohnungen-teneriffa-ferienhaeuser" Site?
Verfasst: 28.04.2010, 10:46
von holger-thies
Wouw, das sind ja richtig viele Antworten.... erstmals Danke dafür!!!!
Also mit dem Server kann es nichts zu tun haben, das war schon einmal das was ich wissen wollte.
@fw: Was sind denn BLS? Aber mit der Site hast Du Recht, ich dachte nur das hier keine Links erlaubt sind. Ich habe einfach mal drauf los erstellt, also keine Rücksicht auf Aussehen etc. genommen. Mich hat hauptsächlich interessiert ob so viele Wörter in der Domain wichtig sind.
Verfasst: 28.04.2010, 11:04
von fw
BLs sind Backlinks.
Wenn das tatsächlich die eine der beiden Sites ist, dann wird das Ganze
bei 14 angezeigten Siteexplorer BLs irgendwie lächerlich.
Besorg dir mehr BLs und deine Position in den Sumas steigt.
Verfasst: 28.04.2010, 11:08
von holger-thies
Das war jetzt aus der Abteilung "Wald vor lauter Bäumen nicht sehen"!. Backlinks, daran habe ich NULL gedacht!!!!
DANKE!!!
Verfasst: 28.04.2010, 12:06
von HaraldHil
Nicos hat geschrieben:die Ladezeit ist ein Rankingfaktor!
In Deutschland noch nicht.
Und ansonsten wohl nur für 1 % der Web-Sites.
In diesem Fall also nicht zutreffend.
Verfasst: 28.04.2010, 12:06
von sempire
Nicos hat geschrieben:die Ladezeit ist ein Rankingfaktor!
... bei 1% der queries in den USA.
Verfasst: 28.04.2010, 20:38
von SEOFreelancer
HaraldHil hat geschrieben:Nicos hat geschrieben:die Ladezeit ist ein Rankingfaktor!
In Deutschland noch nicht.
Bist du dir da 100 % sicher?
Ich habe in den letzten Tagen mal ein "paar" (naja, hunderttausende, hüstel) .de-Domains mit deutschen Inhalten testweise gespidert. Und es gibt laut meinen Erhebungen sehr wohl einen Zusammenhang zwischen der Positionierung bei Google und den teilweise heftig langen Ladezeiten. Die Domains stammten aus den Google-SERPs.
Dabei ist auch eine Domain aufgefallen, bei der der Spider mehrfach schlapp gemacht hat. Etwas verwundert darüber hat eine genauere Analyse ergeben, dass sogar Firefox 3.6.3 bei jedem einzelnen Aufruf dieser Seite abstürzte. Heftig.

Verfasst: 28.04.2010, 20:42
von holger-thies

Was macht man denn mit einer CD auf der 8.000.000 Domains zu finden sind?
Verfasst: 28.04.2010, 20:52
von SEOFreelancer
holger-thies hat geschrieben:
Was macht man denn mit einer CD auf der 8.000.000 Domains zu finden sind?
Mit Verlaub, 8.
500.000 .de-Domains.
Zum Beispiel:
- Statistiken erstellen (welche Domains verweisen auf welche IP-Adressen und vice versa, welche Nameserver sind die "begehrtesten" usw.)
- "Expired Domains" recherchieren, also freigewordene Domains finden
- das Internet spidern, zu Analysezwecken
- SEO-/SEM-Tools aufbauen
- Mitbewerber finden
- Domains aufspüren, die aufgrund bestimmter Konstellationen bald freiwerden könnten
- interessante Domains finden, die zusätzlichen Traffic für bestehende Projekte bringen können
- und vieles mehr
Die Besonderheit ist, dass es bei .de-Domains kein offizielles Zonefile der DENIC gibt, im Gegensatz z. B. zu .com/.net/.org-Domains.
Dazu gibt es sehr schöne Blogbeiträge. Auf Wunsch nenne ich gerne einige. Aber auch die letzte Folge des SEO-House bei radio4seo.de geht darauf ein.