Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

nagelneue Webseite mit 1000 Unterseiten in G reinbekommen?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Seologe
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 07.11.2007, 11:19

Beitrag von Seologe » 07.11.2007, 11:40

Vorab: Ich bin KEIN Newbie.
Eine Frage an die Experten:
Es geht um nagelneue Domains!

Ich versuche seit einem halben Jahr Projekte in Google reinzubekommen zu verschiedenen Themen. Es sind immer nagelneue Domains. Diese haben etwa 1000 Unterseiten aus ner Datenbank gespeist. Sind auch Top (und auch sauber) optimiert. Content auch in Ordnung. Ich verwende KEIN Adsense und kein Analytics.
Auch die interne Verlinkung ist super (habe viel probiert).
Die Projekte bekommen dan ca. 40-60 Links und kommen dann nach 3-4 Tagen in Google rein. Das ist auch gut so, da ich mich dann über 500-1000 Besucher täglich freuen kann.
Problem ist nur, dass diese Seiten nach etwa 3 Tagen mit hohen Besucherzahlen wieder abrutschen.
Es ist keine Abstrafung, einige wenige Seiten sind immernoch gut gelistet dann. Keine Platz31, keine Platz900, keine Sandbox, oder irgendwas.
Auch hängt es nicht an externen Links, da ich manchmal welche verwende (themenrelevant und unrelevante probiert) und manchmal keine. Von Projekt zu Projekt verschieden.
Ich analysiere selbstverständlich immer das Crawlverhalten von Google und vergleiche es mit den Besucherzahlen.
Zu Beobachten ist, das wenn der G-Bot anfängt das zweite mal die komplette Seite zu scannen, dann fliegt sie raus.
Wenn jetzt jemand mit dem Newbie-Bonus kommt:
Warum ist der so dermaßen hart zu mir?
Wir reden hier von 1000 Besuchern und anschließend 3-5 am Tag....
Wie kann ich es umgehen?

Wenn jemand mit "zu-schneller Linkaufbau" kommt:
Das ist meiner Meinung nach riesengroßer Unsinn. Was ist, wenn gute Projekte wirklich in kürzester Zeit viele Links bekommen, weil sie so gut sind? Fliegen die dann raus? Ne, ne.

Wer hat Erfahrungen mit NAGELNEUEN Projekten und solchem Verhalten.
Wer hat die gleichen Probleme, die es erst seit einem halben Jahr gibt?
Leider kann man im Internet nicht finden, welche Projekte nagelneu sind und welche nicht...

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hofpils
PostRank 1
PostRank 1
Beiträge: 16
Registriert: 02.10.2007, 09:13

Beitrag von Hofpils » 07.11.2007, 11:48

Hallo, dazu müsste man die URL erfahren um spezifisch antworten zu können.

satriani1234
PostRank 7
PostRank 7
Beiträge: 501
Registriert: 01.11.2007, 15:08

Beitrag von satriani1234 » 07.11.2007, 11:52

mit welchem tool misst du deine besucher ? hoffentlich nicht mit webalyser
suche linktauschpartner zu den themen schmuck, ringe, edelsteine, diamanten, brillanten, uhren, luxusuhren!webdesign & onlinemarketing!Luxusuhren & Uhren!Schmuck & Ringe!auch im bereich sport

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 07.11.2007, 11:57

Wenn jetzt jemand mit dem Newbie-Bonus kommt:
Warum ist der so dermaßen hart zu mir?

Ja, der ist auch zu allen anderen genau so hart.

Deine Aussagen sind so dürftig, dass Dir wahrscheinlich keiner eine hilfreiche Antwort geben kann. Eigentlich hört sich das so an, als wenn du zwar nagelneue Domains aufsetzt, jedoch mit gebrauchtem Content. Manche nennen dieses DC.

Seologe
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 07.11.2007, 11:19

Beitrag von Seologe » 07.11.2007, 12:25

Hallo,
@Hofpils: Es sind verschiedene Projekte, kann keine URL nennen. Habe hunderte.
Alle haben das gleiche Problem. Verschiedene THemen.
Stell DIr mal folgendes vor:
Du hast eine Datenbank mit 800 Pflanzensorten. Diese Unterseiten der Pflanzen hast Du gut optimiert und Links auf Startseite oder Sitemap von außen gesetzt.
Diese kommen perfekt rein und nach 3 Tagen hohen Besucherzahlen fallen sie weg.

@satriani1234:
nein, ist ein sehr zuverlässiges Tool. Misst nur "reale Besucher", keine Bots.

@Pompom:
nein, kein Doppelcontent. DIe Inhalte werden immer neu umformuliert, Seitenstruktur geändert, Texte neu verfasst.

Gibts noch andere Möglichkeiten, die Euch einfallen würden?
Wäre über Hilfe sehr dankbar.
Stellt Euch einfach vor, Ihr müsstet selber so eine Seite bauen.
Sei es über Automarken, Briefmarken oder Schmetterlingsarten...
egal was.

Anonymous

Beitrag von Anonymous » 07.11.2007, 12:51

-DC
-die 40 bis 60 links sind rotz
-du bist zu ungeduldig
-die texte sind rotz

das sind so die sachen die mir nach deinen aussagen einfallen würden.

mehr kann man anhand deiner aussage nicht treffen... :roll:

dieappenzeller
PostRank 6
PostRank 6
Beiträge: 360
Registriert: 29.04.2007, 19:24
Wohnort: NW-Mecklbg.

Beitrag von dieappenzeller » 07.11.2007, 13:08

Du baust ne neue Domain, auf Schlag 1000 Seiten, auf Schlag 50 Links (vielleicht möglichst Fette), hast hunderte Domains (vielleicht die Links von dort) und die Texte werden immer umgeschrieben. Vielleicht unterchätzt du Google einfach und er bekommt doch mit, was da läuft. Wenn dir das mit jeder Seite wieder passiert, solltest du es etwas ruhiger angehen lassen.

Shit, wieder einer Schneller gewesen ;-)
Zuletzt geändert von dieappenzeller am 07.11.2007, 13:11, insgesamt 1-mal geändert.
Lieben Gruß
Torsten und die Appenzeller
Alle suchen Links, aber keiner trägt sich hier ein? Merkwürdig!

Seologe
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 07.11.2007, 11:19

Beitrag von Seologe » 07.11.2007, 13:09

Hallo zuendschnur,
danke für Deine Tipps.
Aber:
- Doppelcontent kann nicht sein, da wie gesagt die Texte immer umgebaut werden
Doppelcontent würde ja dazu führen dass die Seiten nie gut gefunden werden.
- 40 bis 60 Links reichen locker aus, um die Unterseiten mit den Begriffen in die Top10 zu kriegen, aber eben nur für 3 Tage. Das ist mein Problem
- Ungeduldig bin ich keineswegs: Viele Projekte existieren noch seit einem Jahr, wurden nie mehr angerührt, aber Links aufgebaut und NICHTS hat sich getan.
- Texte sind wie gesagt immer pro Projekt neugemacht worden.

Mit DC, schlechtem Content usw.. kenn ich mich aus, das ist definitiv ausgemerzt...
Irgendwas sagt dem Googlebot bei dessen 2. (!!!) Besuch, dass die Seiten scheisse sind. Es kann was ganz kleines sein...
Noch irgendwelche Meinungen?

Seologe
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 07.11.2007, 11:19

Beitrag von Seologe » 07.11.2007, 13:16

@dieappenzeller:
Die Links kommen immer von anderen Domains (nicht von eigenen).
Fette und "nicht-fette" Links sind dabei.

Die Projekte sind immer auf unterschiedlichen IPs, für unterschiedliche Kunden mit unterschiedlichen Themen.
Ein "auf-die-Schliche-kommen" ist seitens Google meiner Meinung nach dabei unmöglich. Die Projekte haben NICHTS miteinander zutun.
Auch die Seitenstruktur, interne Verlinkung, Design usw... alles immer verschieden, mit verschiedenen Editoren, verschiedenen Templates, verschiedenen CMS-Systemen. IMMER DAS GLEICHE ERGEBNIS.

Ich bin echt ratlos....
Ich mache das seit Jahren und habe immer gutes Geld damit verdient.
Nur seit einem dreiviertel Jahr scheint irgendwas bei G passiert zu sein, das ich übersehen habe. Ein vielleicht ganz winziges Detail...

dieappenzeller
PostRank 6
PostRank 6
Beiträge: 360
Registriert: 29.04.2007, 19:24
Wohnort: NW-Mecklbg.

Beitrag von dieappenzeller » 07.11.2007, 13:24

Das kann schon sein, aber wie die Zündschnur schon sagt, wir haben zu wenig Infos, um da was raus zu bekommen. Ein paar Urls von Seiten die es betrifft und man könnte mal suchen, so ist es nur ein Rumtappen im Nebel.
Lieben Gruß
Torsten und die Appenzeller
Alle suchen Links, aber keiner trägt sich hier ein? Merkwürdig!

duospilus
PostRank 5
PostRank 5
Beiträge: 277
Registriert: 25.08.2007, 00:43
Wohnort: Deutschland

Beitrag von duospilus » 07.11.2007, 13:59

Seologe hat geschrieben:Die Projekte sind immer auf unterschiedlichen IPs, für unterschiedliche Kunden mit unterschiedlichen Themen.
Geht mir mit Nebenprojekten auch so.
Ich bekomme keine zweite Seite, neben dem Hauptprojekt rein.
Verschiedene Systeme, verschiedener Content, verschiedene IPs, aber alles auf einem Server.
Keine Ahnung ob das eine Rolle spielt, aber länger als 3 Monate hält sich keine dieser Seiten.
Naja, ich lasse die aber leben und hoffe das irgendwann etwas passiert.

kammerjaeger
PostRank 6
PostRank 6
Beiträge: 395
Registriert: 18.09.2006, 21:21
Wohnort: Köln

Beitrag von kammerjaeger » 07.11.2007, 14:03

Betrifft das Problem auch Deinen coolen Katalog oder geht da um ein anderes Projekt? 8)

Keks
PostRank 6
PostRank 6
Beiträge: 448
Registriert: 12.03.2004, 20:13
Wohnort: Kiel (Schleswig-Holstein)

Beitrag von Keks » 07.11.2007, 14:26

@Seologe


... auch wenn du es nicht hören willst vermte ich ganz stark Duplicat Content. Aus meiner Sicht ist Google hier sehr gut geworden. !!!

Ich habe einige Content Projekte mit sehr vielen guten Inhalten, auch hier sind einzelne Unterseiten aus dem Index geflogen die aber schon ca 4 Wochen im Index waren und zum Teil auch gute Positionen belegt haben.

... und genau diese Seite haben tatsächlich 30-40% Textelemente enthalten die wir nicht 100% umgeschrieben habe :oops:

Auch wenn ich Deine Dimensionen so höre, dann kann ich nur schwer verstehen woher du diese Massen an "einzigartigen" Content hast der auch noch "lesbar" ist. ... und glaube mir, auch ic habe mich mit dem Thema schon lange befasst und in der Vergangenheit sicherlich auch "Lücken" genutzt, aber diese funktioneren schon seit einem Jahr nicht mehr.

mfG
Keks

heinrich
PostRank 9
PostRank 9
Beiträge: 2764
Registriert: 17.08.2006, 10:26

Beitrag von heinrich » 07.11.2007, 14:35

Keks hat geschrieben:@Seologe
... auch wenn du es nicht hören willst vermte ich ganz stark Duplicat Content. Aus meiner Sicht ist Google hier sehr gut geworden. !!!
Kann ich nur unterstreichen! Habe mich berufsmäßig einmal recht ausführlich mit den Möglichkeiten von AI beschäftigt, wobei damals die Rechnerkapazitäten bei vielen Algorithmen nicht ausreichten, um sagen wir 10 Stichwörter einer Seite in Millionen anderer Seiten auf Übereinstimmung zu prüfen - heute ist das überhaupt kein Problem mehr. G. hat genug Geld, um hier die besten Köpfe zu beschäftigen!

Seologe
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 07.11.2007, 11:19

Beitrag von Seologe » 07.11.2007, 15:24

@dieappenzeller:
Das hier ist ein grundlegendes Problem, das sehr viele Domains betrifft.
Diese sind alle verschieden, kein DC, verschiedene IPs, verschiedene Techniken der externen und internen Verlinkung. Wenn Du es so willst, Projekte von verschiedenen Kunden die GARNICHTS miteinander zutun haben.

@duospilus:
daran hängts nicht, habe Seiten auf gleicher IP aber auch auf vielen unterschiedlichen. Wenn eine Abstrafung der IP erfolgen würde, kämen die Projekte nicht rein. Sie kommen aber alle rein und zwar sehr gut. Nur nach dem 2.Crawlvorgang von Google ist schluss. und das ist meistens nach ca. 3 Tagen nachdem die vielen Besucher kommen.

@kammerjaeger:
welchen Katalog? Ich habe wie gesagt viele Webseiten.
Ich will Euch nicht verheimlichen, welche das sind, aber das würde in eine falsche Richtung führen, weil das Problem sehr global ist und nicht an einem Domainbeispiel festzumachen.

@Keks und heinrich:
Ich kenne das Problem mit DC. Aber da die Seiten wirklich alle nichts miteinander zutun haben würde das bedeuten, dass es zu einem Thema im Internet nur eine Seite geben dürfte. Dem ist nicht so. Viele Seiten haben sehr ähnlichen Inhalt und existieren nebenbei. Und warum: weil sie nichts miteinander zutun haben.

Beispiel:
Ich betreibe eine Seite mit einer Datenbank von 500 Pflanzensorten.
Ich habe einen Server A, da lege ich eine nagelneue Domain drauf und mache dort 200 von diesen Pflanzen als optimierte Seiten rein. Diese verlinke ich gut und auch die Unterseiten miteinander.
Dann habe ich noch den Server B, auf den ich auch eine Pflanzenseite mache mit den restlichen 300 Pflanzen. Die Seiten werden auch verlinkt und auch intern aber NIRGENS lässt sich von Seite auf Server A auf die Seite von Server B schließen. Design unterschiedlich, Content komplett unterschiedlich, Verlinkung unterschiedlich usw...
Wie kann das DC sein?

Beide haben das gleiche Ergebnis. Egal, was ich mache und wie ich die interne und externe Verlinkung aufbaue. Durch viele externe Links wird es verlangsamt, durch geschicktere interne Verlinkung beschleunigt. Alles normal. Bis auf den 2. Crawlbesuch von Google. Keine fliegt raus, beide sind nur wahnsinnig schlecht und waren vorher 3-5 Tage perfekt gelistet.

Das muss doch auch schonmal jemand beobachtet haben oder bin ich der einzigste, der sowas öfters testet?
Es muss doch auch jemand versuchen, mit seinen Produkten Geld zu machen oder?
Derjenige kommt um eine solche Seitenstruktur und mehrere Versuche ja auch nicht rum, oder? Es gibt doch niemand auf, bevor sein Onlineshop mit 1000 Produkten nicht perfekt gelistet ist, oder?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag