Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sturz von Pos. 9 auf 90 nach Optimierung

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
alex1311
PostRank 5
PostRank 5
Beiträge: 326
Registriert: 01.06.2007, 08:05

Beitrag von alex1311 » 21.08.2008, 18:10

hier seine links, sind halt viele webkataloge bei....

https://siteexplorer.search.yahoo.com/d ... o=d&bwmf=s

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Spenser46
PostRank 1
PostRank 1
Beiträge: 12
Registriert: 01.08.2005, 21:38

Beitrag von Spenser46 » 21.08.2008, 18:13

Ich danke allen für ihre offene Meinungsäußerung. :lol:, besonders aber Nutzer0815. Nun ja. Man lernt ja nie aus.
Bisher habe ich Seiten, die nicht indexiert werden sollten, per Google-Sitemap ausgeschlossen. Ein guter Bekannter, den ich eigentlich für einen Profi gehalten habe, hat mir dann den rel=...-Rat gegeben. Ich habe die Beschreibung dazu durchgelesen und konnte nicht wirklich einen Hinderungsgrund erkennen. Vielleicht kann mir da mal jmd auf die Sprünge helfen. (Danke !)

In der Zwischenzeit habe ich alles rückgängig gemacht. Hoffentlich merkt Google das genau so schnell wie die erste Änderung. (= 2 Tage !)

Zu alex1311 & HW: diese Rel=-Geschichte war das bisher erste und einzige, was ich gemacht habe. Es gibt also keine "zu viele Links in zu kurzer Zeit". Die Herabstufung erfolgte also wohl wirklich nur wg. der rel=-Geschichte.

wehwehweh
PostRank 9
PostRank 9
Beiträge: 1748
Registriert: 08.02.2008, 19:01

Beitrag von wehwehweh » 21.08.2008, 18:14

Wenn du die Seiten nicht im Index haben willst musst du dies in der robots.txt machen.
du brauchst dazu nicht die robots.txt
abgesehen davon klingt das so wie wenn du raten würdest, dass er die seiten zusätzlich noch mit robots.txt ausschliessen soll
-das gegenteil soll er machen er soll die nofollow raus nehmen
Ich denke aber mal, dass du zuviele Links in zu kurzer Zeit gesammelt hast!
wie kannst du das denken?

für mich hängt der absturz eindeutig mit den nofollows zusammen der hat ja fast seine halbe site damit gekappt.