Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

www.domain.de und domain.de

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 11.03.2005, 12:56

Hi,

ich hatte auch das Problem, dass Google die Seiten unter www.domain.de und domain.de als verschiedenen Content interpretierte. Bin dadurch in nen duplicated-content filter geraten.

Hab das Problem jetzt eigtl. vor Wochen gelöst.

domain.de hat in der robots.txt

"User-agent: *
Disallow: /"

Nur der alte doppelte Content will einfach nicht raus, das wird noch Monate dauern.......

Das removal-tool hat bisher super geklappt, nur habe ich ein wenig Angst dass ich dann vielleicht auch www.domain.de rausschmeiß.

Kann das jemand verneinen?

Armi

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 11.03.2005, 13:10

Ich würde die domain.de per 301 auf die www.domain.de umleiten. Keine Ahnung, ob das am schnellsten geht, aber mit der 301 konnte ich gute Erfahrungen machen (eher als mit der robots.txt :roll: )

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 11.03.2005, 13:12

Mach ich doch parallel!

Trotzdem bleibt halt der alte Content bei Google Ewigkeiten drin......

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


incogni
PostRank 3
PostRank 3
Beiträge: 85
Registriert: 02.01.2005, 09:51
Wohnort: Zürich

Beitrag von incogni » 11.03.2005, 14:27

als verschiedenen Content interpretierte. Bin dadurch in nen duplicated-content filter geraten.
lustich..was jetzt verschiedener duplicate content .. Das klingt verdächtig nach LS inDa head :Fade-color

Ich würd nur! nen 301 machen

Und du hast zwei verschiedene Webspaces..also zwei verschiedene robots.txt? Ich vermute du hast einen Webspace mit einer robots.txt drin...Da liegt doch der Haken

Gruss
inc.

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 11.03.2005, 14:32

Es gibt keinen Haken. Das Problem wurde komplett gelöst !!!!

Problem ist halt, dass Google den ganzen doppelten Content unter https://domain.de noch gespeichert hat. Das kann noch Monate dauern, bis der entfernt wird.

Zur Verständlichung:

"allinurl:domain site:domain.de" bringt mehr Ergebnisse als
"allinurl:domain site:www.domain".

Den doppelten Content kann man mit

"allinurl:domain site:domain.de -www" aufrufen (teilweise natürlich inzwischen Nur-Urls).

Den doppelten Content unter https://domain.de sofort zu entfernen geht nur mit dem google removal tool.

Wir haben (wie das ging bin ich technisch überfragt) unter https://domain.de/robots.txt die oben genannte robots.txt.

Wenn ich jetzt https://domain.de/robots.txt bei dem Tool anwende, müsste normalerweise der doppelte Content verschwinden.

Also "allinurl:domain site:domain.de -www" = 0 ergeben.

Nur habe ich ein wenig Schiss, dass dies Google net so richtig peilt und auch alles unter www.yopi.de rausschmeisst (obwohl hier andere robots.txt).

Deswegen meine konkrete Frage: Hat das schon jemand probiert?

incogni
PostRank 3
PostRank 3
Beiträge: 85
Registriert: 02.01.2005, 09:51
Wohnort: Zürich

Beitrag von incogni » 11.03.2005, 14:51

Also..bei den einen hat das removal-tool wunderbar funktioniert, bei anderen nicht...unter anderem auch bei mir.

Hab zwar die bestätigung..ca. nach 1 Tag erhalten..aber die Seiten sind noch ewig drin geblieben..wenn sie nicht heute noch daliegen. :roll:

Ich würd einfach nur mit htaccess einen 301 machen und mich nicht weiter drum kümmern oder halt risiko mit removetool. Mit 301 hab ich änderungen bis jetzt immer sauber durchgebracht. Nimm doch einmal das robots-zeugs raus, da gehst du kein risiko ein..

Gruss
inc.

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 11.03.2005, 14:54

Also bei mir hat bisher das removal tool bisher immer einwandfrei funktioniert.

In diesem Fall stellt sich halt die Frage ob das removal tool das mit domain.de und www.domain.de peilt. Normalerweise dürfte es keine Probs gehen, Restrisiko bleibt halt noch da.....

"Ich würd einfach nur mit htaccess einen 301 machen und mich nicht weiter drum kümmern"

Genau das mache ich seit Wochen und nichts tut sich. Der alte Mist ist immer noch im Index, der Filter will nicht weggehen....

bruko
PostRank 5
PostRank 5
Beiträge: 211
Registriert: 11.10.2003, 09:02

Beitrag von bruko » 11.03.2005, 15:26

Hi,
ich ärgere mich derzeit auch über das Removel-Tool. Erst hat es eine Woche gedauert, bis die Bestätigung per E-Mail kam und nun nach weiteren 2 Wochen sind immer noch die Hälfte der Seiten im Index, obwohl ich die komplette Domain abgemeldet hatte und sie parallel geschlossen wurde.

In einem anderen Fall hatte ich guten und schnellen Erfolg mit 410 gone.

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 11.03.2005, 15:45

Also bei mir hat das removal tool bisher bei den verschiedensten Projekten innerhalb weniger Stunden geklappt!!!!

Aber darum geht es ja nicht, sondern ob Google auch beim removal-Tool die Unterschiede zwischen www und ohne sieht.

Kann mir hier wohl niemand sagen :-(

Teste das jetzt mal selber mit ner anderen Domain......

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag