Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Alten Content raus aus Google.....

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 13.12.2004, 12:54

Hallo,

ich habe den Content von 2 Domains schon vor einigen Monaten rausgenommen und mittels robots.txt sämtliche Suma-Zugriffe gesperrt.

Allerdings ist dieser Content (fast 160.000 Seiten !!) immer noch in Google drin.

Wie lange dauert es denn erfahrungsgemäß, bis diese Domains endlich komplett aus Google rausfliegen?

Oder kennt jemand vielleicht ne Methode dies zu beschleunigen?

Gruß,

Armi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Radagast
PostRank 6
PostRank 6
Beiträge: 378
Registriert: 22.09.2004, 07:01

Beitrag von Radagast » 13.12.2004, 12:58

schau doch mal auf

https://www.google.at/remove.html

lg

Rada
Hochwertige Links gesucht? Hier klicken

visions4
PostRank 9
PostRank 9
Beiträge: 1070
Registriert: 04.08.2004, 12:13
Wohnort: Österreich

Beitrag von visions4 » 13.12.2004, 13:08

@Armi

du bist nicht der einzige dem es so geht. den remove über G kannst du übrigens vergessen, das dauert so lange, dass man nicht weiß ob es dadurch entfernt wurde.

außerdem wurde von ein paar wochen parallel ein alter index aufgespielt um die serps zu verdoppeln somit haben mom. fast alle jede menge alter seiten im index, welche großteils gar nicht mehr existieren.

aber es bereinigt sich eh schon wieder von alleine, dauert eben ein bisschen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 13.12.2004, 13:11

@Radagast

Jo klar, hab doch geschrieben dass ich die klassischen "Regeln" bereits angewandt habe.

@visions4

Ja, ich hoffe mal dass sich das bald wieder bereinigt......

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 13.12.2004, 14:04

robots.txt hilft da nicht viel.
Eine Methode ist es, dem Googlebot für alle Seiten der betreffenden Domains einen 410 "Gone" HTTP-Rückgabewert zu liefern. Eine entsprechende Forensuche danach sollte das gewünschte Ergebnis bringen.

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 15.12.2004, 10:56

bull hat geschrieben: Eine Methode ist es, dem Googlebot für alle Seiten der betreffenden Domains einen 410 "Gone" HTTP-Rückgabewert zu liefern.
Hallo,

jemand eine Ahnung wie ich dem IIS einen "410 Gone" Fehler entlocke.
Mit benutzedefiniertem HTTP Header "Status: 410 Gone" hat es nicht funktioniert und einen
benutzerdefinierten Fehler 410 gibt es anscheinend nicht.

Hintergrund: Der Rückgabewert "410 Gone" soll für alle Aufrufe von https://domain.de (ohne www) gelten. Ich habe hier bereits eine 301 eingerichtet, allerdings dauert mir das einfach zu lange bis G das verstanden hat.

Gruss

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 15.12.2004, 11:10

Fox Mulder hat geschrieben:jemand eine Ahnung wie ich dem IIS einen "410 Gone" Fehler entlocke.
Mein Lexikon ist sowohl unter www.at-mix.de als auch unter www.at-mix.at und www.at-mix.ch zu erreichen. Ein Zugriff auf die Österreich und Schweizer Domain liefert einen 301 Redirect und der Zugriff ohne 'www.' liefert den Code 410 Gone. Schau Dir einfach den folgenden Auszug aus meiner .htaccess an:

Code: Alles auswählen

Options +FollowSymLinks
RewriteEngine on

# Spider abfangen
RewriteCond %{HTTP_USER_AGENT} ^.*Get.*$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*HTTrack.*$ 
RewriteRule ^.*$ / [L,F]

# Abfragen der .at und .ch Domains an www.at-mix.de leiten
RewriteCond %{HTTP_HOST} ^www\.at-mix\.(at|ch)$
RewriteRule ^(.*)$ http://www.at-mix.de/$1 [L,R=301]

# alle Abfragen ohne www. am Anfang blocken
RewriteCond %{HTTP_HOST} ^at-mix\.(de|at|ch)$
RewriteRule ^(.*)$ / [L,G]
Zur Prüfung, ob es funktioniert (richtiger Header) empfehle ich www.wannabrowser.de oder www.validome.org
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 15.12.2004, 11:20

Leider unterstützt der IIS im Gegensatz zum Apache keine htaccess und mod_rewrite.
Trotzdem Danke für Deine schnelle Antwort.

Gruss

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 15.12.2004, 11:22


Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 16.12.2004, 18:07

Bringt denn

https://services.google.com:8882/urlcon ... uestStatus

etwas?

google schreibt hier

"Sie können Ihre URL aus Googles Ergebnissen sowie Ihre Usenet-Mitteilungen aus den Google Groups löschen. URLs und Mitteilungen werden in der Regel innerhalb von 24 Stunden nach der erfolgreichen Übermittlung der Anforderung gelöscht. In der Spalte rechts können Sie auch den Status der übermittelten Anforderungen prüfen"

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 17.12.2004, 00:41

Armi hat geschrieben: URLs und Mitteilungen werden in der Regel innerhalb von 24 Stunden nach der erfolgreichen Übermittlung der Anforderung gelöscht.
Na, 24 Std. ist übertrieben, aber nach 48 Std. sind die Seiten meistens raus. Oder grundsätzlich gesagt: Ja, die Sache via robots.txt und Formular funktioniert.
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 17.12.2004, 00:53

Alkso bei mir hats 4 Stunden gedauert uns es war draußen :-)

besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 17.12.2004, 11:01

hm also bei mir hats oft 3-5 Tage gedauert.
Das removetool ist ein Witz! :bad-words:
(- Seite eingegeben, die existiert-> Anforderung wird nicht bearbeitet, weil seite erreichbar
- Seite unerreichbar gemacht -> Diese Anforderung wurde bereits gestellt -deshalb keine Bearbeitung) ggrgrg

Aber zu Halli ? wieso leitest du die Anfragen ohne www. nicht auf die richtige Domain um?

mich würde interessieren, ob die 410 Meldung wirklich ggle bewegt, dass die Seiten entfernt werden (innerhalb von weniger als ein paar Monaten :bad-words: )
und gibt RewriteRule ^(.*)$ / [L,G] wirklich einen 410 aus?
Grüße :D

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 26.01.2005, 18:41

besserwisser hat geschrieben:und gibt RewriteRule ^(.*)$ / [L,G] wirklich einen 410 aus?
Klar!
Probiers doch einfach aus: https://at-mix.de/ liefert "410 Gone"

besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 27.01.2005, 11:29

hm,
also ich bin seit ca. 1Monat dabei zu beobachten, ob die Seiten die ich mit 410 "ausliefere" gelöscht werden.
Bislang bin ich unsicher und meine, es ist noch nichts wirklich gelöscht worden!
Meine Seitenzahlen schwanken und ich dachte es werden pöapö langsam weniger, aber is nicht.
es schwankt nur und wird auch manchmal wieder etwas mehr...
:bad-words:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag