Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nach United Domains Ausfall kommt der Bot nicht mehr!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 29.10.2007, 20:51

Mein Provider United Domains hatte am 30.09-01.10 einen Totalausfall.
https://www.abakus-internet-marketing.d ... art-0.html

Seit dem 1. Oktober kommt der Google Bot nicht mehr bei meinen Seiten vorbei. Eine neue gesendete Sitemap wird auch nicht angenommen!
Bei allen Seiten die bei UD gehostet sind.

Hat noch jemand der UD Kunden dieses Problem? Oder Erfahrung mit diesem Problem?

Gruß Jomi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 29.10.2007, 20:55

wenn man spart muss man 2 mal kaufen... (sorry konnte ich mir net verkneifen)

aber wieso werden denn die sitemaps nicht mehr "angenommen"?

jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 29.10.2007, 21:02

Was heißt hier sparen, so günstig sind die nicht :lol:

Die Sitemaps wurden vor Tagen eingereicht und der Status ist immer noch "Ausstehend".
Bei anderen Seiten, die nicht bei UD sind, dauert es 2 Minuten!
Das war auch bei UD Domains immer so.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 29.10.2007, 21:24

aber es steht kein error da? komisch :crazyeyes:

jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 29.10.2007, 21:27

Nein, kein Error.
Ist sehr seltsam das Ganze.
Hab mal den Support kontaktiert, ob die sich auskennen, werde ich sehen :-?

Nicht das Google mich rausschmeist!!!

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 30.10.2007, 08:22

was aufjedenfall nicht schaden kann sind neue frische links...dann merkt auch google das es dih wieder gibt... :roll:

xxlfeuerwalze
PostRank 8
PostRank 8
Beiträge: 832
Registriert: 14.02.2007, 17:19
Wohnort: Sumatra

Beitrag von xxlfeuerwalze » 30.10.2007, 11:05

Oha, das ist übel. Jetzt denkt Google, dass Du deine Site vom Netz genommen hast. Im schlimmsten Fall schmeißt er dich wirklich raus. Daher sollte man immer zuverlässige Server benutzen. Wie lange war der Ausfall? Der Bot kommt bestimmt ein paar Wochen später nochmal vorbei, aber spätestens dann muss dein Server wieder ansprechbar sein.

jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 30.10.2007, 12:57

Danke an Euch.
Das Ausfall war über einen Tag verteilt -60% Besucher.
Werd schnell ein paar Links setzen!
Vielleicht hat das auch was mit dem Update zu tun, das bindet viele Ressourcen.
Der Service von UD konnte mir auch nicht weiterhelfen.

gzs
PostRank 9
PostRank 9
Beiträge: 1384
Registriert: 03.12.2006, 12:10

Beitrag von gzs » 31.10.2007, 19:32

Also normalerweise muss ein Server schon eine verdammt lange Zeit ausfallen damit eine Seite aus den Suchergebnisse verschwindet. Auf jeden Fall länger als ein Tag!

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 01.11.2007, 11:33

Hi,

ich hatte vor kurzem ein ähnliches Problem, allerdings gab es einen Hinweis in den Webmastertools. In der Firewall des Providers war die Google IP gesperrt.

=> https://blog.xantiva.de/archives/67-Net ... chbar.html

Ciao,
Mike

jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 01.11.2007, 11:56

Mike,
DU BIST GENIAL!!! :lol:


Genau so wie bei mir, das müsste es sein.
Hab UD schon geschrieben.

DANKE!

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 01.11.2007, 12:12

:oops: Danke!

Backlinks werden sind immer gerne genommen. :lol:

Ciao,
Mike

jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 23.03.2008, 21:37

Na Prima!
Im November hatte ich das Problem hier geschildert und United Domaind u.a. den Link von MikeK übermittelt.
Sie behaupteten, der Googlebot wird nicht geblockt. Ich wartete weiter auf die Googlebot Besuche.

Ende November kam der Serp Absturz einer meiner Seiten auf dem Webspace von UD. Ich wechselte mit dieser Domain den Provider und siehe da, sie wurde sofort wieder vom Bot besucht( Ranking blieb aber schlecht). Auch alle übrigen Domains bei UD wurden wieder regelmäßig besucht. Dacht die Sache ist erledigt.

Jetzt fängt die Schei.. wieder an. Der Googlebot ist schon wieder seit 4 Wochen bei allen Domains überfällig. 2 Hauptseiten sind bei der site: Abfrage nicht mehr drin, nur noch die Unterseiten.
Wenn es jetzt keine Lösung von UD gibt werde ich mit allen Domains umziehen müssen.

Edit:
Ach ja, in den Webmaster Tools wird jetzt in der Übersicht angezeigt:
Wir können derzeit aufgrund eines unbekannten Problems nicht auf Ihre Startseite zugreifen.

Falls also jemand eine Lösung parat hat, bin ich sehr dankbar.

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 23.03.2008, 21:54

Hi jomi,

Du hast aber auch bei allen eine robots.txt angelegt, die aufgerufen werden kann? Oder zumindest bekommt man nur den #404 wenn Du keine Datei angelegt hast?

Ich hatte eben das Problem, dass die .htaccess von einem Scuttle - System einen Internen Server Fehler #500 bei dem Aufruf einer nicht vorhandenen robots.txt produzierte ... :-(

Was sich merkwürdig liest: Nach dem Du mit einer Domain gewechselt bist, wurden die anderen wieder besucht? Obwohl dort nichts geändert wurde?

Ciao,
Mike

jomi
PostRank 3
PostRank 3
Beiträge: 80
Registriert: 20.07.2007, 21:13
Wohnort: KC

Beitrag von jomi » 23.03.2008, 22:01

Hi Mike,
eine robots.txt ist überall vorhanden. Betroffen ist u.a. das Artikelverzeichnis in der Signatur.
Ja nach dem Wechsel kam der Bot auf ALLEN Seiten wieder. Habe nichts geändert im letzten Jahr und jetzt auch nichts.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag