Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Meine Webseite www.buyingermany.de wird nicht gespidert

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
jopa
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 09.08.2005, 16:45

Beitrag von jopa » 09.08.2005, 16:55

Hallo zusammen,
seit ca. 5 jahren betreibe ich einen shopkatalog www.buyingermany.de.
Bis ca. august 2004 hatte diese site das ranking 4 und fast alle unterseiten wurden von google gelistet. Ab september 2004 wurde das ranking auf 0 gesetzt und keine unterseite mehr gelistet. Anfang 2005 habe ich die seite komplett neu überarbeitet, aber bis heute hat sich nichts an dem zusatnd geändert. Da ich die seite hobbymäßig betreibe, ist das zwar nicht so schlimm, aber ich verstehe es nicht. Auch schreiben an google direkt blieben ohne erfolg.
Hat jemand einen Tipp oder Rat?
Danke im vorraus

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

holch
PostRank 6
PostRank 6
Beiträge: 410
Registriert: 08.03.2005, 20:23
Wohnort: Nürnberg

Beitrag von holch » 09.08.2005, 17:02

Naja, gespidert werden die Seiten anscheined:

https://www.google.de/search?q=site%3Ah ... germany.de

jopa
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 09.08.2005, 16:45

Beitrag von jopa » 09.08.2005, 18:21

Hallo holch,
danke für deine schnelle antwort.
Ja, du hast rechr, aber das sind meine alten seiten von september 2004.
gruß
jopa

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Anonymous

Beitrag von Anonymous » 09.08.2005, 18:41

Hmm...

PR von 4 auf 0 gefallen...

könnte es sein, dass du unschöne techniken benutzt um bei google besser gelistet zu werden und deshalb rausgeflogen bist?

nimm dir ne neue Domain...

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 09.08.2005, 20:19

Habe auch so ein paar seiten - keine "unschönen" Techniken eingesetzt ... allerdings bisken viel crosslinking und DC. Seiten sind letzten November verschwunden, jetzt tauchen immer mehr uralt seiten (Jan/Feb 2005 und früher) in den Serps auf als zusätzliche Ergebnisse ...

Ich kann mir da immer noch keinen Reim drauf machen.

xerxes
PostRank 5
PostRank 5
Beiträge: 223
Registriert: 29.03.2005, 11:24

Beitrag von xerxes » 09.08.2005, 23:23

vielleicht nicht oft genug aktualisiert?
nur ne vermutung, da alles doch recht statisch...
aber:
_____________
<html><head>
<title>BuyInGermany - Shopkatalog und Shopverzeichnis für Deutschland</title>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<meta name="description" content="Shopkatalog und Shopverzeichnis f&uuml;r Deutschland">
<meta name="keywords" content="shop, shops, Germany, Shopkatalog, Shopverzeichnis, Deutschland">
<meta name="publisher" content="ISP">
<meta name="robots" content="INDEX, FOLLOW">
<meta name="revisit-after" content="4 days">
<meta name="language" content="deutsch, de">
______________

auf allen seiten schockt vielleicht Tante G* und ausserdem zu viel script nach dem bodytag... machs besser (ohne hidden-layer)

trotzdem finde ich "Marke Wildschwein Glatt-kurz-dicht aus Rosenholz" hammergeil, wie kommt man denn auf diesen kultnamen? :roll:

gruss

jopa
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 09.08.2005, 16:45

Beitrag von jopa » 10.08.2005, 14:11

Hallo zusammen,
vielen dank für die vielen antworten, damit habe ich nicht gerechnet.

Vielleicht habe ich wirklich irgendwo fehler in meinen webseiten, die google veranlasst die seiten nicht zu spidern.

Aber ich weiss icht wo!

Gruß und dank
jopa

Steffi
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 06.12.2004, 03:43

Beitrag von Steffi » 10.08.2005, 14:29

bin mir nicht sicher was die "robots.txt-Experten" sagen, jedoch:
# robots.txt for https://www.buyingermany.de/
# file created: 09.01.2005
User-agent: *
# Disallow: /js/
# Disallow: /buyin-scripts/
# Disallow: /buyin/
Kann der Bot evtl. die Anweisung so verstehen das alles gesperrt ist, weil kein # vor User-agent .... ???

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag