Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mehere Webseiten auf einem Server verwalten - HELP!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
MIC71
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.02.2007, 21:35

Beitrag von MIC71 » 08.02.2007, 22:01

nabend, community!

hoffe das ich hier im richtigen forum bin. es geht um folgendes:

ich habe eine (möglicherweise) nicht ganz google-konforme verzeichnisstruktur auf meinem server und komme einfach nicht mehr weiter. alle seiten laufen zwar wie geschnitten brot, aber google mag einen teil anscheinend nicht wirklich crawlen bzw. indexieren.

es geht um zwei unterschiedliche domain auf einem server.

ich habe in meinem root-verzeichnis einen wordpress blog liegen. der läuft rund. jetzt habe ich in diesem verzeichnis (htdocs) einen weiteren projekt-ordner mit einer anderen domain (serverpfad ist definitiv richtig eingestellt, läuft ja auch alles rund).

jetzt wird es etwas komplexer. dieser ordner beinhaltet:

a) eine html version des 2. projektes
b) einen weiteren ordner mit einer flash version
c) und einen ordner mit einem weiteren worpress blog

diese seiten sind miteinander verlinkt und laufen soweit auch! nun hab ich versucht die webmaster-option bei g. zu nutzen und verschiedene sitemaps einzureichen.

die sitemap des worpress blog im root-verzeichnis wurde von google problemlos akzeptiert, die erstellte map des 2. projektes allerdings immer mit einer fehlermeldung quittiert. angeblich kann google nicht auf den server zugreifen!?!

jetzt hab ich einige sitemap-online generatoren angetestet, von denen ebenfalls nur die wenigsten alle seiten crawlen konnten.

meine frage ist nun: hab ich eine zu komplexe verzeichnisstruktur und/oder gibt es vielleicht eine bessere möglichkeit, mehere projekte unter einen hut zu bringen.

bin für jeden tipp super dankbar!!!

beste grüsse,
mic

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

web_worker
PostRank 8
PostRank 8
Beiträge: 893
Registriert: 12.12.2005, 13:00
Wohnort: Karlsruhe

Beitrag von web_worker » 08.02.2007, 22:29

hmm, du gibst absolute pfade zu den sitemapdateien an? wenn du die url im browser eingibst, wird deine jeweilige sitemap angezeigt? du hast deinen server so konfiguriert, dass die jeweiligen domains auf die entsprechenden unterverzeichnisse zeigen, in denen die xmls liegen?

eigentlich kann man hier nicht viel falsch machen, zur poblemlösung bräuchte ich ein paar mehr infos (urls etc.)

ich habe auf 2 meiner server jeweils 5 projekte parellel laufen (auf der rootebene hat aber nichts etwas verloren, du solltest alle projekte schön in verzeichnisse pressen).

gruß,
w_w

MIC71
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.02.2007, 21:35

Beitrag von MIC71 » 08.02.2007, 23:47

hi ww!

ja, ich kann alle sitemap.xml in der URL aufrufen ...das läuft alles! ich hab keine ahnung, die einzige sitemap die google akzeptiert, ist die, die durch wordpress generiert wurde und direkt unter htdocs liegt.

hier mal ein paar links!

https://www.flashsuite.de
(liegt direkt unter htdocs)

https://www.flashboutique.de
(startseite, liegt in einer umterverzeichnis)

https://www.flashboutique.de/flash/
(liegt in dem selben unterverzeichnis)

https://www.flashboutique.de/seo/
(liegt ebenfalls im selben unterverzeichnis)

hm? :-?

danke für den support,
mic

ps. die anderen sitemaps wurden ja durch online-generatoren erstellt, keine ahnung, welche(r) davon am amtlichsten ist!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


MIC71
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.02.2007, 21:35

Beitrag von MIC71 » 08.02.2007, 23:51

web_worker hat geschrieben:du hast deinen server so konfiguriert, dass die jeweiligen domains auf die entsprechenden unterverzeichnisse zeigen, in denen die xmls liegen?
ja, selbstverständlich, sonst würden die domains ja eigentlich auch nicht laufen!

MIC71
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.02.2007, 21:35

Beitrag von MIC71 » 09.02.2007, 11:53

danke für dein feedback, ingo!

nunja, ich habe gar keine robots-datei auf dem server liegen. diese soll ja eigentlich nur auf verweise zeigen, die nicht durchsucht werden sollen.

bin mir jetzt auch nicht ganz sicher, ob diese in verbindung mit der sitemap zwingend erforderlich ist!?!

ich werd mal die flashsuite seite, die ja im root verzeichnis liegt, ebenfalls in einen gesonderten ordner packen und den serverpfad ändern ...vielleicht ist es für google einfach zu viel durcheinander

:roll:

MIC71
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.02.2007, 21:35

Beitrag von MIC71 » 09.02.2007, 12:32

ich hab jetzt mal ein bissel auf dem server aufgräumt, gebracht hat es allerdings bislang noch nicht wirklich viel!
Netzwerk nicht erreichbar: robots.txt ist nicht erreichbar
Bei dem Versuch, auf Ihre Sitemap zuzugreifen, ist ein Fehler aufgetreten. Stellen Sie sicher, dass Ihre Sitemap unseren Richtlinien entspricht und dass der Zugriff an der von Ihnen angegebenen Position möglich ist. Reichen Sie anschließend die Daten erneut ein
irgendwie nicht ganz nachvollziehbar, oder bin ich der einzige, der auf:

https://www.flashboutique.de/sitemap.xml

zugreifen kann? oder benötigt g. beim einreichen einer sitemap tatsächlich eine robot.txt datei? kann ich mir aber auch nicht vorstellen, schliesslich hat es bei meiner anderen domain doch auch ohne funktioniert...eigenartig!

MIC71
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.02.2007, 21:35

Beitrag von MIC71 » 09.02.2007, 20:42

so, liebe community!

es ist vollbracht, möchte euch natürlich gerne an rätsels lösung teilhaben lassen! :P

anscheinend lag es an der .htaccess datei! da ich einen neuen ftp-klienten unter mac os x nutze, war diese zunächst unsichtbar. das hatte anscheinend zur folge, dass durch die änderung der verzeichnisstruktur diese an einem punkt gelegen hat, wo sie google am indizieren gehindert hatte - sag mir mein gesundes halbwissen!

nachdem ich diese aus dem root verzeichnis gelöscht habe, wurde meine 100te sitemap bei g. endlich mit einem ok verabschiedet.

ob es nun was bringt, egal! ich weiss zumindest, dass meine verzeichnisse besser indizierbar sind als vorher!

man, man, man ...12h für'n so'n blödsinn :lol:

schönes WE,
mic

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag