Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Sitemaps

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
fo
PostRank 6
PostRank 6
Beiträge: 360
Registriert: 15.05.2004, 14:20

Beitrag von fo » 14.06.2005, 11:11

Gibt es denn ein Tool, mit dem ich dynamische Seiten in eine Sitemap auslesen kann?
Unsere Portale sind alle DB gestützt, phpsitemap ist da nicht wirklich sinnvoll, leider :(
Müsste demnach eine Art crawler sein, der alle Links auf der Seite verfolgt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

redcan
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 25.04.2005, 13:25

Beitrag von redcan » 14.06.2005, 11:43

hallo fo,

hab bis jetzt nur ein bis max 400 seiten gefunden.
https://www.sitemapspal.com/

gruß andre

fo
PostRank 6
PostRank 6
Beiträge: 360
Registriert: 15.05.2004, 14:20

Beitrag von fo » 14.06.2005, 12:01

ahh ok besser als nix.. für unsere shops mit mehreren tausend seiten allerdings zwecklos :((

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 14.06.2005, 12:06

@redcan

jo ist ganz hübsch :D geht aber für meine Zwecke auch net

redcan
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 25.04.2005, 13:25

Beitrag von redcan » 14.06.2005, 12:20


Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 14.06.2005, 12:31

mhh, da geht bei mir nix....diese komische Ende wackelt zwar mit dem Fuß aber weiter passiert nix

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 14.06.2005, 13:05

Ich hatte vor langer Zeit mal ein klassisches https://domain.de duplicate content Problem.

Ist längst mit 301-redirect richtig gelöst - allerdings sind dies viele Tausend URLs. Sie bleiben einfach im Cache, da Google diese URLs
mangels Verlinkung einfach nicht mehr besucht.

(Löschung via removal tool geht auch nicht, da ja die www-versionen existieren sollen und dieses Tool diese gleich mit löscht).

Idee: Diese ganzen URLs in eine Google Sitemap packen. Dann wird Google diese doch besuchen, den 301-redirect feststellen und dann entfernen?

Oder hat hierzu jemand Bedenken bzw. negative Erfahrungen?

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 14.06.2005, 13:08

Ich wuerde da vorsichtig sein mit tausenden 301er. Auf WMW gibt es Beobachtungen, dass Google das nicht mag. Ueberhaupt mag Google grosse Veraenderungen nicht :-?

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 14.06.2005, 13:13

Es geht ja darum, dass Google endlich die https://domain.de Versionen löscht und nur noch die https://www.domain.de Versionen im Index hat.

301-redirect soll eigtl. die anerkannte Methode sein - Problem ist halt dass Google diese Information mangels Verlinkung (-> keine Bot-Besucher mehr dieser URL) nie bekommt.

fo
PostRank 6
PostRank 6
Beiträge: 360
Registriert: 15.05.2004, 14:20

Beitrag von fo » 14.06.2005, 13:16

redcan hat geschrieben:dann schau mal hier
https://www.tarrantit.com/googlesitemap/
hmm limit 300 seiten, was soll man damit anfangen..?

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 14.06.2005, 13:24

Armi hat geschrieben:301-redirect soll eigtl. die anerkannte Methode sein - Problem ist halt dass Google diese Information mangels Verlinkung (-> keine Bot-Besucher mehr dieser URL) nie bekommt.
Ja. Ist mir schon klar. Das funktioniert auch mit dem 301er. Ich bezog mich auf die tausenden 301er. Vielleicht kannst Du die Seiten schrittweise anmelden.

redcan
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 25.04.2005, 13:25

Beitrag von redcan » 14.06.2005, 13:25

@fo
galt Yel_nats

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 14.06.2005, 13:27

Armi hat geschrieben:Es geht ja darum, dass Google endlich die https://domain.de Versionen löscht und nur noch die https://www.domain.de Versionen im Index hat.

301-redirect soll eigtl. die anerkannte Methode sein - Problem ist halt dass Google diese Information mangels Verlinkung (-> keine Bot-Besucher mehr dieser URL) nie bekommt.
Da könnte auch die robots.txt helfen. Ich verstehe aber garnicht, warum Du die Seiten gewaltsam aus dem Index entfernen willst. Google behandelt unverlinkte Seiten schon angemessen, denn darauf basiert ja die ganze Linkpopularity-Idee.

Armi
PostRank 5
PostRank 5
Beiträge: 317
Registriert: 28.05.2004, 13:03

Beitrag von Armi » 14.06.2005, 13:29

Da könnte auch die robots.txt helfen.
Nein. Es sind genau die gleichen URLs.
Ich verstehe aber garnicht, warum Du die Seiten gewaltsam aus dem Index entfernen willst. Google behandelt unverlinkte Seiten schon angemessen, denn darauf basiert ja die ganze Linkpopularity-Idee.
https://www.webmasterworld.com/forum30/29815.htm

-> Duplicate Content Problem.

Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 15.06.2005, 16:02

Hi,

hat von euch einer ne Ahnung wann die Descriptions nachgeliefert werden? Momentan sind zwar die URLs alle drin aber ohne Description.

Gruß,

Yel Nats

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag