Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Link mit oder ohne dynamischen timestamp, was ist besser?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
spiceflo
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 29.11.2005, 08:12

Beitrag von spiceflo » 30.11.2005, 12:28

Hallo Leute,

erstmal Hallo ans Forum, da dies hier ja mein erster Beitrag ist :wink:

Und dann gleich mal meine erste Frage.

Ich habe Links die mit einem timestamp versehen werden, so z.B.

www.diedomain.de/unterseite/test.asp?ts=446543

Dieser Timestamp ändert sich täglich und soll verhindern, dass die Seiten gecacht werden und somit Änderungen bei den Usern nicht angezeigt werden. Hat es nun Auswirkungen auf Google wenn ich den timestamp, weglasse, also dann nur noch

www.diedomain.de/unterseite/test.asp

habe?

Vom logischen her, müsste es sich doch positiv auswirken, da es mit Timestamp für Google immer ein neuer Link ist.

Ich habe auch schon mal in Google nach den Linkpfad mit und ohne timestamp gesucht. Der Linkpfad ohne timestamp wird gefunden, der Linkpfad mit timestamp nicht. Heißt das irgendwas?

Vielen Dank schonmal!

Flo

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ArturO
PostRank 6
PostRank 6
Beiträge: 372
Registriert: 25.09.2005, 10:41

Beitrag von ArturO » 30.11.2005, 13:20

Sehe ich das richtig, dass sich je nach tageszeit das Linkziel Ändert?
Das Würde bedeuten, dass Google bei jdem Besuch einen "neuen Link" und damit eine "neue Seite" auffindet. Da die URl unterschiedlich ist, der Inhalt jedoch immer der selbe, hat Google bald Viele Seiten im Index, die vom Inhalt alle gleich sind. Das wirkt sich weder auf test.asp noch test.asp?ts=126 positiv aus. Was angeblich positive Auswirkungen habn soll ist ständig aktueller Inhalt.

shapeshifter
PostRank 9
PostRank 9
Beiträge: 1480
Registriert: 20.10.2004, 16:01

Beitrag von shapeshifter » 30.11.2005, 15:20

Das ist in der Tat ein echtes Problem.

Ich würde den Timestamp SOFORT entfernen, sonst hast DU ein MASSIVES duplicate-content Problem.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

spiceflo
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 29.11.2005, 08:12

Beitrag von spiceflo » 30.11.2005, 16:08

Hallo Ihr beiden, erstmal danke für die Antworten.

@ArturO

Ja genau, bei jedem Seitenaufruf ändert sich der Link durch den Timestamp. Somit bleibt der Inhalt gleich aber der Link ändert sich dauernd.

@shapeshifter

Ich habe jetzt mal zum Thema duplicate-content Problem nachgeschaut. Dort wird immer davon gesprochen, dass der Inhalt auch tatsächlich dubliziert wird, was in meinem Fall ja nicht zutrifft. Wie verhält sich denn Google genau wenn es meine Seite spidert. Bleibt der bisherige Index erhalten und die neu gespiderten Seiten hinzugefügt.

also z.B.:

01.10.: www.diedomain.de/unterseite/test.asp?ts=446543
05.10.: www.diedomain.de/unterseite/test.asp?ts=654868
02.11.: www.diedomain.de/unterseite/test.asp?ts=654684

Dann wäre es für Google ja duplicate-content weil drei Links mit dem selben Inhalt vorliegen?!


Wenn aber der alte Index nur durch den neuen überschrieben wird, also z.B.

01.10.: www.diedomain.de/unterseite/test.asp?ts=446543

durch

05.10.: www.diedomain.de/unterseite/test.asp?ts=654868

Dann steht ja nur der Link vom 05.10. im Index und somit wäre kein duplicate-content vorhanden.

Danke

shapeshifter
PostRank 9
PostRank 9
Beiträge: 1480
Registriert: 20.10.2004, 16:01

Beitrag von shapeshifter » 30.11.2005, 16:19

Zunächst musst Du davon ausgehen dass alles, was Google findet, auch bei Zeiten indiziert wird.

Sollte also eine einzelne Seite unter X-Urls zu erreichen sein, so wird sie unter den verschiedneen Urls indiziert. Dabei ist es zunächst egal, ob der gleiche Content vorliegt. Diverse Filter stufen dann jedoch die kopien der Seiten als duplicate-content ein und deine Seite wird abgewertet.

Sollte eine alte URL nicht mehr erreichbar sein(www.diedomain.de/unterseite/test.asp?ts=446543 meldet 404), verschwindet sie irgendwann aus dem Index - das dauert aber ziemlich lange.

Nun muss Google die neue (www.diedomain.de/unterseite/test.asp?ts=654868 ) erstmal wieder finden und indizieren.

Du hast also entweder das Problem mit duplicate-content oder ein Problem damit, dass der Content dieser Seite nie einen festen Platz im Google-Index einnimmt und weder Ranking- noch PR-technisch von Relevanz sein kann.

Mal ganz ehrlich - Caching zu vermeiden geht auch einfacher - und das ohne Google-Probleme.

Informier Dich mal über die Generierung von HEADER-Daten und nutze METAS etc.

Dein Ansatz schlägt im Bezug auf SUMAs in jedem Fall fehl.

spiceflo
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 29.11.2005, 08:12

Beitrag von spiceflo » 30.11.2005, 16:28

ok, super, vielen dank für die Info !!!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag