Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

target_blank entfernen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 13.01.2010, 00:51

Bevor der Bot eine Seite holt, fragt er ob der Content sich geändert hat (es sei denn er bekommt einen 304 Not Modified HTTP Status zurück dann schaut er sich die Seite gar nicht erst an). Und jeder Webmaster der das auf seinem Server einstellen kann, sollte es tun. Das Spart eurem Server Ressourcen und der Bot hat mehr Leistung/zeit übrig um evtl. neue URLs deiner Webseite zu crawlen.

Wenn bei einer HTTP Abfrage die Byte größe änders ist als beim letzten mal (und das ist sie da du ja mindestens ein Byte pro Seite geändert hast) holt er die Seite neu ab. Das bedeutet nicht, dass man jetzt alle 3 Monate ein Byte in seinem Dokument ändert und der Bot immer schön neue Seiten crwalt die er vorher noch nicht kannte.
Axel der Autoschieber
<br><br>snippetoptimizer.de Snippet optimieren
<br><br>Css Cruncher Ladezeiten optimieren.
<br><br>Webmaster Tools

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 13.01.2010, 02:38

Mr.G113 hat geschrieben:Es wird wohl kaum einen geben, der auf die dusselige Idee kommt, alles intern mit _blank zu verlinken.
Kommt immer auf den Zielmarkt deiner Seite an. Hier in China ist target=_blank der Standard. Man klickt nicht auf "Back" sondern schließt Browser-Fenster, wenn man zur vorherigen Seite zurück gehen will.

DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 13.01.2010, 09:00

@Dominik_ wenn du mich fragst sollte sich dein Ranking hier und da etwas verbessern durch die Entfernung von target _blank, denn verschiedene Tests haben ja schon bewiesen das die Verweildauer der User mit ins Ranking einfließt.
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Dominik83
PostRank 9
PostRank 9
Beiträge: 1585
Registriert: 13.05.2009, 00:31

Beitrag von Dominik83 » 13.01.2010, 15:16

Axelm, ist im Prinzip ne gute Idee, wenn man viele Unterseiten ohne Aktivität (z.B. Kommentare) hat.

DZVO, daran hab ich noch gar nicht gedacht, ja aber wäre gut möglich, dass sich deshalb mein Ranking verbessert. Ich frag mich sowieso ob target_Blank gegen die adsense-Richtlinien verstoßt. Ist ja sogesehen auch ein Popoup.

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 13.01.2010, 15:26

DZVO hat geschrieben:@Dominik_ wenn du mich fragst sollte sich dein Ranking hier und da etwas verbessern durch die Entfernung von target _blank, denn verschiedene Tests haben ja schon bewiesen das die Verweildauer der User mit ins Ranking einfließt.
lol, das wäre mir aber neu ... was für Tests ?

und zu target='_blank' sag ich nur - es ist total egal für die Suchmaschine ob sich ne neue Seite öffnet oder nicht ...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

Stephan Zöllner
PostRank 3
PostRank 3
Beiträge: 99
Registriert: 26.11.2009, 19:37
Wohnort: Westerstetten

Beitrag von Stephan Zöllner » 14.01.2010, 21:35

@DZVO

Und bitte woher will Google das denn wisen wie lange die Besucher auf meiner Seite bleiben?
Das Google-Script kommt bei mir nicht drauf, denn das tue ich meinen Besuchern und dem Datenschutz nicht an. Außerdem kann JEDER "Hiwi" mit Noscript alle Scripte, die von einem Fremd-Server kommen blocken.
Damit fällt die Aussagekraft der Seitenzugriffe und gilt nur noch für die "dummen" und uninformirten Besucher.
Spätestens wenn Du eine technisch deutlich gebildetere Zielgruppe hast sind die Zaheln der besuche, die Google über das Script (Urchin-Tracker) also von äußerst fragwürdiger Aussagekraft.

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 14.01.2010, 22:03

Bleibt ja noch die Google Toolbar. Das sind aber alles Sachen von den OTTO Normal surfer GAR KEINEN PLAN hat. und es interessiert ihn auch nicht.
Axel der Autoschieber
<br><br>snippetoptimizer.de Snippet optimieren
<br><br>Css Cruncher Ladezeiten optimieren.
<br><br>Webmaster Tools

DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 15.01.2010, 10:21

@Stephan Zöllner @axelm
es geht auch ohne Analytics und der GoogleToolbar.
Denn gehen wir mal folgendes Szenario durch.
User geht auf google sucht nach Keyword X
bekommt nun seine 10 Ergebnisse
User klickt auf das erste Ergebniss und findet dort seine Inforamtion nicht also Backtaste im Browser gedrückt ist somit wieder bei google und klickt auf das zweite Ergebniss. Hier findet der User seine Information und benutzt somit nicht mehr google oder sucht nun was neues. Aber das soll und hier nicht interessieren.

So nun machen wir das Spielchen 10.000 mal z.B. und nun weiß auch Google das Ergebniss zwei wohl besser ist als Ergebniss eins und somit kann es dann passieren das sie die Positionen darauf neu mischen :).
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)

Stephan Zöllner
PostRank 3
PostRank 3
Beiträge: 99
Registriert: 26.11.2009, 19:37
Wohnort: Westerstetten

Beitrag von Stephan Zöllner » 15.01.2010, 22:54

@DZVO
Interesante Idee, die bei mir aber sehr oft nicht funzt weil ich gelegentlich anders suche:

1. ich bekomme eine Liste mit 100 treffern :-)
2. Ich schaue mir die Descriptions an
3. ich öffne meistens mehrere Tabs / Seiten im Hintergrund

darum kann Google keinen sicheren oder logischen Zusammenhang feststellen und die statistische Aussage geht daneben ...

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 16.01.2010, 00:21

Stephan Zöllner hat geschrieben:@DZVO
Interesante Idee, die bei mir aber sehr oft nicht funzt weil ich gelegentlich anders suche
Tab-User erkennt man doch ganz leicht daran, dass sie innerhalb kurzer Zeit viele Positionen klicken und sich recht zügig durch die ersten SERPs wühlen. Ich denke, alle hier haben diese Vorgehensweise, weil das einfach die effizienteste Art ist, viele Quellen zu sichten und sich ein Gesamtbild zu machen.

Ein möglicher Lösungsansatz dafür hat sich im Pagerank-Algo bereits bewährt. Wenn jemand nur eine Seite öffnet, wird sein Verhalten 100% dieser URL angerechnet. Wenn jemand dagegen 100 Seiten öffnet, wir sein Verhalten all diesen 100 URLs zu je 1% angerechnet. Wie der Linkjuice/Pagerank einer Seite, der sich anteilhaft auf die verlinkten Seiten verteilt.

Für die Zuverlässigkeit so eines System kommt es gar nicht auf das Userverhalten an, sondern darauf, wie viele Daten zur Verfügung stehen. Wenn genug Daten verfügbar sind, ist es egal, ob der User nun tatsächlich alle 100 Seiten angesehen hat. Notfalls kann Google sich mit dem Sammeln der Daten so viel Zeit lassen, bis sie für sichere Schlussfolgerungen taugen. Zum Beispiel einfach mal ein Jahr lang Userverhalten aufzeichnen und danach diese Daten nutzen, um die Sites (eventuell sogar auf Unterseitenbasis) mit Trust oder Penalties zu beglücken.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag