Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

'leere Hyperlinks' im Stil < a href='xyz' > < /a>

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
TheJust
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 24.02.2005, 11:01

Beitrag von TheJust » 24.02.2005, 11:12

Hallo zusammen,

hab folgendes Problem bzw. folgende Frage:
Seit ca. einem Monat ist eine von mir erstellte recht umfangreiche Seite online. Ich hab die gleich am ersten Tag mal bei google eingetragen, ins yahoo-Verzeichnis, bei dmoz.de usw. angemeldet. Der GoogleBot war auch schon da und ebenfalls der YahooBot, aber die haben beide nur die robots.txt(*) ausgelesen und dann die IndexPage also '/'. Weiterhin aber nichts.
Jetzt sieht die Navigation bei mir so aus, dass ich per onClick auf Tabellenfelder weiterleite. Weil die Bots das nicht verstehen hab ich jeweils direkt in diese Tabellefeld noch ein

Code: Alles auswählen

<a href="index.php?showPage=xyz"></a>
also im Grunde einen leeren Hyperlink gesetzt.

Die Frage ist jetzt folgende:
Muss ich einfach noch geduldig sein bis meine Page indeziert wird oder mögen die Bots diese leeren Links nicht?

Besten Dank
TheJust


(*) robots.txt:
User-agent: *
Disallow:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

marquis
PostRank 6
PostRank 6
Beiträge: 391
Registriert: 10.06.2003, 13:30
Wohnort: NRW, Deutschland

Beitrag von marquis » 24.02.2005, 11:59

einfach ne sitemap anlegen... warten... und sich freuen...

wie schaut es denn mit externen link aus...die braucht man auch;) - obige verzeichnis brauchen ja immer etwas läääääääänger....

ach so....würdest du "leere links" mögen;)

bg
m

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 24.02.2005, 12:03

Google achtet besonders auf die Linktexte. Ein leerer und daher nicht klickbarer Link dürfte nichts wert sein. Mach doch einfach normale Links ohne Javascript.

Die robots würde so mehr Sinn machen:
User-agent: *
Allow: /

Da sagst halt Du verbietest nichts. Ich sage, ich erlaube alles. Schaden dürfte Deine Variante aber nicht.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 24.02.2005, 13:08

Benutze doch ein vollkommen transparentes Bild für die Links.

Maschenka
PostRank 3
PostRank 3
Beiträge: 98
Registriert: 19.11.2004, 16:38

Beitrag von Maschenka » 24.02.2005, 13:51

Oder setz die Links mit Linktext jeweils unter das Javascript in einem <noscript> Tag. Denn wie versorgst du sonst Besucher, deren Browser kein Javascript darstellt (gewollt ausgeknipst bzw. technisch nicht möglich)? Alles was in diesem Tag steht, wird wirklich nur angezeigt, wenn Javascript nicht aktiviert ist.

robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 24.02.2005, 14:05

Apotheker hat geschrieben:Die robots würde so mehr Sinn machen:
User-agent: *
Allow: /
Nö, denn das ist nicht Standardkonform.
Apotheker hat geschrieben:Da sagst halt Du verbietest nichts. Ich sage, ich erlaube alles.
Aber wer versteht schon, was du sagst?
Apotheker hat geschrieben:Schaden dürfte Deine Variante aber nicht.
Ganz im Gegentum, die ist sogar ausdrücklich auf https://www.robotstxt.org/wc/norobots.html erwähnt.

cu, Robo :)

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 24.02.2005, 16:06

robo hat geschrieben:Nö, denn das ist nicht Standardkonform.
Es ist syntaktisch nicht falsch!
Aber wer versteht schon, was du sagst?
Jeder Robot. Bislang jedenfalls.

Wenn ich mir anschaue, welche Pannen mit der robots.txt passieren (hier gab's vor kurzem auch einen Thread dazu), finde ich die Vermeidung von Disallow nicht verkehrt. Ist aber nur mein persönlicher Geschmack. :)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag