Seite 1 von 1

'leere Hyperlinks' im Stil < a href='xyz' > < /a>

Verfasst: 24.02.2005, 11:12
von TheJust
Hallo zusammen,

hab folgendes Problem bzw. folgende Frage:
Seit ca. einem Monat ist eine von mir erstellte recht umfangreiche Seite online. Ich hab die gleich am ersten Tag mal bei google eingetragen, ins yahoo-Verzeichnis, bei dmoz.de usw. angemeldet. Der GoogleBot war auch schon da und ebenfalls der YahooBot, aber die haben beide nur die robots.txt(*) ausgelesen und dann die IndexPage also '/'. Weiterhin aber nichts.
Jetzt sieht die Navigation bei mir so aus, dass ich per onClick auf Tabellenfelder weiterleite. Weil die Bots das nicht verstehen hab ich jeweils direkt in diese Tabellefeld noch ein

Code: Alles auswählen

<a href="index.php?showPage=xyz"></a>
also im Grunde einen leeren Hyperlink gesetzt.

Die Frage ist jetzt folgende:
Muss ich einfach noch geduldig sein bis meine Page indeziert wird oder mögen die Bots diese leeren Links nicht?

Besten Dank
TheJust


(*) robots.txt:
User-agent: *
Disallow:

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 24.02.2005, 11:59
von marquis
einfach ne sitemap anlegen... warten... und sich freuen...

wie schaut es denn mit externen link aus...die braucht man auch;) - obige verzeichnis brauchen ja immer etwas läääääääänger....

ach so....würdest du "leere links" mögen;)

bg
m

Verfasst: 24.02.2005, 12:03
von Apotheker
Google achtet besonders auf die Linktexte. Ein leerer und daher nicht klickbarer Link dürfte nichts wert sein. Mach doch einfach normale Links ohne Javascript.

Die robots würde so mehr Sinn machen:
User-agent: *
Allow: /

Da sagst halt Du verbietest nichts. Ich sage, ich erlaube alles. Schaden dürfte Deine Variante aber nicht.

Verfasst:
von

Verfasst: 24.02.2005, 13:08
von SloMo
Benutze doch ein vollkommen transparentes Bild für die Links.

Verfasst: 24.02.2005, 13:51
von Maschenka
Oder setz die Links mit Linktext jeweils unter das Javascript in einem <noscript> Tag. Denn wie versorgst du sonst Besucher, deren Browser kein Javascript darstellt (gewollt ausgeknipst bzw. technisch nicht möglich)? Alles was in diesem Tag steht, wird wirklich nur angezeigt, wenn Javascript nicht aktiviert ist.

Verfasst: 24.02.2005, 14:05
von robo
Apotheker hat geschrieben:Die robots würde so mehr Sinn machen:
User-agent: *
Allow: /
Nö, denn das ist nicht Standardkonform.
Apotheker hat geschrieben:Da sagst halt Du verbietest nichts. Ich sage, ich erlaube alles.
Aber wer versteht schon, was du sagst?
Apotheker hat geschrieben:Schaden dürfte Deine Variante aber nicht.
Ganz im Gegentum, die ist sogar ausdrücklich auf https://www.robotstxt.org/wc/norobots.html erwähnt.

cu, Robo :)

Verfasst: 24.02.2005, 16:06
von Apotheker
robo hat geschrieben:Nö, denn das ist nicht Standardkonform.
Es ist syntaktisch nicht falsch!
Aber wer versteht schon, was du sagst?
Jeder Robot. Bislang jedenfalls.

Wenn ich mir anschaue, welche Pannen mit der robots.txt passieren (hier gab's vor kurzem auch einen Thread dazu), finde ich die Vermeidung von Disallow nicht verkehrt. Ist aber nur mein persönlicher Geschmack. :)