es gibt einen "schönen HTML"-Filter. Seiten mit schlechtem HTML, die auch für einen Robot offensichtlich fehlerhaft sind, werden abgestraft Dies ist bedauerlicherweise nicht der Fall, wie eine regelmäßig von mir besuchte und gutgerankte glaubhaft zu belegen vermag. Hast Du eine URL? Weißt...
schau Dir mal diesen Service an - ich hoste zwar nicht mit dieser Firma; aber sie bieten sehr guten Service fuer nicht allzuviel: https://www.dsvr.co.uk.
Wie gesagt, koennte auch an den BLs liegen. Du kannst mir ja mal Dein URL schicken und ich schau's mir an.. ist manchmal schwierig generelle Antworten zu geben - die Sache mit den Meta Tags ist naemlich, das Google es bevorzugt eigene Kriterien einzusetzen und auf Metas nur zurueckfaellt, wenn anson...
Johanna, da Deine Seite ja auf Deutsche zu sein scheint probiers einfach mal. Wuerde mich interessieren ob es funktioniert. Also lass mal von Dir hoeren in paar Wochen. Sicherlich waere eine .de besser. Habe selber keine Erfahrung mit deutschsprachigen .coms for D Suchergebnisse. Die Sites mit denen...
also bei einer Seite wurden die Drop-Downs gespidert..? Wuerde mich intessieren warum auf dieser Seite - wenn es bei einer Seite funktioniert, dann ist es doch prinzipiell ein Indiz..
Also eine Sache funktioniert mittlerweile auf jeden Fall: Javascripteinbindungen der Form <script language="JavaScript" src="https://www.url.com/..."></script> führen mittlerweile unter gewissen Umständen dazu dass die src URL aufgenommen wird und auch PR von den Seiten bekommt ...
bull hat geschrieben:Habs zweisprachig auf einer Domain, und auf jeder Seite nen Link zur jeweils anderssprachigen gemacht. Die entsprechenden Seiten natürlich korrekt mit <html lang="de"> usw.
Interessant.. das Google externe js. scanned scheint mir aber nur fuer populaere Seiten zu gelten, wenn ich mir so den Index fuer .js filetype anschaue.