gähn!ole1210 hat geschrieben:Warum werden Seiten immer für google gemacht? Ich mache meinen Seiten für Menschen...
Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Beides unter einem Hut zu bekommen nennt man Kreativität,ole1210 hat geschrieben:Warum werden Seiten immer für google. gemacht? Ich mache meinen Seiten für Menschen....
Jup, bei mir genauso!Nullpointer hat geschrieben:ich habe viele starke seiten, in denen text per css versteckt ist. aber nicht zum spammen, sondern weil es tooltips etc. sind. davon ist noch keine gekickt worden. deshalb bin ich immer noch fest überzeugt, dass keine seite automatisch gekickt wird, sondern von einem menschenähnlichen wesen begutachtet wird.
Naiver gehts nicht mehr.Ibu400 hat geschrieben:dann könnten man das ganze nicht mal "Menschlich" nachprüfen oder ??
Code: Alles auswählen
<script type="text/javascript">
function anzeigen(das){
if(document.getElementById(das).style.display=='none')
document.getElementById(das).style.display='block';
else document.getElementById(das).style.display='none';}
</script>
» <a href="javascript:anzeigen('eins');">Text Eins anzeigen</a>
<div style="display: none;" id="eins">
Viel Text viel text viel text ...
</div>
<br>
» <a href="javascript:anzeigen('zwei');">Text Zwei anzeigen</a>
<div style="display: none;" id="zwei">
Viel Text viel text viel text ...
</div>
Das kann dann passieren, wenn Du auf einer Seite einen ganz normalen Link auf eine CSS-Datei setzt. Ansonsten solltest Du Dir sicher sein, daß die vermeintlichen Zugriffe des Googlebots keine Zugriffe via Google Webaccelerator waren.fw hat geschrieben:Ich hatte schon wiederholt bei mehreren domains css und js-Dateien bei der site-Abfrage dabei. Sie wurden auch gecrawlt wie die logs bewiesen.