Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Aus Google raus wegen verborgenem Text

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
erdbeerschorsch
PostRank 6
PostRank 6
Beiträge: 350
Registriert: 12.07.2005, 16:31
Wohnort: Keine Ergebnisse gefunden.

Beitrag von erdbeerschorsch » 19.03.2007, 23:18

ole1210 hat geschrieben:Warum werden Seiten immer für google gemacht? Ich mache meinen Seiten für Menschen...
gähn!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ChrisHein
PostRank 5
PostRank 5
Beiträge: 265
Registriert: 09.09.2006, 20:18

Beitrag von ChrisHein » 20.03.2007, 00:31

erdbeerschorsch hat geschrieben:
ole1210 hat geschrieben:Warum werden Seiten immer für google gemacht? Ich mache meinen Seiten für Menschen...
gähn!
Recht hat er aber!

GreenHorn
PostRank 10
PostRank 10
Beiträge: 4487
Registriert: 19.12.2005, 15:01

Beitrag von GreenHorn » 20.03.2007, 00:44

ole1210 hat geschrieben:Warum werden Seiten immer für google. gemacht? Ich mache meinen Seiten für Menschen....
Beides unter einem Hut zu bekommen nennt man Kreativität,
in umkämpften Positionen Angriffsflächen wie hier beschrieben zu bieten ist pure Dummheit.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 20.03.2007, 04:47

ich habe viele starke seiten, in denen text per css versteckt ist. aber nicht zum spammen, sondern weil es tooltips etc. sind. davon ist noch keine gekickt worden. deshalb bin ich immer noch fest überzeugt, dass keine seite automatisch gekickt wird, sondern von einem menschenähnlichen wesen begutachtet wird.

symantec
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 26.11.2003, 23:13

Beitrag von symantec » 20.03.2007, 05:23

Verstehe nicht warum man Text verstecken muss, selbst wenn es eine reine Ansammlung von Keys ist welchen Besucher stören die am Ende der Seite da achtet kein User drauf.

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 20.03.2007, 08:31

sugar hat geschrieben:Ich dachte nur ich könnte so ein paar weitere Keywords unterbringen, ich hatte es bereits auf vielen Seiten so gesehen.
Wenn Leute von einer Brücke springen, springst du dann auch gleich hinterher?

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 20.03.2007, 08:34

dergerechte hat geschrieben:Google liest kein CSS!

Ich denk eher, dass dich jemand verpfiffen hat!
Das sehe ich absolut genauso. Meine Test sowie eine gründliche (!) Analyse von Logdaten haben das ebenfalls bestätigt.

sugar
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 19.03.2007, 18:13

Beitrag von sugar » 20.03.2007, 09:19

Puh.. heute ist die Seite wieder in Google drin! :D

Muaddib
PostRank 5
PostRank 5
Beiträge: 264
Registriert: 31.05.2005, 12:08

Beitrag von Muaddib » 20.03.2007, 10:50

moin hat geschrieben:"Pestrafung" (pevor man den Purschen zu Poden wirft [spuck])
Purchen!
/\

Wenn chon... denn chon...

Ibu400
PostRank 4
PostRank 4
Beiträge: 180
Registriert: 15.01.2007, 15:57

Beitrag von Ibu400 » 20.03.2007, 11:03

kann man den google Bot nur für die CSS sperren ??

und was passiert wenn man allgemein die CSS sperrt ??
also per

RewriteEngine On
RewriteCond %{HTTP_REFERER} !^https://meineseite.html$
RewriteRule ^styles.css$ index.html

dann könnten man das ganze nicht mal "Menschlich" nachprüfen oder ??

twitch
PostRank 9
PostRank 9
Beiträge: 1222
Registriert: 09.04.2005, 14:01

Beitrag von twitch » 20.03.2007, 11:36

Nullpointer hat geschrieben:ich habe viele starke seiten, in denen text per css versteckt ist. aber nicht zum spammen, sondern weil es tooltips etc. sind. davon ist noch keine gekickt worden. deshalb bin ich immer noch fest überzeugt, dass keine seite automatisch gekickt wird, sondern von einem menschenähnlichen wesen begutachtet wird.
Jup, bei mir genauso!
Solange das nicht zum spammen benutzt wird, geht das total in Ordnung. Ansonsten können neue Webseiten, die viel JS einsetzten und dadurch inhalte hidden setzten/ und anzeigen, einpacken.

SEO - History, Tools, Videos, Downloads und mehr auf https://www.seo-ranking-tools.de/

fw
PostRank 6
PostRank 6
Beiträge: 464
Registriert: 11.07.2005, 23:02

Beitrag von fw » 20.03.2007, 11:57

Ibu400 hat geschrieben:dann könnten man das ganze nicht mal "Menschlich" nachprüfen oder ??
Naiver gehts nicht mehr.
Einmal kurz als menschlicher Besucher das stylesheet abschalten (für den FF gibts zig exensions die das mit einem Mausklick erledigen) und man weiß Bescheid. => evtl. Spamreport
Und die großen SuMas hinderst du mit sowas auch nicht daran derlei Spielchen direkt rauszufinden.

@phereia
Ich hatte schon wiederholt bei mehreren domains css und js-Dateien bei der site-Abfrage dabei. Sie wurden auch gecrawlt wie die logs bewiesen.

Ibu400
PostRank 4
PostRank 4
Beiträge: 180
Registriert: 15.01.2007, 15:57

Beitrag von Ibu400 » 20.03.2007, 12:22

naja es gibt ja noch mehr ;-)

Code: Alles auswählen

<script type="text/javascript">
 function anzeigen&#40;das&#41;&#123;
  if&#40;document.getElementById&#40;das&#41;.style.display=='none'&#41; 
   document.getElementById&#40;das&#41;.style.display='block'; 
  else document.getElementById&#40;das&#41;.style.display='none';&#125;
</script>

» <a href="javascript&#58;anzeigen&#40;'eins'&#41;;">Text Eins anzeigen</a>
<div style="display&#58; none;" id="eins">
   Viel Text viel text viel text ...
</div>

<br>

» <a href="javascript&#58;anzeigen&#40;'zwei'&#41;;">Text Zwei anzeigen</a>
<div style="display&#58; none;" id="zwei">
   Viel Text viel text viel text ...
</div>

kann der Bot jetzt eigentlich die CSS auslesen bzw. zwei Dateien in Relation bringen ?? konkret wenn der Bot visibility: hidden; aufschnappt er einen Mitarbeiter meldung gibt dort mal nachzusehen ?

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 20.03.2007, 17:07

fw hat geschrieben:Ich hatte schon wiederholt bei mehreren domains css und js-Dateien bei der site-Abfrage dabei. Sie wurden auch gecrawlt wie die logs bewiesen.
Das kann dann passieren, wenn Du auf einer Seite einen ganz normalen Link auf eine CSS-Datei setzt. Ansonsten solltest Du Dir sicher sein, daß die vermeintlichen Zugriffe des Googlebots keine Zugriffe via Google Webaccelerator waren.

fw
PostRank 6
PostRank 6
Beiträge: 464
Registriert: 11.07.2005, 23:02

Beitrag von fw » 20.03.2007, 19:55

phereia, es gab nie einen normalen Link auf css oder js-Dateien.
Es waren sicher keine Zugriffe via Google Webaccelerator.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag