Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google führt sich selbst ad absurdum!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 01.10.2006, 09:21

hard_pollux hat geschrieben:Was soll ich dagegen argumentieren? Deine Argumente sind ähnlich richtig oder falsch wie die meinigen, ist halt eine Sache des Standpunkts und der Perspektive.
Es ist natürlich eine Frage des Standpunkts, klar.
hard_pollux hat geschrieben:Aber, und das halte ich für entscheidend, warum soll ein nach vorne gespammtes Projekt nicht vorne stehen, wenn es denn tatsächlich das beste zum eingegebenen Suchbegriff ist? Und soll zu jedem Suchbegriff ein Elferrat über die Top10 entscheiden - soviele Menschen gibt es garnicht. Also automatisieren, und damit ist der Manipulation Tür und Tor geöffnet.
Ist das ein Zeichen eines guten Algos? Daß ein gutes Projekt spammen muß, um seine Leistungen honoriert zu bekommen?
Nein, natürlich muß ein Algo dahinter arbeiten. Aber ein Algo als Resultat menschlicher Bewertungen und nicht auf der Basis von Links.
hard_pollux hat geschrieben:Öffentlicher Algo! Stell' Dir mal vor, G würde seinen Algo veröffentlichen - die könnten morgen zumachen - der dümmste Hansel würde die dann manipulieren - es sei denn, das Portfolio reicht nicht.
Was wurde Linux schon alles prophezeit? Was Wikipedia? Beide laufen dennoch einigermaßen stabil. Gerade ein öffentlicher Algo ist zum Einen fair für alle Webmaster, und ermöglicht zum Anderen jedem an Verbesserungen daran zu arbeiten.
hard_pollux hat geschrieben:Content = King! Wieviel MB per Page sind denn da so für Rang 1 angedacht? Kann garantiert mehr liefern !!!
Guter Content ist keine Frage der Quantität sondern der Qualität. Sollte eigentlich klar sein.
hard_pollux hat geschrieben:Ich behaupte mal, in ganz DE ist niemand auch nur annähernd in der Lage, einen besseren Algo zu entwickeln, wie der aktuelle von G.
Die Aussage ist mir zu pauschal. Das kann sein, muß aber nicht.
hard_pollux hat geschrieben:Und daß er gut ist, beweisen Dir die vielen Tränen hier, Billigmanipulation läuft nicht mehr, und selbst wenn in einzelnen Fällen doch - wo liegt das Problem, wenn das Ergenis relevant ist, ich vermag das nicht zu erkennen. Und auch das ist möglicherweise als gut zu bewerten, daß Spam zugelassen wird, wenn das Ergebnis relevant ist, sofern nicht explizit gegen die Richtlinien verstoßen wird. Irgendwie muß man doch nach vorne kommen, oder?
Was ist besser? Ein Algo der manipuliert werden muß, damit er relevante Ergebnisse liefer, oder einer der's auch ohne Manipulationen schafft?
hard_pollux hat geschrieben:Meine Projekte stehen z.Zt. besser als je zuvor, weil ich mir den Arsch aufgerissen habe, seit den Abstürzen. Die Zeiten, wo man ein paar Seiten ins Netz klatscht, paar gekaufte Links drauf und im Beutel klingelt es, sind vorbei. Wenngleich die Masse der Webbies danach handelt. Erlebe es jeden Tag.
Du, meine Seiten stehen auch fein da. Aber wieso denn eigentlich? Ich hab mit Sicherheit nicht immer den besten Content (auch nicht den Schlechtesten), aber ich hab einfach mehr Links als die Konkurrenz und fertig.
hard_pollux hat geschrieben:Sicher, der Algo hat auch Bugs, und deren Nutzung ist nur ganz Wenigen vorbehalten.
M$ wartet auch regelmäßig mit Bugfixes auf. Und wäre Linux derart verbreitet wie M$, der Community würde ganz schnell Hören und Sehen vergehen, wenn sich gewisse Elemente darauf stürzen würden. Aber kaum jemand sucht nach Bugs in Lin.

Gruß
HardPollux
Das wird immer als Argument angeführt. Mag sicherlich auch was dran sein, aber bewiesen ist's nicht.
Es geht ja auch nicht darum eine SuMa zu entwickeln, die Google von heut auf morgen 80% Marktanteil wegschnappt. Das wird nicht möglich sein. Es geht nur um eine echte Alternative. Innovationen beleben den Markt, letztlich würden alle davon profitieren.
Selbst Microsoft legt inzwischen deutlich mehr Wert auf Sicherheit als jemals zuvor. Da sind alternative Betriebssysteme sicherlich nicht ganz unschuldig dran.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

highflyer
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 08.08.2005, 18:40

Beitrag von highflyer » 01.10.2006, 09:48

dass der hardpollux keine ahnung hat hat er ja schon öfters bewiesen. das er richtig dumm ist, hat er heute bewiesen. mein lieber hardpollux, ich kläre dich mal etwas auf. ich baue niemals billigseiten und versuche zu manipulieren. klar versucht man mit den mitteln die einem zur verfügung stehen, nach vorne zu kommen. aber mit echtem content. und mein content ist um längen besser als die scheisse die google den leuten serviert. darum geht es und genau darum rege ich mich auf. du solltest dich schämen, obwohl du nicht eine einzige seite von mir kennst, solche dinge zu behaupten. ich habe es dir bereits öfters gesagt, solche dinge tun nur leute, die nicht grad mit intelligenz besegnet sind.
übrigens, wenn du der meinung bist hier würde nur die konkurrenz lesen und du trägst daher keinen konstruktiven beitrag, dann verzieh dich doch woanders. dann kannst du deine angeblichen "tollen und superschlauen gedanken" für immer für dich behalten. ich glaub dir aber nix mein freund. armselig was du hier ablieferst.

highflyer
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 08.08.2005, 18:40

Beitrag von highflyer » 01.10.2006, 10:08

Schau Dir den @highflyer an. Seine Manipulationen von gestern laufen nicht mehr - jetzt ist Google Scheiße
damit meine ich aussagen wie diese. gibt noch mehr müll von dir aber ich wühl halt nicht gern drin drum. dafür bist du mir viel zu unwichtig.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 01.10.2006, 11:52

Das Google den Markt regelt dürfte jedem klar sein. Aber das Google unantastbar ist, ist schlicht und ergreifend nicht wahr. Google kann von heute auf Morgen Platt sein und Millionen von Kleinst, Klein-, Mittel- und Großunternehmen mit ihm. Das wäre fast schon der Kollaps der Weltwirtschaft.

Eine Firma, die wir betreuen, setzt seit Bestehen einzig und alleine auf Google. Wir erzählen ihr immer, wie schnell es gehn kann, dass der Ball, mit dem man noch heute Tore schießt, morgen bereits ohne Luft sein kann. Mit wenig Erfolg. Nun ist den Ball die Luft ausgegangen. Und Tschüss Firma... fast...

Das zeigt aber schön, wie abhängig der gemeine Webmaster sich von Google macht, weil er sonst nichts kennt und weil von sonstwoher auch leider keine besucher kommen. Das bedeutet aber nicht, dass die anderen nicht da wären oder schlechter wären, das bedeutet NUR, dass die keine Lobby (mehr) haben und gezielt unterm Stiefel von Tante Google stehn.

Das ändert man nicht, weil man über Google schimpft.
Vielleicht wäre es in der Tat eine gute Idee, mal eine Suchbox einer zuvor vereinbarten Alternativ-Suma einzubauen. Wenn jeder Abakususer das machen würde, wären das schon ein paar Tausend. Ein paar tausen Tropfen auf eine Sonne, ok, aber diese Tropfen können zu Pfützen werden und diese zu Seen...

Einen neuen Algo entwickeln? Wofür eigentlich, wenn die beste Suchmaschine der Welt auch gleich die einfachste ist. Der ZUFALL. Warum nicht die Suchergebnisse nach reinem Zufall ordnen, bei jedem Aufruf ein anderer. Bei den Massen, die Google hat, hätte im Schnitt jede Top100 Seite etwa gleich viele Besucher. Für die Spammer müsste es natürlich OpenSource sein, damit man diese rauskegeln kann.

Sowas wäre durchAUS eine sozialistische SE, denn der Grundsatz des Sozialismus wie auch des Kommis ist es das Kapital möglichst gleich zu verteilen und das kann NUR Mutter Zufall ;)

Aber ich denke mal, selbst dafür würde man kein Team auf die Beine stellen können, die nicht ihren eigenen Vorteil suchen. Wenn ich 100 Leute kennen würde, die meine Philosophie vertreten und genauso konsequent wäre wie ich (jaja, Selbstbeweihräucherung ich weiß, aber scheiß drauf), würde ich in einen Jahr eine Suma aus dem Boden stampfen, die Google durchaus den Kampf ansagen kann, weil sie (möglichst) GERECHT wäre. Leider kenne ich keine 100 solcher Leute...
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

highflyer
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 08.08.2005, 18:40

Beitrag von highflyer » 01.10.2006, 12:02

ich halte wenig von gerechten suchergebnissen und zufallsprinzip.
der user möchte gute suchergebnisse. das kann nicht mit algorithmen gelöst werden. weil maschinen immer den gemeinen tricks hinterherhinken.

im prinzip müsste sich ein webkatalog durchsetzen, der gleichzeitig seine angemeldeten seiten spidern und indexieren kann. den webkatalog pflegen freie mitarbeiter wie beim odp. so hat man den spam vom hals. so oder ähnlich könnte es funktionieren. daneben gibt es noch viele weitere ideen. es ist möglich. google muss und wird zerschlagen. ihr werdet es sehen. irgendwann wird eine suchmaschine daherkommen und alle werden kreischen, warum bin ich nicht auf die geniale idee gekommen. googles algorithmus basierend auf links ist eine technologie von gestern. es muss was neues her. wie gesagt, ich beispielsweise und viele andere hätten mit sicherheit gute ideen.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 01.10.2006, 19:40

Bei Suchmaschinen ist es wie bei den Mails: die, die wirklich in großem Stile SuMas und eMail-Boxen terrorisieren sind in Wirklichkeit ganz wenige.
Es wäre mithin ein relativ geringer Aufwand, diese asozialen Elemente wegzuhauen und auf Ewigkeit abzuwürgen, ist immer eine Frage des Interesses an so einem Prozess, denn es geht immer nur um Geld.
Eine Random-Funktion bei einer Suchabfrage einzusetzen ist nur dann sinnvoll, wenn der Datenstamm ein gewisses Maß erreicht hat, dann halte ich das aber durchaus für sinnvoll.
Man muß sich übrigens mal vor Augen halten, wie groß ein Datenstamm sein muß, um den Mainstream zu bedienen- der ist kleiner, als man denkt.
Wer einmal Suchanfragen auswerten durfte, weiß das. Insofern wäre eine konkurrierende SuMa zunächst einmal mit relativ kleinem Aufwand zu betreiben um 90-95% der User zu befriedigen.
Selbst spezielle Themen wie z.B. Perl-Programmierung sind mit ein paar hunderttausend Seiten Inhalt abgefeiert; wer die UseNet-Diskussionen verfolgt der weiß, daß ab einem gewissen Punkt das Meiste nur noch zitiert wird oder ein Aufguß alter Inhalte ist.
Insofern ist der Ansatz, Google Konkurrenz zu machen, sowohl auf der programmiertechnischen Seite gering wie auch auf der Hardware-Seite überschaubar. Betreibt man das ganze als verentzte Suche ist die Hardware überhaupt kein Thema mehr (Beispiel SETI).
Die Technik ist für einigermassen begabte Programmierer einfach, Hauptproblem ist die Gewichtung und Einstufung der Relevanz von Inhalten. Da hat man dann ein schönes Beispiel, wie man es nicht machen sollte, mit Google vor Augen.
Die Zeit ist da, die Ressourcen sind da, die Technik beherrschbar. Insofern dürfte Tante Google gerade sanft seufzend ihren Klimax erreicht haben, von nun an geht's bergab.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 01.10.2006, 20:23

AnjaK hat geschrieben:Aber ich denke mal, selbst dafür würde man kein Team auf die Beine stellen können, die nicht ihren eigenen Vorteil suchen....
Doch, zumindest die, die hinten stehen + bei Zufallsergebnissen dann auch mal vorne sein werden.

Dragobert
PostRank 9
PostRank 9
Beiträge: 1246
Registriert: 08.02.2006, 20:40
Wohnort: Nürnberg

Beitrag von Dragobert » 01.10.2006, 21:46

@highflyer

Was ist "gut" ?
Wer entscheidet z.B. welche SEO-Artikel gut welche schlecht sind ? Ein Algo ?


@alle

Niemand will Spam, aber dennoh sind auch hier im Thread einige die so ziemlich alles
tun würden um vorwärts zu kommen. Auch spammen.
Der Kreis schließt sich wieder. Niemand will Spam, aber wenn es einen vorwärts bringt...

Linknetzwerke sind verpönt in SEO Kreisen. Auch hier im Forum.
Aber gerade hier im ABAKUS-Forum sind einige dabei, die so ziemlich die größten
Linkfarmen betreiben, aber gute SEO-Ratschläge geben. Auch über Linknetzwerke.

Wie will man 11 Milliarden Seiten einordnen, katalogisieren ?
Nach welchen Gesichtspunkten ?
Ein Team wie bei ODP ?

Ich finde es schade das Yahoo und co. nicht mehr mit Google mithalten können.
Aber was wollen sie machen ?
Ähnlich wie Microsoft.
Erst rennen sie alle richtung Windows, weil alles Andere nix taugt, Windows ist "IN",
Jahre später jammern sie dass es ausser Windows nix gibt. Nix ernshaftes.


Es ist wirklich schwer ausgeglichen zu bleiben.
Und einschätzen wohin die Zeit geht.

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 01.10.2006, 23:11

Eigentlich ist doch schon eine unabhängige Suchmaschine da, nehm ich doch zumindest mal ganz stark an. Metager wird vom Bereich Informatik der UNI Hannover entwickelt. Bitte fragt mich nicht, warum die den deutschen Markt noch nicht erobert haben. :wink:

wulfo
PostRank 9
PostRank 9
Beiträge: 994
Registriert: 05.02.2004, 17:28
Wohnort: Sachsen

Beitrag von wulfo » 02.10.2006, 08:26

Hi highflyer
im prinzip müsste sich ein webkatalog durchsetzen, der gleichzeitig seine angemeldeten seiten spidern und indexieren kann. den webkatalog pflegen freie mitarbeiter wie beim odp.
Ich halte vom odp nicht so viel, lange Berarbeitungszeiten, bestechliche Etidore, Nachkontrollen fast keine, nur einige Dinge die nicht passen.
Und wieviel Leute sollen dann in so einen Webkatalog beschäftigt werden, um das es funktioniert?

MeNoZony
Selbst spezielle Themen wie z.B. Perl-Programmierung sind mit ein paar hunderttausend Seiten Inhalt abgefeiert; wer die UseNet-Diskussionen verfolgt der weiß, daß ab einem gewissen Punkt das Meiste nur noch zitiert wird oder ein Aufguß alter Inhalte ist.
Bei der Programmierung zb ist es doch auch so das sich diese ständig weiterentwickelt. Was ist wenn jetzt ein neuer begabter Programmierer eine Entdeckung gemacht hat und dieses im Internet weitergeben möchte, oder vermarkten.
Diesen nimmst du damit jedliche Chance, da es ja angeblich schon alles gibt :wink:
Und dieses kann auf viele ander Dinge ausgeweitet werden.

Wumba
PostRank 5
PostRank 5
Beiträge: 202
Registriert: 19.06.2003, 15:41

Beitrag von Wumba » 02.10.2006, 11:08

https://www.metager2.de/


Warum das Rad zweimal erfinden...............

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 02.10.2006, 11:44

Recht vernünftige Ergebnisse, aber zuviel Redundanz, zuwenig Transparenz.
Wumba hat geschrieben:https://www.metager2.de/
Warum das Rad zweimal erfinden...............
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

Wumba
PostRank 5
PostRank 5
Beiträge: 202
Registriert: 19.06.2003, 15:41

Beitrag von Wumba » 02.10.2006, 11:48

man kann nicht alles haben, öffnen die sich weiteren ergebnissen, spülts wohl auch den spam mit rein

highflyer
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 08.08.2005, 18:40

Beitrag von highflyer » 02.10.2006, 11:52

@highflyer

Was ist "gut" ?
es ist natürlich immer eine frage was gut und was schlecht. grundsätzlich sollte aber doch jedem klar sein, was mit höchster wahrscheinlichkeit besser als andere seiten sind. und da kann ich dir ein beispiel geben. unter einem suchbegriff, eigentlich mein hauptkey, landet irgendeine subdomain, mit in worten EINER EINZIGEN SEITE auf platz 1. diese seite bietet NULL informationen und ist eine 0900er nummer seite. hier kann ich mit meinen in worten FAST ZWEITAUSEND HANDGESCHRIEBENEN SEITEN mit sicherheit behaupten, dass meine seite KLAR BESSER ist. deswegen sage ich, google serviert den leuten SCHEISSE. GANZ KLAR. da gibt es keine diskussionen.
Ich halte vom odp nicht so viel, lange Berarbeitungszeiten, bestechliche Etidore, Nachkontrollen fast keine, nur einige Dinge die nicht passen.
Und wieviel Leute sollen dann in so einen Webkatalog beschäftigt werden, um das es funktioniert?
wer sagt denn bitteschön, dass man es HAARGENAU so machen soll wie das odp? dass ein webkatalog von freien mitarbeitern gepflegt werden muss, dass ist doch klar. aber in genau diesen punkten kann man es anders wie das odp machen. ihr solltet mal nicht alles schlechtreden und mal die ideen der leute anhören. man kann sehr wohl sehr viele editoren dazu veranlassen, gute seiten in den index zu bringen. indem man beispielsweise die editoren einfach am erfolg beteiligt. was tut denn google im moment? dmoz beschäftigt haufen leute die kostenlos im endeffekt das verzeichnis von google pflegen. weil dieser speist sein verzeichnis damit. daher ist es überhaupt nicht verwunderlich, dass es dort viel korruption gibt und viele nur editoren werden, weil sie ihre eigenen seiten unterbringen können. danach gehen sie wieder. ich würde das genauso machen. bin ich denn blöd im endeffekt für google die arbeit zu machen? mit sicherheit nicht. dieses problem kann man durchaus umgehen, indem man erstens die beschwerden der webmaster über nicht aufgenommene seiten ernst nimmt, sich nicht dermaßen arrogant verhält und immer nur lapidare links zu guidelines und regeln abgibt so wie viele editoren das tun, vor allem aber die editoren nach einem punktesystem (je nach umfang über AUFGENOMMENE SEITEN DIE WIRKLICH OK SIND) die editoren am erfolg beteiligt. wenn beispielsweise eine suchmaschine 10.000.000.000 € an der börse wert ist, die suchmaschine 10.000 freie editoren hat und diese am unternehmenswert beteiligt, so hat jeder editor ein beteiligungskapital von 1.000.000 €.
DAS IST NUR EIN KLEINES BEISPIEL WIE INTELLIGENTE MENSCHEN INTELLIGENTE LÖSUNGEN ZAUBERN KÖNNEN. ABER DER GROSSTEIL IST JA DUMM UND KANN NICHT ÜBER DEN TELLERRAND HINAUSSCHAUEN.

highflyer
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 08.08.2005, 18:40

Beitrag von highflyer » 02.10.2006, 11:57

noch was, mit 10.000 editoren kann man das gesamte web durchaus managen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag