Netzpresse Home
Image map
Update: 20-APR-2000
Ranking

DIREKTSUCHE

Zur DirektsucheDie besten Suchdienste auf einen Klick mit Syntaxreferenz auf einen Blick

GRUNDLAGEN
Suchmaschinen
Webkataloge
Meta-Suche
Newsgroups
Such-Verzeichnisse
Portale
Ranking
Such-Syntax
Suchtiefe
BESPRECHUNGEN
Suchmaschinen
AltaVista
Excite
Fireball
GoTo.com
HotBot
Infoseek
Lycos
Northern Light
Sear.ch
Webcrawler
Usenet-Suche
Deja.com
Reference.com
Meta-Suchmaschinen
Metacrawler
MetaGer
Metaspinner
Such-Verzeichnisse
All in One
Internet Sleuth
Klug Suchen
Karl-Heinz Resch
Webkataloge
Britannica
Dino Online
LookSmart
Magellan
Yahoo
Web.de


NEWS-TRACKER

Auf den ersten Blick gleichen sich alle Suchmaschinen: In ein Textfeld werden die Suchbegriffe eingetragen, ein Klick auf "Suchen" bzw "Search" startet den Suchvorgang, und nach wenigen Sekunden erscheint dann die Trefferliste - zumeist zehn Fundstellen pro Ausgabeseite. Welche Fundstellen aber werden zuerst gezeigt und welche zuletzt?

Aus Sicht des Anwenders ist die Sache klar: Die Seiten, die meinen Kriterien am nächsten kommen, also sachlich und thematisch am besten passen, möchte ich, bitte sehr, ganz oben auf der Liste sehen. Die Software der Suchmaschinen versucht dies durch ein sogenanntes "Ranking", also eine Bewertung der Treffer, zu bewerkstellen - leider mehr schlecht als recht.

TREFFER-BEWERTUNG STUR MATHEMATISCH

Computer sind (immer noch) doof. Deshalb gehen Ranking-Modelle der ersten Generation stur mathematisch an die Sache heran. Je häufiger ein Suchbegriff auf einer Seite auftaucht, um so relevanter muss sie sein - so lautet das Grundprinzip.

Manche Maschinen schenken dem im Browser sichtbaren Text für die größte Aufmerksamkeit; andere messen dem Seitentitel besondere Wichtigkeit bei oder halten es für besonders wichtig, wenn der Suchbegriff im Domainnamen vorkommt; wieder andere prüfen die Attribute in den sogenannten Meta-Tags, die der Surfer gar nicht zu Gesicht bekommt, es sei denn, er schaut in den HTML-Code (HTML ist die Auszeichnungs-Sprache für Webseiten).

Innerhalb dieser Metadaten kann der Autor der betreffenden Seite zum Beispiel eine inhaltliche Kurzbeschreibung verfassen. Außerdem kann er thematisch passende Schlagworte festlegen. All diese Angaben können dann für das Ranking ausgewertet werden. Die meisten Suchmaschinen zeigen übrigens die Kurzbeschreibung aus den Metadaten in ihrer Trefferliste an.

In Anhängigkeit von der Häufigkeit der gefundenen Begriffe und der Fundstellen werden dann Rankingpunkte oder -prozente vergeben. Sie entscheiden über die Plazierung in der Trefferliste.

RANKING-GEHEIMNISSE UND SUCHMASCHINEN-MISSBRAUCH

Jede Suchmaschine hat ihre eigene Formel für die Relevanzberechnung. Der Schlüssel wird aber in der Regel nicht verraten. Denn die Suchmaschinen wollen verhindern, dass Seiten für ein Top-Ranking "frisiert" werden.

Ganz eindämmen lässt sich der Missbrauch aber nicht. Tippt beispielsweise ein Spaßvogel hundertmal das Wort "Sex" auf seine Seite, so kann er vielleicht eine Suchmaschine narren - ein Trick, auf den Anbieter kommerzieller Sex-Sites schon lange gekommen sind, weshalb viele Suchmaschinen inzwischen solche offensichtlichen Täuschungsmanöver mit der Löschung aus dem Index bestrafen.

Es müssen gar nicht unbedingt schlüpfrigen Absichten sein - jeder Website-Betreiber hat ein ganz natürliches Interesse, in Suchmaschinen nicht unter ferner liefen gelistet zu werden. Schließlich ist die Auffindbarkeit in einem Suchdienst mitentscheidend über den Traffic auf einer Website.

Deshalb gibt es Promotion-Agenturen, die sich auf die sogenannte "Seiten-Optimierung" spezialisiert haben und ihren Kunden Top-Rankings verheißen. Einer der Tricks dieser Optimierer besteht darin, spezielle, auf einen bestimmten Suchdienst zugeschnittene Seiten mit allen relevanten Schlagworten zusammenzubauen. Diese Seiten bekommt der normale Website-Besucher überhaupt nicht zu sehen; sie dienen einzig dazu, bei der betreffenden Suchmaschine eingetragen zu werden und dort dank der Optimierung ein hohes Ranking zu erzielen.

RANKING-POSITIONEN ZU VERKAUFEN

Einige Suchmaschinen schlagen ganz unverholen Kapital aus dem Bedürfnis, an prominenter Stelle gelistet werden: Sie bitten ihre Kunden für Top-Rankings zur Kasse. Am erfolgreichsten betätigt sich auf diesem Gebiet der US-Dienst Goto.com. Nur wer zahlt, kommt hier nach oben. Wenigstens machen Goto.com&Co. keinen Hehl aus dieser Praxis. Es wäre ja immerhin denkbar, dass andere Suchmaschinen klammheimlich mit dem Ranking ihre Geschäfte treiben ...

Übrigens ging auch AltaVista einmal mit dem Plan schwanger, populäre Schlagworte zu versteigern - und damit ohne Zweifel dem Trend zu Online-Auktionen eine neue Dimension hinzuzufügen. Dass ausgerechnet eine "klassische" Suchmaschine wie AltaVista dem schnöden Mammon auf diese Weise nachgeben würde, rief entrüstete Kritiker auf den Plan. Letztlich machte AltaVista dann einen Rückzieher.

Einen andere Strategie schlägt RealName ein. Dieser Service vermarktet eine eigene Datenbank von Firmen- und Produktnamen. Gibt nun ein Anwender beispielsweise als Suchbegriff "BMW" ein, dann schickt ihn RealName direkt zur Website des Autoherstellers - vorausgesetzt, der hat eine Registrierungsgebühr von 100 Dollar gezahlt. So lautete die Theorie; in der Praxis löhnte anfangs nur ein Bruchteil der verzeichneten Unternehmen; die meisten wurden kostenlos in die Datenbank übernommen, um das Unternehmen überhaupt in Schwung zu bringen. RealName ist unter anderem über die Trefferliste von AltaVista zu erreichen.

NEUE KONZEPTE ZUR ERMITTLUNG DER RELEVANZ

Soviel ist klar: Weder simple Wörterzählerei noch bezahltes Ranking stellen eine befriedigende Lösung für das Problem der Relevanzbewertung dar. Die Rankingkonzepte der zweiten Generation gehen deshalb andere Wege.

Für Furore sorgte die vergleichsweise junge Suchmaschine Google. Deren Software konzentriert sich auf die Analyse von Links. Gemeint sind nicht etwa Links von einer bestimmten Seite, sondern Links, die von anderen Seiten im Kontext des Suchbegriffs auf diese bestimmte Seite verweisen.

Ein Beispiel soll dieses Prinzip verdeutlichen: Der Webkatalog Yahoo verweist in seiner Literatur-Kategorie auf eine Seite über Franz Kafka. Für die Google-Software, die diesen Link analysiert, heißt das: Die bewusste Seite hat relevante Informationen über Franz Kafka zu bieten. Die Wahrscheinlichkeit, dass diese Seite bei Suchanfragen nach Franz Kafka ein hohes Ranking erhält, ist also recht hoch. Noch höher wöre sie, wenn Google auch auf anderen Websites Links im Kontext von Franz Kafka finden würde, die ebenfalls zu der betreffenden Seite führten. Natürlich ist ein Link von Yahoo aus als besonders wertvoll einzuschätzen.

Das Beispiel zeigt schon: Die Link-Analyse kann tatsächlich relevante Ergebnisse liefern. In der Tat bietet Google eine erstaunliche Treffsicherheit. Andere Suchmaschinen wie Northern Light haben deshalb ebenfalls die Verlinkung in ihren Ranking-Algorithmus aufgenommen.

Ein anderes Ranking-Prinzip gehorcht der Devise: Was andere gut finden, muss auch für dich gut sein. Erfunden hat dieses Prinzip Direct Hit. Die sogenannte Popularity Search Engine hat eine eigene Datenbank über die Vorlieben der Suchmaschinen-Anwender aufgebaut. Registriert wird, wie oft welche Links in den Trefferlisten welcher Suchbegriffe angeklickt werden; danach erfolgt das Ranking. HotBot war (seit August 1998) die erste Suchmaschine mit der Option, seine Trefferlisten mit Direct Hit zu gewichten. Inzwischen hat Direct Hit weitere Kunden, darunter als erste hiesige Suchmaschine Lycos Deutschland, vermarktet die Datenbank aber auch auf seiner eigenen Website.

Ganz abgesehen von der orwellschen Dimension, die ein solches Beäugen der Surfgewohnheiten mit sich bringt, reflektiert das sogenannte collective filtering nur den Wandel des World Wide Web vom Freak- zum Massenmedium. Die besten Chancen, von den neuen Ranking-Konzepte nach oben gespült zu werden, besitzt folglich der Mainstream: jene Websites, zu denen es ohnehin schon die ganze Meute zieht. Alle anderen, die Alternativen, die Kleinen und die Schrägen, bleiben auf den hinteren Positionen vergraben.