Netzpresse Home
Image map
Teil 1 | Teil 2 | Teil 3
Suchmaschinen
SUCHANFRAGEN FORMULIEREN / SUCHBEGRIFFE VERKNÜPFEN / WIE SUCHMASCHINEN DATEN SAMMELN / GENERIERUNG VON TREFFERLISTEN / SUCHMASCHINEN-HISTORIE

DIREKTSUCHE

Zur DirektsucheDie besten Suchdienste auf einen Klick mit Syntaxreferenz auf einen Blick

GRUNDLAGEN
Suchmaschinen
Webkataloge
Meta-Suche
Newsgroups
Such-Verzeichnisse
Portale
Ranking
Such-Syntax
Suchtiefe
BESPRECHUNGEN
Suchmaschinen
AltaVista
Excite
Fireball
GoTo.com
HotBot
Infoseek
Lycos
Northern Light
Sear.ch
Webcrawler
Usenet-Suche
Deja.com
Reference.com
Meta-Suchmaschinen
Metacrawler
MetaGer
Metaspinner
Such-Verzeichnisse
All in One
Internet Sleuth
Klug Suchen
Karl-Heinz Resch
Webkataloge
Britannica
Dino Online
LookSmart
Magellan
Yahoo
Web.de

SUCHBEGRIFFE VERKNÜPFEN

Es kommt bei der Formulierung der Suchanfrage also darauf an, die Suchbegriffe möglichst treffend zu wählen. Wer die Anfrage zu allgemein hält, wird leicht Hunderte oder gar Tausende von Fundstellen nachgewiesen bekommen, und wenn der Teufel es so will, kommt gerade, was Sie suchen, erst an Position 999. Zwar nehmen die Suchmaschinen ein Ranking vor, d.h. sie versuchen die gefundenen Dokumente nach ihrer thematischen Relevanz zu ordnen, doch sind die Elektronenhirne damit trotz allerlei Tricks noch überfordert. Wird andersherum die Anfrage zu speziell oder komplex gestellt, kann es auch einmal passieren, dass ausgerechnet das gesuchte Dokument im Sieb hängenbleibt.

Immerhin kann man die Suchbegriffe mit Hilfe von Operatoren gewichten oder untereinander in Beziehung setzen. Wenn Sie beispielsweise zwei Begriffe eingeben, so ist es für das Ergebnis von eminenter Bedeutung, ob Sie nur nach Dokumenten suchen lassen, in den der eine und der andere Begriff vorkommt, oder ob Sie auch mit solchen Dokumenten zufrieden sind, in denen der eine oder der andere erscheint. Mehr dazu im Syntax-Kapitel.

WIE SUCHMASCHINEN IHRE DATEN SAMMELN

Jede World-Wide-Web-Suchmaschine schickt ihre eigenen Software-Indexer, auch Agent, Bot, Spider oder Crawler genannt, durchs Netz. Das sind Programme, die sich von Link zu Link hangeln und dabei nichts anderes tun, als die Inhalte aller gefundenen Seiten Wort für Wort zu indexieren. Auf diese Weise entsteht eine riesige Datenbank - ein allerdings unvollständiges Register des World Wide Web, denn trotz ihrer monströsen Datenschaufelei schaffen es selbst die Softwareagenten niemals wirklich, das ganze Web abzubilden.

So kommt es, dass erstens keine Suchmaschine wirklich alle Webseiten erfaßt und zweitens die Ergebnisse von Maschine zu Maschine differieren. Was die eine nicht verzeichnet, kann die andere vielleicht finden. Zudem braucht die Indexierung ihre Zeit. Suchmaschinen sind nicht "tagesaktuell"; umgekehrt führen manche Links sogar ins Leere, da nachgewiesene Adressen schon gar nicht mehr existieren.