3.4 Recherche im Internet
3.4.1 Suchwerkzeuge
Nach Wolfgang G. Stock[1](HHU Düsseldorf) wird unterschieden nach den Weltregionen digitaler Informationen, dem Oberflächenweb und dem Deep Web. Im Oberflächenweb kann mit den Suchwerkzeugen Suchmaschine, Webkatalog, Metasuchmaschineund Webportal, im Deep Web in Datenbankenund bei Hostsrecherchiert werden. Unter Querweltein- Ergänzungen versteht Stock Links vom Oberflächenweb ins Deep-Web (z. B. Brückenseiten) oder umgekehrt. Hybrid-Systeme sind Suchwerkzeuge, die quer durch die Internetwelten Recherchen anbieten.
3.4.2 Informationskompetenz
Mit Hilfe des Internet ist die Recherche nach Informationen für die Bevölkerung in einem bisher ungekannten Ausmaß möglich. Das Problem besteht darin, in diesem unüberschaubaren, schwer auswertbaren und riesigen Angebot hochwertige Seiten zu finden und auf zufriedenstellende Weise Informationsperlen von Informationsmüll zu trennen (Informationskompetenz). Die informationelle Absicherung wird für viele Nutzer oft durch populäre Suchdienste bestimmt. Obwohl eine Vielzahl von Suchdiensten bereit steht, um Informationen zu erschließen, werden oft nur wenige marktführende Suchmaschinen (Google) und Webverzeichnisse(Yahoo!) verwendet, die als Ergebnis bevorzugt populärwissenschaftlicheWebseiten bieten. Es ist zweifelhaft, ob populäre Suchdienste in der Lage sind, Qualität und Umfang der Informationen zu beurteilen, die momentan im Internet abrufbar sind.
3.4.3 Qualität von Online-Dokumenten
Jeder kann alles im Internet veröffentlichen, eine Qualitätssicherung ist kaum vorhanden. Webseiten, die von Privatpersonen erstellt werden, lassen sich nur schwer auf Zuverlässigkeit überprüfen. Nicht alle Dokumentengattungen besitzen die gleiche Qualität (im Alltag etwa Werbematerial, Tagespresse, Fachzeitschriften oder Bücher). Anhaltspunkt für höherwertige Informationen ist z. B. die Begutachtung durch einen Redakteuroder eine wissenschaftliche Verifizierung(z. B. doppelblindepeer review). Laien sind oftmals nicht in der Lage, Suchergebnisse richtig zu interpretieren. Zum Beispiel konnten in einer Studiedes amerikanischen Center of Disease ControlAnwender die Ergebnisse einer Suche nach gesundheitsrelevanten Themen im Internet nicht kritisch und zuverlässig beurteilen. Zudem sind viele Informationen falsch, überholt, unvollständig oder bestehen aus Werbung (Gesponserte Links). Internetquellen sollten richtig bewertet (Anleitung) oder z. B. mit einer dokumentenbasierten Internet- Recherche (Anleitung, PDF) gesucht werden. Texte im Internet lassen sich zudem durchHackermanipulieren, Diskussionsforen oder Chatgruppen besitzen keine Qualitätssicherung, es existieren Webseiten mit skurrilen Berichten, mit Beiträgen zu Außerirdischen, mit (allgemeiner) Paranoia, Urban Legendssowie mit (je nach Staat) kriminellen Inhalten – Informationen können durch eine geänderte Rechtsgrundlage und Unterlassung einer Aktualisierung falsch sein – oder Daten können vorsätzlich falsch sein (Zensur, Propaganda, ideologische Berichterstattung). Der Wert vieler Informationen altert, nimmt mit der Zeit ab und wird schon nach wenigen Jahren nahezu unbrauchbar, daneben entstehen immer wieder neue Fachgebiete. In Wikis(z.B. Wikipedia) kann jeder AutorFehler begehen, seine eigenen Fehler oder die von anderen Autoren jedoch auch ausgleichen.
3.4.4 Flüchtigkeit des WWW
Die Anzahl aller Webseiten wächst schneller als die Bandbreite, die Suchmaschinen zur Verfügung steht, diese Webseiten zu indizieren. Auch die beste Suchmaschine indizierte bei einer Untersuchung (Lawrence and Gilles, 1999) nur etwa 16% der Inhalte des Internets, alle untersuchten Suchmaschinen gemeinsam erreichten 42%. Suchmaschinen legen sich eigene Datenbanken an, in denen sie Informationen (Zeichenfolgen als Stichwörter,Ankertexte) der Webseiten ablegen, sie besitzen keinen inhaltlich erschlossenen Volltextindexder Webseiten. Sucher recherchieren also nicht im Internet, sondern in den Datenbanken der Suchmaschinen. Da Webcrawler ständig das Internet durchsuchen, wachsen die Datenbanken der Suchmaschinen ständig und verändern sich. Dieselben Anfragen können so an aufeinander folgenden Tagen unterschiedliche Ergebnisse liefern. Durch neue technische Möglichkeiten werden fortlaufend Struktur, Layout und Webdesignvon Webseiten verändert. RelevanteSuchergebnisse sind daher nicht immer reproduzierbar und eine identische Recherche führt schlimmstenfalls ins Leere (Toter Link). Im Internet nicht mehr vorhandene Webseiten können mit Glück in der Wayback-Machineaufgerufen werden. Die Halbwertszeitvon Hyperlinks beträgt etwa 55 Monate ([2]), die Lebenszeit eines Dokuments im WWW 2,5 Monate ([3]).
3.4.5 Weitere Probleme von Suchmaschinen
Von der Veröffentlichung einer Webseite bis zur Aufnahme in den Suchmaschinenindex können Wochen bis Monate vergehen. Aktuell im Internet bereitgestellte Dokumente können Suchmaschinen nicht sofort nachweisen. Zudem gibt es für neue Webseiten kein sinnvolles Ranking. Auch technische Manipulationen (Suchmaschinen-Optimierung, Suchmaschinenspam, Linkfarm) und erkaufte Platzierungen beeinflussen die Sortierung der Ergebnislisten (Page- Rank). Der Page-Rank lässt die Nutzerfrage weitgehend außer Acht, und seine vorderen Plätze sind häufig wenig relevant.
3.4.6 Recherchedienstleister
Recherchedienstleister nennen sichInformation-Broker. Sie führen professionelle Internetrecherchen durch und haben Zugriff auf kostenpflichtige Quellen.
Neben kommerziellen Recherchediensten gibt es auch mehrere Webseiten, bei denen Privatleute Fragen zu verschiedenen Themen beantworten, beispielsweise Meta-re-searchund Wikipedia:Auskunft. Das Auffinden von Informationen für Zwecke der Wikipedia erleichtert die Seite Wikipedia:Recherche, die natürlich auch für andere Informationssuchende nützlich sein kann.
Auch Bibliothekenübernehmen Rechercheaufträge. Beispielsweise werden Anfragen bei http://www.internetbibliothek.deinnerhalb von 24 Stunden von Auskunftsbibliothekarenbeantwortet.