Abstract
Der Begriff Information wurde 1940 von Norbert Wiener mit seiner Kybernetik
eingeführt. Wesentlich für seine große Verbreitung war Shannons Informationstheorie,
die wichtige Grundlagen der Nachrichten-, Rechen- und Speichertechnik
bereitstellte. Heute ist Information ein nahezu universell angewendeter
Begriff, der aber leider sehr oft nur unscharf und intuitiv benutzt
wird. Mit diesem Buch liegt wohl erstmalig eine exakte Begriffsdefinition
vor. Sie geht weitgehend auf Wieners Einführung zurück. Information
ist kein Objekt, sondern betrifft immer ein komplexes Geschehen,
das aus drei Teilen besteht. Der stofflich-energetische Informationsträger
wirkt auf ein spezifisches System ein und ruft in ihm und in dessen
Umgebung eine spezielle Wirkung, das Informat hervor. Bei einer Musikaufzeichnung
ist z. B. die verbogene Rille der Schallplatte der ursprüngliche
Informationsträger, der über technische Schritte den Schall erzeugt,
der schließlich auf Menschen einwirkt. Damit er die ursprünglich
beabsichtigte Wirkung, das Informat hervorruft muss der Mensch (als
angepasstes System) bereits über spezifische Musikerfahrungen verfügen.
Im Allgemeinen besitzt Information vielfältige Möglichkeiten und Varianten.
Sie werden detailliert begründet und exakt behandelt. Dabei ist es
notwendig, fünf Aspekte der Information zu unterscheiden. Grundlegend
ist der dreistufige Fall aus Informationsträger, System und Informat,
der wegen der wichtigen und spezifischen Wirkung (dem Informat) W-Information
genannt wird. Vielfach, insbesondere bei Sprache und Schrift werden
jedoch nicht die Originale als Informationsträger benutzt. Statt
ihrer werden im Sinne der Semiotik auf sie verweisende Zeichen verwendet.
Dann sind u. a. zusätzlich mittels Klassenbildung und Axiomatik sehr
nützliche Komprimierungen als Vereinfachungen der Prozesse möglich.
Deshalb wird dieser Aspekt als Z-Information bezeichnet. Ein dritter
Aspekt betrifft die Nachrichtentechnik und deren Grenzen, wie sie
von Shannon eingeführt und inzwischen enorm erweitert und ganz entscheidend
für ihre Optimierung sind. Deshalb sind diese Inhalte unter S-Information
erfasst und betreffen u. a. die Übertragung, Fehlerkorrektur, Komprimierung
und Datensicherheit. Besonders wichtig für die Information sind die
Möglichkeiten der Speicherung. Dafür ist eine umfangreiche Speichertheorie
entstanden. Im gespeicherten Zustand liegt jedoch die Information
nur potentiell vor. Erst durch die Wiedergabe muss aus dem Speicherzustand
erneut ein Informationsträger erzeugt werden. Deshalb wurde hierfür
der Begriff P-Information gewählt. Hierbei ist die von Shannon einführte
Entropie wesentlich. Leider wird sie (selbst von Experten) recht
oft mangelhaft bis falsch behandelt. Deshalb wird sie hier möglich
anschaulich, aber dennoch mathematisch exakt erklärt. Die höchste
Stufe der Information entsteht mittels der Nutzung der Rechentechnik.
Sie ermöglicht völlig neue Anwendungen, die u. a. zu virtuellen Welten
führen. Deshalb wurde hierfür die Bezeichnung V-Information gewählt.
Für alle Informationsarten werden die wichtigsten Beispiele eingeführt
und ausführlich erklärt. So ist quasi ein Kompendium der Information
mit genauer Erfassung ihrer Möglichkeiten und Grenzen bis hin zu
den technischen Anwendungen entstanden. Da leider mit den vielen
Möglichkeiten der Information auch ein umfangreicher Missbrauch entstanden
ist und weiter entstehen wird, wurde ein Kapitel angefügt, das vor
allem versucht, für die Zukunft einige Abgrenzungen und Maßnahmen
aufzuzeigen.
Users
Please
log in to take part in the discussion (add own reviews or comments).