Archiv für den Tag: 20. August 2015

BUCHPROJEKT 2015 – Zwischenreflexion 19.August 2015 – INFORMATION – WHAT IS MISSING – Terrence W.Deacon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

!!! ACHTUNG: Noch nicht vollständig !!!

VORIGER BEITRAG

1. Im vorigen Beitrag war die Kritik von John Maynard Smith an der Informationstheorie von Shannon vorgestellt worden. Diese fokussierte im wesentlichen auf der direkten Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden.

NOCHMALS ZU SHANNON (1948)

2. Nochmals kurz zurück zu Shannon selbst. Claude Elwood Shannon (1916-2001) macht gleich zu Beginn seiner Schrift klar, dass er sich nicht um bedeutungsrelevante Eigenschaften kümmern will, sondern, als Ingenieur und Mathematiker interessieren ihn vor allem jene allgemeinen Eigenschaften bei der Übermittlung von Nachrichten, durch die eine abgesendete Nachricht (‚message‘) möglichst eindeutig auch wieder bei einem Empfänger ankommt. Dabei wird davon ausgegangen, dass die aktuell zu übermittelnde Nachricht von einer bekannten Menge von möglichen Nachrichten ausgewählt wurde (Anmerkung: diese Menge muss sowohl dem Sender wie auch dem Empfänger bekannt sein). Der Sender muss in der Lage sein, die Nachricht in eine Ereignisform zu übersetzen (kodieren, encode), die innerhalb eines Kommunikationskanals übermittelt werden kann. Dazu werden in der Regel Sequenzen konkreter ‚Symbole‘ aus unterschiedlichen endlichen ‚Alphabeten‘ benutzt, die dann u.U. weiter übersetzt werden in konkrete physikalische Ereignisse in einem Kommunikationskanal. Das empfangende System wiederum muss diese Ereignisse so rückübersetzen können (dekodieren, decode), dass das System entscheiden kann, ob die ‚empfangenen Symbole‘ eine Nachricht im Sinne der vorausgesetzten Menge darstellen oder nicht.

3. Wichtig ist, dass Shannon im Allgemeinen zwar von Kommunikation spricht, die untersucht werden soll, und dass Kommunikation sich innerhalb der kommunizierenden Systeme über Nachrichten vermittelt, dass aber diese Nachrichten im realen physikalischen Austausch zwischen den Systemen als ephysikalische Ereigniss in einem Kommunikationskanal auftreten. Diese physikalischen Ereignisse (nicht die Nachrichten als solche!) müssen sich durch ihre Häufigkeit und durch ihren Unterscheidungsaufwand charakterisieren lassen.

4. Der ‚Unterscheidungsaufwand‘ resultiert daraus, dass ein physikalisches Ereignis in minimale Schaltereignisse aufgelöst werden muss, durch die es realisiert wird. So besteht zwischen den physikalischen Eigenschaften eines Signals, mittels dessen sich Nachrichten realisieren lassen, und den erzeugenden Schaltereignissen, ein transparenter Zusammenhang. Es hat sich eingebürgert, elementare Schaltvorgänge mit ‚1‘ und ‚0‘ zu charakterisieren und die Anzahl von benötigten Schaltvorgängen mittels des binären Zahlensystems zu ‚kodieren‘. In Anlehnung an John Wilder Tukey (1915-2000) übernahm Shannon die Sprechweise, dass ein physikalischer Zustand mit zwei möglichen Werten als binärer Zustand bezeichnet wird; er soll die Menge von 1 bit Information repräsentieren. Nur auf diesen Aspekt bezieht Shannon den Begriff der Information! Es geht um ein Maß für den Aufwand an unterscheidbaren technischen binären Schaltzuständen, die zur Realisierung von Signalen notwendig ist, mittels deren Nachrichten kodiert werden. Die Nachrichten selbst, die möglicherweise (und im Normalfall) noch zusätzlich komplexe Bedeutungen kodieren, bleiben in dieser Betrachtung völlig außen vor.

5. Man muss also davon ausgehen, dass es zwischen der Menge der möglichen Nachrichten in einem Sender und der Übersetzung dieser Nachrichten in geeignete Symbolketten, die dann weiter für physikalische Ereignisse im Kanal kodiert werden, eine hinreichende Korrespondenzbeziehung gibt, die im Übersetzungsvorgang (in der Enkodierung) festgelegt ist. In seinem theoretischen Modell geht Shannon dann davon aus, dass jedem unterscheidbaren Symbol im Übermittlungsprozess ein unterscheidbarer Zustand in seinem Modell einer Quelle entspricht, und dass es von jedem solchen Zustand zum nächsten möglichen Zustand eine Übergangswahrscheinlichkeit gibt, die man im realen Prozess über Häufigkeiten messen kann. Das Modell einer solchen Quelle nennt er ein ’stochastisches‘ Modell, hier genauer ein ‚Markov Modell‘, das zudem noch ‚ergodisch‚ sein soll.

 

DIE POSITION VON DEACON

ALLTAGSERFAHRUNG

6. Terrence W.Deacon (Geb.1950) beginnt seine Überlegungen mit der Alltagserfahrung, dass die physikalischen Ereignisse (Schallwellen, Schriftzeichen, …) als solche keinerlei Hinweise auf irgendetwas anderes Zusätzliches enthalten. Erst in der Interpretation durch einen Empfänger werden diese physikalischen (= extrinsischen) Ereignisse zu möglichen Hinweisen, Zeichen für etwas Anderes (Anmerkung: Deacon benutzt hier ‚about‘); dieses Andere können irgendwelche intrinsische abstrakte Sachverhalte sein, die als ’nicht existente‘ Objekte dennoch eine Wirkung auf einen Kommunikationsteilnehmer entfalten können. Wie diese Abbildung von erkannten empirischen extrinsischen Kommunikationsereignisse auf nicht empirische mentale intrinsische Sachverhalte genau vonstatten geht, dazu fehlt nach Deacon noch eine angemessene wissenschaftliche Erklärung. Der ontologische Status dieser intrinsischen abstrakten mentalen Sachverhalte ist unklar.

COMPUTER PARADIGMA

7. An dieser Stelle bringt Deacon das Computer-Paradigma ins Spiel. Er charakterisiert es so, dass man in einem Computer, der ein physikalisches Objekt mit vielen möglichen physikalischen Prozessen darstellt, sehr wohl Beziehungen zwischen unterschiedlichen physikalischen Prozessen und Zuständen herstellen kann, die man abstrakt als Abbildungs- und Bedeutungsbeziehungen interpretieren könnte. Anders als bei einem natürlichen physikalischen Prozess kann man in einem Computer das Verhalten eines physikalischen Prozesses von anderen physikalischen Eigenschaften abhängig machen; diese anderen ‚willkürlich zugeordneten‘ physikalischen Eigenschaften funktionieren in einer abstrakten Sehweise als ‚Referenz‚, als mögliche ‚Bedeutung‘. Insofern wäre der Computer prinzipiell ein theoretisches Modell für Interpretations- und Bedeutungsprozesse. Dennoch meint Deacon hier auf die Bremse treten zu müssen, da für ihn das Computerparadigma nur ‚syntaktisch‚ definiert sei und die möglichen Bedeutungen nur ‚implizit‘ besitzt. Auch jene Ansätze, die die syntaktische Maschinerie des Computers über ‚Verkörperung‘ (Englisch: ‚embodiment‘) und ‚Fundierung in der Realwelt‘ (Englisch: ‚grounding‘) mit Bedeutung aufladen wollen, akzeptiert er nicht als ‚Lösung‘ des Geist-Körper (‚mind-body‘) Problems.

8. Es wird nicht ganz klar, warum Deacon dieses offensichtlich über Shannon hinausgehende Computer-Paradigma nicht akzeptiert; man spürt nur einen starken Vorbehalt, der von einem inneren Widerstand gespeist wird, dessen innere Logik sich dem Leser verschließt. Er spricht an späterer Stelle nochmals von einem ‚mechanistischem Determinismus‚, wobei aber nicht klar ist, ob das Computer-Paradigma wirklich ‚deterministisch‘ ist; viele unterstellen dies spontan. Deswegen muss es aber nicht zutreffen. Deacon legt sich jedenfalls darin fest, dass im klassischen Computer-Paradigma nur das syntaktische Konzept von Information berücksichtigt sei. (vgl. S.157) Wenn er dann emphatisch behauptet, dass berechenbare Prozesse in einem Computer nichts haben, was sie von normalen physikalischen Prozessen unterscheidet (vgl. S.157), widerspricht er sich selbst, da er zuvor bei der Charakterisierung des Computer-Paradigmas geschrieben hat, dass sich Prozesse in einem Computer von anderen bloß physikalischen Prozessen gerade dadurch unterscheiden, dass sie Abbildungsbeziehungen (‚maping relationship‘) realisieren können. (vgl. S.155) Was gilt nun? Als Leser hat man den Eindruck, dass Deacon einerseits zwar gewisse Besonderheiten bei Berechnungsprozessen im Computer sehr wohl erkennt, dass er aber offensichtlich ‚innerlich‘ ein Problem damit hat, diesen Erkenntnissen weiter zu folgen.

QUANTENMECHANIK

9. Deacon diskutiert auch den möglichen Beitrag der Quantenmechanik für die Frage der potentiellen abstrakten Objekte. Die Quantenmechanik beobachtet und misst Eigenschaften am Verhalten der Materieteilchen, die sowohl dem alltäglichen Kausalverständnis wie auch einem platten Determinismus zu widersprechen scheinen. Dennoch konstatiert Deacon, dass dieses scheinbar nichtdeterministische Verhalten die Frage nach potentiellen Beziehungen zu anderen Tatbeständen nicht beantwortet. Die beobachtbaren sonderbaren Korrelationen zwischen bestimmten Teilchen sind nicht vergleichbar mit den intentionalen Sachverhalten, bei denen ein etwas ‚für‘ (‚about‘) ein ‚anderes‘ ’steht‘. (vgl. S.157)

DEACON UND DER INFORMATIONSBEGRIFF

10. In der Begegnung mit der Schrift A mathematical theory of communication erkennt Deacon sehr wohl den spezifischen Beitrag von Shannon an, kritisiert aber, dass durch die Ausklammerung möglicher Bedeutungsanteile bei Shannon in der nachfolgenden Rezeption des Informationsbegriffs der Begriff der Information unzulässig vereinfacht und eingeengt wurde. Dies behinderte später eine angemessene Behandlung jener ausgelassenen Eigenschaften.

11. An dieser Stelle muss man fragen, ob die – in dieser Weise auch von vielen anderen – erhobene Kritik an einer Engführung des Begriffs Information am allerwenigsten Shannon selbst trifft, da dieser sehr klar und unmissverständlich schon auf der ersten Seite feststellt, dass er hier aufgrund des Interesses des Engineerings alle diese bedeutungsrelevanten Aspekte ausgeklammert hat. Man muss sich eher wundern, warum nicht andere nach Shannon, nachdem er solch eine exzellente Analyse einiger logischer Eigenschaften von Zeichenträgern in einem Kommunikationskanal vorgelegt hat, aufbauend auf diesen Analysen dann nicht weiterführende mathematische Modelle vorgelegt haben, die sich gerade um die von Shannon ausgeklammerte Bedeutungsproblematik kümmern. Ständig nur darüber zu klagen, dass Shannon nicht die ganze Breit des Problems behandelt hat, ist wenig hilfreich und wird seiner innovativen Leistung nicht gerecht.

12. Wenn Deacon behauptet, dass der Begriff ‚Information‘ ’nach Definition‘ die Beziehung von etwas zu etwas anderem bezeichnet, dann muss man hier viele Fragezeichen setzen. In der Zeit vor der sogenannten Informationstheorie (begründet u.a. durch Shannon und Norbert Wiener (1894-1964)) wurde der Begriff der ‚Information‘– wenn überhaupt – damals nicht so benutzt, wie wir ihn heute gerne benutzen. Im Vordergrund standen allgemeine philosophische Aspekt wie die ‚Formung der Materie‘, später die ‚Formung des Menschen‘ durch Erziehung, noch später die ‚Fixierung von Wissen‘. (vgl. Sandkühler 2010:1105f) Die explizite Frage nach der Bedeutung war eher gebunden an Reflexionen über Zeichen und ihren Bedeutungen, die erst in der Semiotik (vgl. Noeth 2000) und dann durch Wittgensteins Philosophische Untersuchungen (1953) explizit thematisch wurden. Allerdings stellte sich das Bedeutungsproblem in der Neuzeit mehr und mehr in einer Weise dar, die die Frage nach der Bedeutung als ’schwierig‘ oder gar ‚unbeantwortbar‘ erscheinen lässt. Und es ist sicher kein Zufall, dass auch im Gebiet der Logik, spätestens mit dem Aufkommen der modernen formalen Logik, alle möglichen Bedeutungsanteile genauso ‚entfernt‘ wurden wie in der modernen Informationstheorie. Dies wird gerne großzügig übersehen. Dass die moderne Logik weniger über das alltägliche Denken sagen kann als noch die antike Logik, ist bizarr.

Die vollständige Fassung findet sich HIER.

QUELLEN

  1. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  2. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2,, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  3. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  4. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  5. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  6. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  7. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  8. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  9. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)