Archiv der Kategorie: Kodieren

RINGEN UM DAS BEWUSSTSEIN: VELMANS 1995 – The Relation of Consciousness to the Material World. Diskussion

Max Velmans, The Relation of Consciousness to the Material World, Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.255-265

KONTEXT

  1. Diesem Blogeintrag gingen zwei Beiträge voraus, in denen jeweils die Position von Chalmers und die von Clark aus dem gleichen Band der Zeitschrift diskutiert worden sind. Chalmers hatte mit seinem Beitrag den Band eröffnet, und alle anderen nahmen in ihren Beiträgen auf den Beitrag von Chalmers Bezug.

  2. Hier ist es Velmans, der zu Chalmers Stellung bezieht.

POSITION VON VELMANS

  1. Schon vor dem Beitrag von Chalmers 1995 hatte Velmans (1991, 1993) die Position vertreten, die Chalmers als zentrale These vorträgt, auf der alles andere aufbaut: Das Phänomen des Bewusstseins ist fundamental verschieden von den Verarbeitungsprozessen, wie wir sie im Gehirn finden. (vgl. Velmans S.256) Man kann zwar partiell subjektive Erlebnisse mit beobachtbaren Prozessen im Gehirn korrelieren, aber es erscheint extrem unwahrscheinlich (‚extremely unlikely‘), dass man solche subjektiven Phänomene auf solche neuronalen Prozesse reduzieren kann. (vgl. 256)

  2. Zwar dürfte alles, was wir als real in der Welt wahrnehmen, letztlich nur eine subjektive Wahrnehmung sein (irgendwie von der realen Welt mitverursacht), aber umgekehrt folgt aus einer Nicht-Wahrnehmung nicht zwingend, dass es in der Welt nichts gibt.

  3. Nimmt man einerseits eine Nicht-Reduzierbarkeit des Phänomens des Bewusstseins auf beobachtbare neuronale Prozesse an, will aber andererseits auch nicht einen Dualismus im Sinne Descartes vertreten, bleibt u.a. die Suche nach einer Version einer Dualen-Aspekt Theorie des Bewusstseins, wie sie Chalmers in seinem Beitrag versucht hatte.

  4. Velmans verweist in diesem Kontext auf Spinoza (1732 – 177), der in der Kritik an Descartes dessen Konzept von Geist und Materie als zwei Aspekte von etwas grundlegend Anderem in der Natur vermutet haben soll. (vgl. Velmans S.256)

  5. Analog zu Chalmers folgt Velmans der Arbeitshypothese einer Dualen-Aspekt Theorie, wobei auch er – wie Chalmers – den Begriff der Information als grundlegende Eigenschaft der Natur betrachtet (Anmerkung: im Gegensatz zu Spinoza, der hier den Begriff der Substanz verwendet).

  6. In seiner weiteren Analyse nimmt Velmans an, dass subjektive Erlebnisse repräsentierender Art (‚representational‘) seien, also über etwas (‚about something‘). Daraus schließt er, dass auch die korrelierenden neuronalen Prozesse über etwas sein müssten. Ferner nimmt er an, dass diese korrelierten repräsentierenden Prozesse und Erlebnisse identische Informationen kodieren, die eben nur auf zwei verschiedene Weisen formatiert ist. (vgl. S.257)

  7. Entgegen dieser Annahme sieht Velmans verschiedene Fälle der Diskrepanz zwischen neuronalen Prozessen, die Information verarbeiten, und dem Bewusstsein.

  8. Den meisten neuronalen Prozesse im Gehirn korrelieren keine subjektiven Erlebnisse. Auch nicht im Fall des Langzeit-Gedächtnisses oder im Falle von Blind-Sicht Patienten (‚blind-sight‘). Bei letzteren verarbeitet das Gehirn visuelle Informationen, die nicht bewusst sind. Soll ein Mensch mit Blind-Sicht handeln, wird er aber dennoch ‚richtig‘ handeln, so, als ob er Bewusstsein hätte.

  9. Angesichts solcher massiven Fälle von Diskrepanzen zwischen informationsrelevanten neuronalen Prozessen und nicht aufweisbarem Bewusstsein stellt Velmans die enge Korrelation von Chalmers zwischen Bewusstsein und Aufmerksamkeit in Frage. Er befürwortet eher, die Begriffe Bewusstsein, Aufmerksamkeit und Erfahrung als gleichwertig zu betrachten und alle (nicht notwendigerweise mit Bewusstsein korrelierenden) informationsverarbeitenden Prozesse des Gehirns als davon separat zu sehen. (vgl. S.258f)

  10. Ähnlich argumentiert Velmans am Beispiel der Ergebnisgleichheit von strukturell gleichen Organisationen, wie sie Chalmers postulierte. Am Beispiel von neuronalen Implantaten stellt Velmans in Frage, ob nicht auch andere Organisationsformen gleiche Ergebnisse erzeugen könnten. (vgl. S.259f)

  11. Letztlich sind es nur spezielle Fälle von neuronalen Prozessen, die mit subjektiven Erlebnissen korrelieren.

  12. Es gäbe auch noch die theoretische Möglichkeit, dass im Prinzip alle neuronalen Prozesse mit Bewusstsein begleitet sind, dass sie aber im Normalfall nur gehemmt werden. Bewusstsein würde dann da auftreten, wo die allgemeinen informationsverarbeitenden Prozesse nicht gehemmt werden (‚released from inhibition‘). In dieser Sicht wäre das Gehirn dann wie ein Filter für Informationen.(vgl. S.261f)

  13. Betrachtet man ferner, so Velmans, wie einfach man eine Temperaturmessung mit einem Gerät messen könnte, und wie kompliziert das menschliche Nervensystem aufgebaut ist, um subjektive warm-kalt Empfindungen zu realisieren, dann spricht dies auch eher dafür, dass die Struktur von informationsverarbeitenden Prozessen nicht unbedingt etwas darüber aussagen muss, ob solche Prozesse mit Bewusstsein begleitet sind oder nicht.

  14. Diese Überlegungen führen wieder zu dem Punkt zurück, dass all das empirische Wissen über neuronale Prozesse keine Anhaltspunkte liefert, warum manche dann doch mit subjektiven Erlebnissen korrelieren. (vgl. S.262)

  15. Dass die gleichen Informationen in unterschiedlichen Formaten repräsentiert werden können, dies sehen wir mittlerweile nicht mehr als ungewöhnlich an, aber dass es überhaupt geschieht, das ist ein provozierender Sachverhalt.(vgl. S.262f)

DISKUSSION

  1. Hier einige erste Zwischenreflexionen nach der Lektüre von Chalmers, Clark und jetzt Velmans (es werden nicht alle diskussionswürdigen Punte  aufgegriffen, das wären zu viele).

  2. Sowohl Chalmers als auch Velmans sehen im Phänomen des Bewusstseins, des Bereiches der subjektiven Erlebnisse, ein Phänomen sui generis, das sich nicht auf die bekannten empirischen Beschreibungen von neuronalen Prozessen reduzieren lässt.

  3. Gegenüber von Chalmers sieht Velmans daher keine Chance, aus den Daten empirischer neuronaler Prozesse allgemeine Regeln abzuleiten, mit denen man direkt auf Ereignisse des Bewusstseins schließen könnte. Nicht einmal über die Hypothese von Chalmers, dass aus einer Strukturgleichheit von zwei Strukturen S1 und S2 etwas über die möglichen Ergebnisse von S1 und S2 gefolgert werden könne.

  4. Allerdings folgt Velmans der Dualen-Aspekt Hypothese von Chalmers, dass man den Begriff der Information als grundlegenden Begriff in der Natur einführen könne, aufgrund dessen man dann die unterschiedlichen Ausprägungen wie neuronale Prozesse und subjektive Erlebnisse als zwei unterschiedliche Zustandsformen der grundlegenden Information verstehen könne. Velmans zitiert hier auch Spinoza, der eine ähnliche Idee in seiner Auseinandersetzung mit dem Dualismus von Descartes entwickelt hatte.

  5. Dass Spinoza das gleiche Problem mit einem anderen Begriff, nämlich Substanz, für sich ‚löste‘, macht Velmans nicht hellhörig. Ist der neuere Begriff Information, so wie er von Chalmers und Velmans benutzt wird, dann so zu verstehen, dass er strukturgleich zum Begriff der Substanz bei Spinoza ist?

  6. Es fällt auf, dass Velmans in seinem Beitrag den Begriff Information nicht weiter thematisiert; er übernimmt ihn einfach in der Verwendungsweise, wie er ihn bei Chalmers vorfindet.

  7. Wie ich aber in der Diskussion des Beitrags von Chalmers schon angemerkt hatte, ist die Verwendung des Begriffs Information bei Chalmers in sich unklar. Direkt bezieht er sich auf den semantikfreien Informationsbegriff von Shannon (1948), aber in der Art und Weise wie Chalmers diesen Begriff dann verwendet tut er genau das, was Shannon in seinem Text gleich zu Beginn explizit ausgeschlossen hat. Chalmers benutzt den Begriff Information im alltäglichen Sinne, nämlich mit einer semantischen Dimension, will sagen er benutzt nicht nur Signalereignisse als solche beschränkt auf ihre Auftretenswahrscheinlichkeiten, sondern er sieht Signalereignisse immer auch als Bedeutungsträger, also als Ereignisse, die mit etwas anderem korrelieren, das sowohl für den Sender wie für den Empfänger wesentlich dazu gehört. Im gesamten biologischen Bereich ist dies so. So sind z.B. die unterschiedlichen Bestandteile eines DNA-Moleküls (in seinen verschiedenen übersetzten Formen) für das Empfängermolekül, das Ribosom, nicht einfach nur irgendwelche atomaren Verbindungen, sondern diese atomaren Verbindungen sind Signalereignisse, die vom Empfänger so interpretiert werden, als ob sie noch etwas Anderes kodieren. Dieses Andere sind jene atomaren Verbindungen (Moleküle), mittels deren dann ein neues, komplexeres Molekül, ein Protein, zusammengebaut wird. Der Output des Prozesses ist etwas anderes, als der Input. Man kann diesen komplexen Prozess natürlich ausschließlich bezüglich seiner statistischen Eigenschaften beschreiben, damit würde man aber genau das, was diesen Prozess so besonders macht, das, was ihn auszeichnet, unsichtbar machen. Shannon wusste genau, was er tat, als er erklärte, dass er die Bedeutungskomponente ausließ, aber viele seiner späteren Leser haben seine Bemerkung anscheinend schlicht überlesen.

  8. Würde man den Begriff der Information streng nach Shannon verstehen, also Information_Sh, dann werden die Arbeitshypothesen von Chalmers und Velmans schlicht unsinnig. Mit reiner Statistik versteht man weder irgendeinen neuronalen Prozess noch die Dynamik subjektiver Ereignisse.

  9. Würde man den Begriff der Information im von Shannon explizit ausgeschlossenen Sinne – also Information+ – verstehen, also mit einer expliziten semantischen Dimension, dann müsste man über die Arbeitshypothesen von Chalmers und Velmans neu nachdenken. Das wäre eine in sich reizvolle Aufgabe. Bevor man dies tut, sollte man sich dann aber die Ausgangsposition nochmals vergegenwärtigen.

  10. Ausgangspunkt für Chalmers und Velmans ist deren Überzeugung, dass sich subjektive Erlebnisse nicht durch Rekurs auf empirische Beschreibungen von neuronalen Prozessen erklären lassen. Weder aus der Art der neuronalen Prozesse (Chalmers und Velmans) noch aus der Struktur neuronaler Verschaltungen (eher nur Velmans) lassen sich irgendwelche zwingenden Schlüsse auf mögliche begleitende subjektive Erlebnisse ziehen.

  11. Eine solche abgrenzende Position macht wissenschaftsphilosophisch nur Sinn, wenn man von zwei unterschiedlichen Datenbereichen (subjektive Erlebnisse D_s und neuronale Ereignisse D_nn) ausgeht, zu denen es zwei verschiedene Theorien gibt, eine Theorie der subjektiven Erlebnisse <Ts, Int_s, D_nn, D_nn> und eine Theorie der neuronalen Ereignisse <Tnn, Int_nn>. Ferner muss man annehmen, dass mindestens die Datenbereiche beider Theorien wesentlich verschieden sind, also D_s != D_nn. Letzteres ist der Fall, da nach allgemeinem Verständnis zwar alle empirischen Daten D_e, zu denen auch die neuronalen Ereignisse D_nn gehören, zwar zugleich auch subjektive Ereignisse D_s sind, da sie für den Beobachter ja primär erst einmal als seine subjektiven Wahrnehmungen auftreten, dass aber umgekehrt es für eine empirische Theorie Te nicht möglich ist, subjektive Daten D_s einzubeziehen. Mit anderen Worten, die empirischen Daten D_e bilden aus Sicht einer empirischen Theorie eine echte Teilmenge der subjektiven Daten D_s, von daher rührt die Ungleichheit in den Daten. Wichtig ist aber das Detail, dass aus Sicht einer empirischen Theorie Te zwar keine subjektiven Daten D_s verarbeitet werden können, dass umgekehrt aber eine subjektive Theorie Ts sehr wohl Zugriff auf empirische Daten hat, da empirische Daten D_e (mit den neuronalen Daten D_nn als echter Teilmenge) zugleich immer auch subjektive Daten D_s sind, also D_e c D_s. Empirische Daten D_e sind eben beides: subjektiv wie auch zugleich inter-subjektiv.

  12. Die heutigen empirischen Wissenschaften haben die empirische Welt in unterschiedliche empirische Datenbereiche aufgeteilt, deren Beziehungsverhältnisse eigentlich offiziell nicht geklärt sind. Unterschwellig wird immer angenommen, dass die Physik die umfassendste Sichtweise hat, dass also den empirischen Daten der Physik D_e_physik alle anderen empirischen Datenbereiche D_e_x umfassen, also D_e_x c D_e_physik. Ob dies so ist, ist eher offen. Astrobiologie, Evolutionsbiologie, Mikrobiologie – um nur einige Disziplinen zu nennen –, die sich u.a. mit dem Phänomen des biologischen Lebens beschäftigen, haben zahllose originäre Phänomene zu bieten, deren wissenschaftliche Beschreibung allein mit dem Inventar der bekannten Physik im Ansatz unmöglich erscheint (nach Feststellung von bekannten Physikern). Dann würde nicht gelten, dass D_e_x c D_e_physik, sondern D_e_x != D_e_physik.

  13. Doch unabhängig von den Verhältnissen zwischen den Datenbereichen der unterschiedlichen wissenschaftlichen Disziplinen gilt für das Verhältnis der empirischen Daten D_e zu den Tatsachen des Bewusstsein D_s, dass alle empirischen Daten D_e eine echte Teilmenge der subjektiven Daten D_s sind, also D_e c D_s. Vom Standpunkt eines Theorieerstellers vom Typ homo sapiens (sapiens) liegt damit eine Lösung der methodischen Probleme der empirischen Einzeldisziplinen Te_x – wenn es überhaupt eine gibt – im Bereich einer Theorie der Subjektivität Ts.

  14. Ich habe nicht den Eindruck, dass es solch eine umfassende Theorie der Subjektivität bislang gibt. Die großen philosophischen Entwürfe gehen sicher in diese Richtung. Vielleicht ist Carnaps Stufenbau der Welt (inhaltlich fast vollständig von Husserl geprägt (gegen den Mainstream der Carnap-Interpretation)) ein kleiner Ansatz zu einer modernen Theorie der Subjektivität.

  15. Also, wir haben noch keine brauchbare Theorie der Subjektivität Ts. Wenn wir sie hätten, man kann ja mal spekulieren, dann müsste man solche Fragen wie die von Chalmers, Velmans und Clark in solch einem Kontext diskutieren. Ob in solch einem Kontext ein semantischer Informationsbegriff Information+ dann nützlich wäre, müsste man ausloten. Ich vermute mal, dass man viele andere Fragen klären müsste, bevor man über die mögliche Verwendung eines Informationsbegriffs im Kontext von Subjektivität und begleitenden empirischen Prozessen nachdenken würde.

Einen Überblick über alle Blogbeiträge von Autor cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 23.August 2015 – INFORMATION – Jenseits von Shannon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

VORHERIGE BEITRÄGE

1. Im Beitrag von John Maynard Smith hatte dieser Kritik geübt an der Informationstheorie von Shannon. Dabei fokussierte er im wesentlichen auf die direkte Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden. Anschließend wurde ein Beitrag von Terrence W.Deacon diskutiert, der den Shannonschen Informationsbegriff als Ausgangspunkt nutzte, den er it dem Entropiebegriff von Boltzmann verknüpfte, von dort die Begriffe thermodynamisches Ungleichgewicht, Arbeit und Evolution nach Darwin benutzte, um die Idee anzudeuten, dass jene Zustände in einem System, die bedeutungsrelevant sein könnten (und von Shannon selbst nicht analysiert werden) in Interaktion mit der Umwelt entstanden sind und entstehen.

ZWISCHENSTAND
2. Was sowohl bei Maynard Smih wie auch bei Deakon auffällt, ist, dass sie sich wenig um den möglichen Kontext des Begriffs ‚Information‘ bemühen. Wie wurde der Begriff der Information im Laufe der Ideengeschichte verstanden? Welche Besonderheiten gibt es in den verschiedenen Disziplinen?

HISTORISCH-SYSTEMATISCHE PERSPEKTIVE

3. In einem umfangreichen und detailliertem Überblick von Pieter Adriaans (2012) in der Standford Encyclopedia of Philosophy findet man ein paar mehr Zusammenhänge.

4. Zwar heißt es auch hier mehrfach, dass ein erschöpfender Überblick und eine alles umfassende Theorie noch aussteht, aber ausgehend von der antiken Philosophie über das Mittelalter, die Renaissance bis hin zu einigen modernen Entwicklungen findet man wichtige Themen und Autoren.

5. Zusammenfassend sei hier nur festgestellt, dass Aspekte des Informationsbegriffs auf unterschiedlich Weise bis zum Ende des 19.Jahrhunderts feststellbar sind, ohne dass man von einer eigentlich Philosophie der Information oder einer Informationstheorie im modernen Sinne sprechen kann. Als grobe Koordinaten, die den Ausgangspunkt für die neuere Entwicklung einer Informationstheorie markieren, nennt Adriaans (i) Information als ein Prozess, der Systeme prägen/ formieren/ informieren kann; (ii) Information als ein Zustand, der sich bei einem System einstellt, nachdem es informiert wurde; (iii) Information als die Fähigkeit eines Systems, seine Umgebung zu prägen/ formen/ informieren.

6. Weiterhin identifiziert er zusammenfassend einige Bausteine der modernen Informationstheorie: (i) Information ist ‚extensiv‘ insofern die Bestandteile in das übergreifende Ganze eingehen und sie vermindert Unsicherheit; (ii) man benötigt eine formale Sprache zu ihrer Darstellung; (iii) ein ‚optimaler‘ Kode ist wichtig; (iv) die Verfügbarkeit eines optimierten Zahlensystems (binär, Stellen, Logarithmus) spielte eine Rolle; ausgehend von konstituierenden Elementen die Idee der Entropie in Kombination mit der Wahrscheinlichkeit; (v) die Entwicklung einer formalen Logik für Begriffe wie ‚Extension/ Intension‘, ‚Folgerung‘, ‚Notwendigkeit‘, ‚mögliche Welten‘, ‚Zustandsbeschreibungen‘ und ‚algorithmische Informationstheorie‘.

7. Andere wichtige Themen sind (i) Information als Grad der Widerlegbarkeit (Popper); (ii) Information in Begriffen der Wahrscheinlichkeit (Shannon); (iii) Information als Länge des Programms (Solomonoff, Kolmogorov, Chaitin).

SHANNON ERSCHEINT ÜBERMÄCHTIG

8. Was man bei Adriaans vermisst, das ist der Bezug zur semantischen Dimension. Hierzu gibt es einen anderen sehr umfangreichen Beitrag von Floridi (2015), auf den auch Adriaans verweist. Floridi behandelt die Frage der Semantischen Information quantitativ sehr ausführlich, inhaltlich aber beschränkt er sich weitgehend auf eine formale Semantik im Umfeld einer mathematischen Informationstheorie auf der Basis von Shannon 1948. Dies verwundert. Man kann den Eindruck gewinnen, dass die ‚konzeptuelle Gravitation‘ des Shannonschen Modells jede Art von begrifflicher Alternative im Keim erstickt.

BEFREIUNG DURCH BIOLOGIE

9. Bringt man die Informationstheorie in das begriffliche Gravitationsfeld der Biologie, insbesondere der Molekularbiologie, dann findet man in der Tat auch andere begrifflich Ansätze. Peter Godfrey-Smith und Kim Sterelny (2009) zeigen am Beispiel der Biologie und vieler molekularbiologischer Sachverhalte auf, dass man das enge Modell von Shannon durch weitere Faktoren nicht nur ergänzen kann, sondern muss, will man den besonderen biologischen Sachverhalten Rechnung tragen. Allerdings führen sie ein solches Modell nicht allgemein aus. Kritiker weisen darauf hin, dass solche zusätzlichen Abstraktionen die Gefahr bieten – wie in jeder anderen wissenschaftlichen Disziplin auch –, dass sich Abstraktionen ‚ontologisch verselbständigen‘; ohne erweiternde Begrifflichkeit kann man allerdings auch gar nichts sagen.

THEORIE A LA BOLTZMANN VOR MEHR ALS 100 JAHREN

10. Diese ganze moderne Diskussion um die ‚richtigen formalen Modelle‘ zur Erklärung der empirischen Wirklichkeit haben starke Ähnlichkeiten mit der Situation zu Zeiten von Ludwig Boltzmann. In einer lesenswerten Rede von 1899 zur Lage der theoretischen Physik ist er konfrontiert mit der stürmischen Entwicklung der Naturwissenschaften in seiner Zeit, speziell auch der Physik, und es ist keinesfalls ausgemacht, welches der vielen Modelle sich in der Zukunft letztlich als das ‚richtigere‘ erweisen wird.

11. Boltzmann sieht in dieser Situation die Erkenntnistheorie gefragt, die mithelfen soll, zu klären, welche Methoden in welcher Anordnung einen geeigneten Rahmen hergeben für eine erfolgreiche Modellbildung, die man auch als theoretische Systeme bezeichnen kann, die miteinander konkurrieren.

12. Mit Bezugnahme auf Hertz bringt er seinen Zuhörern zu Bewusstsein, „dass keine Theorie etwas Objektives, mit der Natur wirklich sich Deckendes sein kann, dass vielmehr jede nur ein geistiges Bild der Erscheinungen ist, das sich zu diesen verhält wie das Zeichen zum Bezeichneten.“ (Boltzmann 1899:215f) Und er erläutert weiter, dass es nur darum gehen kann, „ein möglichst einfaches, die Erscheinungen möglichst gut darstellendes Abbild zu finden.“ (Boltzmann 1899:216) So schließt er nicht aus, dass es zum gleichen empirischen Sachverhalt zwei unterschiedliche Theorien geben mag, die in der Erklärungsleistung übereinstimmen.

13. Als Beispiel für zwei typische theoretische Vorgehensweisen nennt er die ‚Allgemeinen Phänomenologen‘ und die ‚Mathematischen Phänomenologen‘. Im ersteren Fall sieht man die theoretische Aufgabe darin gegeben, alle empirischen Tatsachen zu sammeln und in ihrem historischen Zusammenhang darzustellen. Im zweiten Fall gibt man mathematische Modelle an, mit denen man die Daten in allgemeine Zusammenhänge einordnen, berechnen und Voraussagen machen kann. Durch die Einordnung in verallgemeinernde mathematische Modelle geht natürlich die Theorie über das bis dahin erfasste Empirische hinaus und läuft natürlich Gefahr, Dinge zu behaupten die empirisch nicht gedeckt sind, aber ohne diese Verallgemeinerungen kann ein Theorie nichts sagen. Es kann also nicht darum gehen, ’nichts‘ zu sagen, sondern das, was man theoretisch sagen kann, hinreichend auf Zutreffen bzw. Nicht-Zutreffen zu kontrollieren (Poppers Falsifizierbarkeit). Boltzmann bringt seitenweise interessante Beispiele aus der damals aktuellen Wissenschaftsdiskussion, auf die ich hier jetzt aber nicht eingehe.

WIE SHANNON ERWEITERN?

14. Stattdessen möchte ich nochmals auf die Fragestellung zurück kommen, wie man denn vorgehen sollte, wenn man erkannt hat, dass das Modell von Shannon – so großartig es für die ihm gestellten Aufgaben zu sein scheint –, bzgl. bestimmter Fragen als ‚zu eng‘ erscheint. Hier insbesondere für die Frage der Bedeutung.

15. Im Beitrag von Deacon konnte man eine Erweiterungsvariante in der Weise erkennen, dass Deacon versucht hatte, über die begriffliche Brücke (Shannon-Entropie –> Boltzmann-Entropie –>Thermodynamik → Ungleichgewicht → Aufrechterhaltung durch externe Arbeit) zu der Idee zu kommen, dass es in einem biologischen System Eigenschaften/ Größen/ Differenzen geben kann, die durch die Umwelt verursacht worden sind und die wiederum das Verhalten des Systems beeinflussen können. In diesem Zusammenhang könnte man dann sagen, dass diesen Größen ‚Bedeutung‘ zukommt, die zwischen Systemen über Kommunikationsereignisse manifestiert werden können. Ein genaueres Modell hatte Deacon dazu aber nicht angegeben.

16. Wenn Deacon allerdings versuchen wollte, diese seine Idee weiter zu konkretisieren, dann käme er um ein konkreteres Modell nicht herum. Es soll hier zunächst kurz skizziert werden, wie solch ein Shannon-Semantik-System aussehen könnte. An anderer Stelle werde ich dies Modell dann formal komplett hinschreiben.

SHANNON-SEMANTIK MODELL SKIZZE

17. Als Ausgangspunkt nehme ich das Modell von Shannon 1948. (S.381) Eine Quelle Q bietet als Sender Nachrichten M an, die ein Übermittler T in Kommunikationsereignisse S in einem Kommunikationskanal C verwandelt (kodiert). In C mischen sich die Signale S mit Rauschelementen N. Diese treffen auf einen Empfänger R, der die Signale von den Rauschanteilen trennt und in eine Nachricht M* verwandelt (dekodiert), die ein Empfänger D dann benutzen kann.

18. Da Shannon sich nur für die Wahrscheinlichkeit bestimmter Signalfolgen interessiert hat und die Kapazitätsanforderungen an den Kanal C, benötigt sein Modell nicht mehr. Wenn man aber jetzt davon ausgeht, dass der Sender nur deshalb Kommunikationsereignisse S erzeugt, weil er einem Empfänger bestimmte ‚Bedeutungen‘ übermitteln will, die den Empfänger in die Lage versetzen, etwas zu ‚tun‘, was der übermittelten Bedeutung entspricht, dann muss man sich überlegen, wie man das Shannon Modell erweitern kann, damit dies möglich ist.

19. Das erweiterte Shannon-Semantik Modell soll ein formales Modell sein, das geeignet ist, das Verhalten von Sendern und Empfängern zu beschreiben, die über reine Signale hinaus mittels dieser Signale ‚Bedeutungen‘ austauschen können. Zunächst wird nur der Fall betrachtet, dass die Kommunikation nur vom Sender zum Empfänger läuft.

20. Ein erster Einwand für die Idee einer Erweiterung könnte darin bestehen, dass jemand sagt, dass die Signale ja doch ‚für sich‘ stehen; wozu braucht man die Annahme weiterer Größen genannt ‚Bedeutung‘?

21. Eine informelle Erläuterung ist sehr einfach. Angenommen der Empfänger ist Chinese und kann kein Deutsch. Er besucht Deutschland. Er begegnet dort Menschen, die kein Chinesisch können und nur Deutsch reden. Der chinesische Besucher kann zwar sehr wohl rein akustisch die Kommunikationsereignisse in Form der Laute der deutschen Sprache hören, aber er weiß zunächst nichts damit anzufangen. In der Regel wird er auch nicht in der Lage sein, die einzelnen Laute separat und geordnet aufzuschreiben, obgleich er sie hören kann. Wie wir wissen, braucht es ein eigenes Training, die Sprachlaute einer anderen Sprache zweifelsfrei zu erkennen, um sie korrekt notieren zu können. Alle Deutschen, die bei einer solchen Kommunikation teilnehmen, können die Kommunikationsereignisse wahrnehmen und sie können – normalerweise – ‚verstehen‘, welche ‚anderen Sachverhalte‘ mit diesen Kommunikationsereignissen ‚verknüpft werde sollen‘. Würde der Chinese irgendwann Deutsch oder die Deutschen Chinesisch gelernt haben, dann könnten die Deutschen Kommunikationsereignisse in Chinesische übersetzt werden und dann könnten – möglicherweise, eventuell nicht 1-zu-1 –, mittels der chinesischen Kommunikationsereignisse hinreichend ähnliche ‚adere Sachverhalte‘ angesprochen werden.

22. Diese anderen Sachverhalte B, die sich den Kommunikationsereignissen zuordnen lassen, sind zunächst nur im ‚Innern des Systems‘ verfügbar. D.h. Die Kommunikationsereignisse S (vermischt mit Rauschen N) im Kommunikationskanal C werden mittels des Empfängers R in interne Nachrichten M* übersetzt (R: S x N —> M*), dort verfügt der Empfänger über eine weitere Dekodierfunktion I, die den empfangenen Nachrichten M* Bedeutungssachverhalte zuordnet, also I: M* —> B. Insofern ein Dolmetscher weiß, welche Bedeutungen B durch eine deutsche Kommunikationssequenz im Empfänger dekodiert werden soll, kann solch ein Dolmetscher dem chinesischen Besucher mittels chinesischer Kommunikationsereignisse S_chin einen Schlüssel liefern, dass dieser mittels R: S_chin —> M*_chin eine Nachricht empfangen kann, die er dann mit seiner gelernten Interpretationsfunktion I_chin: M*_chin —> B‘ in solche Bedeutungsgrößen B‘ übersetzen kann, die den deutschen Bedeutungsgrößen B ‚hinreichend ähnlich‘ sind, also SIMILAR(B, B‘).

23. Angenommen, der empfangenen Nachricht M* entspricht eine Bedeutung B, die eine bestimmte Antwort seitens des Empfängers nahelegt, dann bräuchte der Empfänger noch eine Sendeoperation der Art Resp: B —> M* und T: M* —> S.

24. Ein Empfänger ist dann eine Struktur mit mindestens den folgenden Elementen: <S,N,M*,B,R,I,resp,T> (verglichen mit dem ursprünglichen Shannon-Modell: <S,N,M*,-,R,I,-,T>). So einfach diese Skizze ist, zeigt sie doch, dass man das Shannon Modell einfach erweitern kann unter Beibehaltung aller bisherigen Eigenschaften.

25. Natürlich ist eine detaillierte Ausführung der obigen Modellskizze sehr aufwendig. Würde man die Biologie einbeziehen wollen (z.B. im Stile von Deacon), dann müsste man die Ontogenese und die Phylogenese integrieren.

26. Die Grundidee der Ontogenese bestünde darin, einen Konstruktionsprozess zu definieren, der aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <S,N,M*,B,R,I,resp,T> zu konstruieren.

27. Für die Phylogenese benötigte man eine Population von Systemen SYS in einer Umgebung ENV, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘, um dann der Ontogenese übergeben zu werden.

QUELLEN

  1. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  2. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  3. Bernd-Olaf Küppers 2010), „Information and communication in living matter“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.170-184
  4. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  5. Jesper Hoffmeyer (2010), „Semiotic freedom: an emerging force“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.185-204
  6. Stichwort Information in der Stanford Enyclopedia of Philosophy von Pieter Adriaans (P.W.Adriaans@uva.nl) (2012)
  7. Peter Godfrey-Smith, Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  8. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  9. Ludwig Boltzmann (1899), „Über die Entwicklung der Methoden der theoretischen Physik in neuerer Zeit“, in: „Populäre Schriften“, Leipzig:Verlag von Johann Ambrosius Barth, 1905, SS.198-227
  10. Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
  11. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  15. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  16. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  17. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)