Künstliche Intelligenz sogar in der Psychotherapie – Wohin soll das noch führen? Prof. Humm -Darmstadt. Memo

PDF

KURZFASSUNG

Bericht zum VORTRAG „Künstliche Intelligenz sogar in der Psychotherapie — Wohin soll das noch führen?“ von Prof. Dr. Bernhard Humm (FB Informatik, Hochschule Darmstadt), Moderation: Prof. Doeben-Henisch, im Institut für Neue Medien (INM), Frankfurt, Schmickstraße 18, Donnerstag 28. September 2017, 19:30 Uhr (Fotos: Zeynep Tuncer)

KONTEXT

Bernhard Humm hatte am 5.Mai 2017 im eJournal Philosophie Jetzt- Menschenbild (ISSN 2365-5062) einen Beitrag veröffentlicht mit dem Titel „Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?, der viele positive Reaktionen ausgelöst hatte. Wir hatten daraufhin einen öffentlichen Vortrag im Institut für Neue Medien (INM, Frankfurt) im Rahmen einer neuen Reihe ‚Philosophie Jetzt im Gespräch‘ vereinbart. Sein Vortrag fand dann am 28.September 2017 im INM statt. Und, wie sich zeigte, fand sich ein sehr interessantes Publikum zusammen, was das Gespräch sehr bereicherte.

BERICHT

KI ein Hype

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Einleitend machte er deutlich, dass das Thema Künstliche Intelligenz (KI) seit einigen Jahren einen Hype-Charakter hat, was allerdings nicht neu ist. Zitate von Marvin Minsky (1967, 1970) und Ray Kurzweil (2005) illustrierten dies. Der Verweis auf das Märchen von des Kaiser’s neuen Kleider mag auf den ersten Blick krass erscheinen, aber wenn man sich die Marketingverlautbarungen vieler Firmen anschaut, ist dies nicht allzu weit weg davon.

KI im Alltag

Offensichtlich ist, dass Anwendungen mit KI-ähnlichen Eigenschaften mittlerweile im Alltag angekommen sind und wie selbstverständlich benutzt werden (z.B. Gesichtserkennung, Sprachschnittstellen für die Steuerung, selbst fahrende Autos).

Bernhard Humm verdeutlichte diese Breite heutiger Anwendungen mit anderen Projekten, bei denen er beteiligt war, so z.B. die Unterstützung der Entwickler bei einer bekannten Roboterfirma, die Unterstützung bei der Findung eines geeigneten Hotels für die Wünsche von Kunden bei einem bekannten Internetportal für die Hotelreservierung, die Unterstützung der Besucher des Städelmuseums im Auffinden ähnlicher Kunstobjekte, die Unterstützung von Bibliotheksbenutzern bei der Suche nach passender Literatur, oder die Unterstützung von Ärzten beim Identifizieren von Krebsrisiken.

KI und Therapie

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Bernhard Humm berichtete dann von einem neuen Projekt mit dem Zentralinstitut für Seelische Gesundheit (ZI) in Mannheim, bei dem es um den Therapiekontext im Fall von Borderline-Patienten geht. Solche Patienten sind extrem sensibel für Belastungen, was bedeutet, dass in der Interaktion mit Ihnen Stressmomente soweit wie möglich minimiert werden müssen.

Die Aufgabenstellung für die Informatik in diesem Fall ist nicht, den Therapeuten zu ersetzen, sondern die Therapie des Therapeuten zu unterstützen.

Ein Anknüpfungspunkt sind die routinemäßigen schriftlichen Befragungen, die die Patienten mit normalem Schreibgerät ausfüllen müssen. Für die Therapeuten ist dies eine wichtige Rückmeldung. Für die Patienten ist es ein Baustein ihrer aktiven Bewältigung der Borderline-Phänomene.

Eine Maßnahme war die Möglichkeit anzubieten, dass die Patienten diese Fragebogen über ihr Smartphone oder den Computer ausfüllen können. Was auf den ersten Blick banal erscheinen mag, stellte sich als eine große Hilfe für die Patienten heraus. Sie empfanden dies deutlich als Erleichterung.

Ein anderer Ansatzpunkt war motiviert durch die allgegenwärtige Gefahr, dass Patienten (aufgrund ihres geringen Stresspegels) sehr leicht zu einem Abbruch tendieren. Für die Therapeuten ist es daher von hoher Bedeutung, zu erkennen, ob sich ein Abbruch andeutet. Es wurde daher versuchsweise begonnen, mit Methoden der statistischen Datenanalyse (heute oft verbunden mit dem Schlagwort von ‚Big Data‘), über eine Vielzahl von (anonymisierten) Fragebogendaten, Anhaltspunkte zu finden, die auf einen wahrscheinlichen Abbruch hindeuten. Die ersten Experimente mit verschiedenen Auswertungstechniken waren sehr positiv. Damit deutet sich an, dass die Therapeuten auf diese Weise eine zusätzliche Unterstützung bekommen könnten, in ihrer Therapie darauf zu achten.

Matthias Rewald (Armstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

Matthias Rewald (Darmstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

KI und Zukunft der Arbeit

Michael Klein, der Direktor des INM, mit einem frfeundlichen Lächeln

Michael Klein, der Direktor des INM, mit einem freundlichen Lächeln

Bernhard Humm betonte einerseits die Normalität und die aktuelle Einfachheit der tatsächlichen KI-Anwendungen, er verwies aber auch auf mögliche weitreichende Herausforderungen, die sich durch die zunehmende Ersetzung von klassischen Arbeitsplätzen durch intelligente Technologien manifestieren.

Im Rahmen der industriellen Revolution hat die Menschheit schon einige Umbrüche erlebt und letztlich überstanden, aber der neue Technologiewandel durch umfassende Digitalisierung greift viel weiter, viel tiefer in das gesellschaftliche Leben ein als alles, was wir bislang kennen.

Die bisherigen Prognosen zur Zukunft der Arbeit sind zudem sehr widersprüchlich; dies deutet an, dass die Materie unübersichtlich ist. Sollte der Wegfall von Arbeitsplätzen deutlich größer sein als das Entstehen neuer Arbeit, dann würde dies große Herausforderung an das bisherige Gesellschaftsmodell stellen: wie an der wirtschaftlichen Produktion beteiligt sein ohne durch Arbeit Geld zu verdienen?

Auch stellen sich viele Fragen, wenn immer mehr Entscheidungsprozesse an Algorithmen ausgelagert werden. Wenn automatisierte Waffen ‚von sich aus‘ angreifen und töten? Wenn im Hochfrequenzhandel an den Börsen die Algorithmen global wirtschaftliche Prozesse ohne Rückkopplung an Menschen steuern? Wenn Verwaltungsabläufe automatisiert werden? Wenn … viele Fragen, auf die wir bislang noch keine Antworten haben.

DISKUSSION

Schon während des Vortrags gab es Ansätze zur Diskussion, die dann nach einer kurzen Pause lebhaft weiter geführt wurde.

Man kann die Beiträge grob in zwei Gruppen einteilen: (i) Der Kontext von Therapie für den Einsatz von KI und (ii) Grundsatzfragen zur Zukunft von Menschen und intelligenten Maschinen.

Therapiekontext

Aufgrund der Einfachheit der Informatikanwendungen am Beispiel der Therapie von Borderline-Patienten und ihrer deutlichen Beschränkung als begrenztes Werkzeug für die Therapeuten gab es hier noch nicht viel Diskussionsbedarf. Jürgen Hardt, erfahrender Psychoanalytiker und Psychotherapeut(*)  lies allerdings in seinen Gesprächsbeiträgen aufblitzen, wie komplex die Sachlage im Fall von psychoanalytischen Therapien ist und welche grundsätzlichen Beschränkungen computergestützte Anwendungen bislang aufweisen, erst Recht, wenn sie als online-Dienst daher kommen.

Andererseits zeigt das Projektbeispiel mit den Borderline-Patienten auch ein wenig, dass ein übergreifender theoretischer Rahmen für diese Art von interdisziplinärem Vorgehen noch fehlt. Es wäre interessant zu sehen, ob und wie solch ein Rahmen die Diskussion beeinflussen könnte.

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

KI als mögliche Bedrohung

Die Tatsache, dass die überwiegende Zahl der Beiträge sich auf die möglichen Bedrohungen der KI bezog, deutet an, wie stark dies doch offensichtlich alle beschäftigt.

Ein Thema war die offensichtliche Faszination, die das Thema KI bei den Menschen auslöst; einmal in dem Sinne, dass man mit der KI eine Fülle von Verheißungen verknüpft, die Lösung aller Probleme, die wir Menschen bislang noch nicht gelöst haben, und dann unendliche Bedrohungsszenarien. Woher kommt dies? Warum reagieren wir Menschen so? Und in der Tat lässt sich dieses Motiv in der Kulturgeschichte viele Jahrhunderte, wenn nicht Jahrtausende zurück verfolgen (Jürgen Hardt).

Einen großen Raum nahm das Thema ‚Digitalisierung der Gesellschaft ein, was von einigen als Teil eines Kulturwandels gedeutet wurde, der grundlegende Muster verändert. Worauf dies alles hinauslaufen wird erschließt sich noch nicht so richtig. Michael Klein machte darauf aufmerksam, dass die großen Internetkonzerne mit Sitz in Silicon Valley schon seit den 90iger Jahren eindeutige Manifest verfasst haben, in denen sie beschreiben, wie sie die Welt verändern wollen. Ein Kern dieser Überzeugungen ist der Glaube an die globale Allheilkraft der Daten mit Daten lassen sich alle Probleme lösen.

Dies erinnert an die Schriften der Aufklärung(Humm), in denen ebenfalls die Verfügbarkeit von Wissen als ein Schlüssel für die Veränderung der Welt (dort vom Absolutismus zu mehr Gleichheit und Brüderlichkeit in allem, zum Abbau von Dogmatismus und Ideologie) angesehen wurde. Wie die Geschichte uns zeigen kann, hat das Wissen alleine bislang offensichtlich nicht diese erhoffte Heilkraft für alle Probleme: Diktaturen, Kriege, Ausbeutung, Hunger, Unterdrückung und vieles mehr sind bis heute de weltumfassenden Begleiter der Menschheit.

Es gab auch verschiedene Stimmen, die jene Position von Bernhard Humm in Frage stellten, in der er den Unterschied zwischen Menschen und intelligenten Maschinen so grundsätzlich darstellte, dass ein Ersatz der Menschen durch solche Maschinen kaum vorstellbar erscheine. Das Ergebnis dieser Argumente war nicht eindeutig. Dass intelligente Maschinen sich in der Zukunft zumindest selbst ‚fortpflanzen‘ könnten, schien den Diskussionsteilnehmern prinzipiell nicht ausgeschlossen.

Doeben-Henisch wies gegen Ende noch auf ein grundlegendes Problem der modernen KI hin, das, sollte es zutreffen, sehr viele Fragezeichen hinter die Zukunft der KI setzen würde, selbst wenn diese Maschinen tausende Male schneller als Menschen würden (was sie ja schon sind) und tausende Male mehr Daten verarbeiten können (was ja auch schon stattfindet). Das Problem findet sich im Bereich des autonomen Lernens. In dem sehr fortschrittlichen Bereich ‚developmental robotics‘, wo es um die Entwicklung von Robotern mit mehr Autonomie geht, die sich ähnlich wie Kindern entwickeln können sollen, ist man seit einigen Jahren auf das Problem gestoßen, mit welchen Präferenzen (= Werte) Roboter lernen sollen, wenn diese nicht nur von den Ingenieuren ‚eingeflüstert‘ werden sollen. Außerdem reicht es nicht, dass ein einzelner Roboter ‚Präferenzen‘ besitzt, sondern eine ganze Population von Robotern muss sich ‚einigen‘, welche Werte sie gemeinsam verfolgen wollen. Aktuell führt die Menschheit vor, wie unfähig sie selbst ist, dieses Problem zu lösen. Es gibt nicht die leiseste Idee, wie Roboter dieses Problem lösen sollen. Wissen als solches ist neutral, es gibt keine Richtung vor. Die chinesische Regierung demonstriert gerade, wie man das aktuelle Werte-Vakuum und die ‚willenlose KI‘ aufgrund von Machtkonstellationen beliebig instrumentalisieren kann (Bericht FAZ vom 25.September 2017).

 

ANMERKUNGEN

(*) Jürgen Hardt ist Psychologischer Psychotherapeut, Lehr- und Kontrollanalytiker (DPV/IPA), Gruppenlehranalytiker (GAS, London), Supervisor und Organisationsberater (DAG) und Gründungspräsident der Psychotherapeutenkammer Hessen. Er hat gemeinsam mit anderen erfolgreich Verfassungsbeschwerde gegen das BKA Gesetz eingelegt, und dabei mit der besonderen Schutzbedürftigkeit des psychotherapeutischen Gespräches argumentiert.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE MEISTGELESENEN BEITRÄGE IM BLOG 2015

Eine Liste der 17 am häufigten besuchten Beiträge im Blog, wie sie im Zeitraum von Dez.2013 bis Dez.2015 vom Statistikmodul von wordpress registriert worden sind. Über die Korrektheit lässt sich weiter nichts sagen, da die Basisdaten der Statistik nicht zugänglich sind. Die Statistik registriert aber auch Zugriffe auf Blogbeiträge vor Dez.2013. Bei mittlerweile 322 Blogeinträgen von cagent seit 2007 kann es aufschlussreich sein, welche 17 Beiträge von Lesern als interessant empfunden wurden.

1 KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?
2 OFFENBARUNGSRELIGIONEN – Grenzen, die man bedenken sollte
3 CARTESIANISCHE MEDITATIONEN III
4 BLOG GEBIERT BUCH. Bis 28.August 2015 soll die Grundaussage des Blogs als Buch geschrieben werden
5 PARADOX MENSCH – Reden wir nicht drum herum….
6 Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?
7 SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015
8 Gnoseologische, ontologische, teleologische Wahrheit – Fortsetzung 2 der Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis
9 IBN SINA/ AVICENNA: DIE METAPHYSIK AVICENNAS – Warum man manchmal schlafende Hunde wecken sollte (Teil 1)
10 Philosophische Büttenrede…
11 SIND KINDER GUT? WIE KOMMT DAS BÖSE IN DIE WELT? MEMO philosophieWerkstatt vom 8.Februar 2015
12 NACHBEMERKUNG ZUM BUCH VON H.RATH – Und Gott sprach: Wir müssen reden!
13 CHRISTLICHES ABENDLAND EINE LEGENDE? Nachbetrachtungen zum Buch von R.Bergmeier
14 DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014
15 Wissenschaftliches Denken (2)
16 INDUKTIVES SERVICE-LEARNING? Plädoyer für mehr Vertrauen in die Generation der Zukunft. Mehr Selbstvertrauen in die Mission Zukunft der Hochschulen.
17 Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 2

Eine Liste aller Blogbeiträge von cagent nach Titeln findet sich HIER.

VOM VERSCHWINDEN DES MENSCHEN – EIN GEDANKLICHER KURZSCHLUSS? – Thema der Philosophiewerkstatt vom 13.Dez.2015

Logo PhilWerkstatt v3

Logo PhilWerkstatt v3

EINLADUNG ZUR NÄCHSTEN

philosophieWerkstatt v3.0

am

Sonntag, 13.Dez.2015

16:00 – 19:00h

in der
DENKBAR Frankfurt
Spohrstrasse 46a

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

PROGRAMMVORSCHLAG

Als Programmablauf für den 13.12.15 wird vorgeschlagen:

16:00h Begrüßung
16:15h Kurzeinführung durch Gerd Doeben-Henisch anhand von zwei Mini-Hörspielen von jeweils ca. 5 Minuten.
16:30h Danach gemeinsame Reflexion zum Thema mit begleitender Erstellung eines Begriffsnetzwerkes.
17:30h ‚Blubberphase‘ – jeder kann mit jedem reden, um das zuvor gesagte ‚aktiv zu verdauen‘
18:00h Schlussdiskussion mit Zusammenfassung der Ergebnisse
18:45h Themenvorschläge für die nächste Sitzung

PHILOSOPHIEWERKSTATT ÜBERBLICK

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 4

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organisationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

Im Teil 3 geht es um das Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit sieht, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar. Denbigh zeigt dann anhand vieler Punkte dass die Annahme eines Determinismus wenig plausibel ist. Betrachtet man den Gang der Entwicklung dann kann man nach Denbigh etwa folgende Komplexitätsstufen unterscheiden: (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) Aus wissenschaftlicher Sicht müssen sich alle diese ‚Stufen‘ (‚level‘) einheitlich erklären lassen.

KAPITEL 5: GIBT ES IRGENDWELCHE SCHÖPFERISCHEN PROZESSE? (149 – 178)

1. Nachdem Denbigh in den vorausgehenden 4 Kapiteln die Begrenztheit vieler Konzepte in der modernen Physik in den Fokus gerückt hatte (z.B.: dass die Welt nicht deterministisch ist; dass die Naturgesetze Gedankenbilder sind und nicht automatisch eine ontologische Geltung besitzen; dass alle bekannten Prozesse in der Natur irreversibel sind; dass das Konzept einer Symmetrie nicht empirisch gedeckt ist; dass die sogenannten Konservierungsgesetze postuliert wurden bevor sie überhaupt definiert wurden; dass alles darauf hindeutet, dass die Entropie zunimmt ), konzentriert er sich im letzten 5.Kapitel auf die Frage, ob es überhaupt schöpferische/ erfinderische (‚inventive‘) Prozesse gibt.
2. Mit schöpferisch meint er nicht einen Vorgang wie in den religiösen Schöpfungsmythen, in denen quasi aus dem Nichts ein unbekanntes Etwas genannt Gott/ Schöpfer etwas hervorbringt (die Welt), die dann völlig deterministisch abläuft, sondern eher einen abgeschwächten Hervorbringungsprozess, der ohne Notwendigkeit geschieht, nicht voraussagbar ist, etwas wirklich Neues bringt, und der alle Phänomene des bekannten Universums abdeckt. Er geht sogar soweit, zu sagen, dass alle die zuvor genannten Komplexitätsstufen (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) sich als Momente an diesem generischen Innovationsprozess erweisen lassen müssten.

3. Dieser generische Innovationsprozess ist dann allgemeiner als der übliche Emergenz-Begriff. Emergenz beschreibt üblicherweise das Auftreten spezifischer Komplexitätsstufen bzw. -eigenschaften im engeren Sinne und nicht einen generischen Prozess für alle diese Phänomene.

4. In Anlehnung an das bekannte Schema der genetischen Algorithmen (hier ein knapper Überblick zur historischen Entwicklung des Konzepts Genetischer Algorithmus (GA) sowie Classifier Systeme) stellt Denbigh letztlich drei charakterisierende Momente für seine Idee eines Innovationsprozesses vor: 1) Die Ereignisse sind zufällig ; sie sind 2) selektiv (bei biologischen Systemen oft noch verstärkt durch sexuell bedingte Vermischung im Erbmaterial (crossover)(s.160)); schließlich 3) verstärkend aufgrund des anschließenden Erfolges.
5. Er illustriert dieses Schema beim Übergang vom BigBang zu den ersten Gaswolken, dann zu den Sternen und Galaxien, dann bei der Molekülbildung, bei der Zellbildung, usw. Wichtig ist ihm auch, dass dieses Ereignismodell nicht an biologische Substrate gebunden ist, sondern eben von nicht-biologischen Systemen allgemein auch befolgt werden kann, speziell auch von modernen programmgesteuerten Maschinen (Computern).
6. Eine noch allgemeinere Charakterisierung ist jene, die diese schöpferischen Prozesse ansiedelt zwischen Ordnung und Unordnung. Ein Beispiel für hohe Ordnung wären die kristallinen Strukturen (sie sind für schöpferische Prozesse zu starr), und ein Beispiel für Unordnung wäre gasförmige Strukturen (sie sind für schöpferische Prozesse zu instabil, zu flüchtig). (Vgl.S.162f) Mit anderen Worten, bei allem Aufbau von Ordnung muss es hinreichend viel Rest-Unordnung geben, ansonsten kommen alle Prozesse zum Stillstand, oder: gefordert ist ein Zustand unterhalb maximaler Entropie.
7. Wie Denbigh auch in den vorausgehenden Kapiteln schon angedeutet hatte, sieht er spirituelle/ geistige Phänomene einschließlich des Bewusstseins als normale Phänomene des Naturprozesses. (Z.B. S.168f)
8. So sieht er die 6 Komplexitätsstufen von oben auch als Ausprägungen eines allgemeineren 3-stufigen Schemas (i) unbelebt , (ii) belebt sowie (iii) belebt mit wachsendem Bewusstsein. (Vgl. S.171)
9. Unter Voraussetzung seines 3-stufigen Innovationsmodells kann er dann das Bewusstsein als einen Prozess interpretieren, der die Fähigkeit zur Selektion für ein biologisches System dramatisch verbessert. (Vgl. S.163-165)
10. Denbigh kommt in diesem Kapitel auch nochmals auf die Problematik der nichtwissenschaftlichen Voraussetzungen der Wissenschaft zu sprechen, die ich in einem vorhergehenden Beitrag schon angesprochen hatte (der Beitrag war angeregt von der Lektüre von Denbigh).
11. Mit Zitaten von einigen berühmten Forschern und Philosophen thematisiert Denbigh nicht nur allgemein die häufig unreflektierte Voraussetzungsbehaftetheit von Wissenschaft, sondern spricht auch speziell die Tendenz des menschlichen Denkens an, die Prozesse der Natur zu verdinglichen. Während Messgeräte und unsere menschliche Wahrnehmung primär nur isolierte Ereignisse registrieren können, setzt unser Denken diese individuellen Ereignisse automatisch (sprich: unbewusst) zu abstrakten Strukturen zusammen, zu sogenannten Objekten, denen wir dann Eigenschaften und Beziehungen zuordnen. (Vgl. S.164f und Anmk.14) Auf einer größeren Zeitskala gibt es diese Objekte aber nicht, sondern da gibt es nur kontinuierliche Zustandsänderungen eines alles umfassenden Prozesses, dem man zwar Eigenschaften zuordnen kann, aber letztlich nicht isolierte Objekte. Berücksichtigt man diese Artefakten unseres Denkens, dann legt sich der Gedanken nahe, die gesamte Physik von diesem veränderten Blickwinkel aus zu betrachten und zu re-analysieren. Hier verweist Denbigh explizit auf die theoretischen Arbeiten des berühmten Physikers David Bohm (später in Kooperation mit Basil J.Hiley), dessen Ergebnisse nach vielen Jahren Arbeit Eingang in das Buch The Undivided Universe: An Ontological Interpretation of Quantum Theory gefunden haben.

12. Denbigh fasst die manifeste Schizophrenie der modernen Wissenschaft in ihrer Haltung zum Menschen in folgendes Bild: „Die moderne Wissenschaft ist ein gedankliches System, das zwar die kreative Kraft der Menschen umfassend dokumentiert, und doch macht sie den Menschen selbst zu einer Sache/ zu einem Ding (‚thing‘) – also zu einem Objekt, von dem die Wissenschaft annimmt, dass es über eine solche schöpferische Kraft gar nicht verfügt.“ (Anmk.22, S.173)

DISKUSSION

  1. Dieses Buch habe ich als extrem anregend empfunden. Es taucht viele bekannte Positionen in ein neues Licht.
  2. Erkenntnistheoretisch liegt es auf der Linie, die bislang im Blog vertreten wurde, nämlich dass man bei der Diskussion der verschiedenen Phänomene und Positionen die jeweiligen Bedingungen des Erkennens beachten sollte, wenn man zu einer Einschätzung kommen möchte. Und dazu reicht keine klassische Erkenntnistheorie, sondern man muss die  modernen Erkenntnisse aus Psychologie und Biologie einbeziehen. Die Warnung vor einer falschen Verdinglichung der Weltereinisse sollte ernst genommen werden.
  3. Ferner ist der bisherige Erklärungsansatz dieses Blogs über einen generellen Evolutionsbegriff in Übereinstimmung mit dem generellen Innovationsansatz von Denbigh. Tatsächlich erscheint Denbighs Ansatz noch radikaler, generischer.  Dies soll im weiteren mehr bedacht werden.
  4. Die klare Subsumierung alles Geistigen unter den allgemeinen Naturprozess entspricht auch der Linie im Blog. Dieses führt aber nicht — wie Denbigh auch klar herausstellt — zu einer Vereinfachung oder Abwertung des Geistigen sondern zu einem vertieften Verständnis  der potentiellen Vielfalt und Komplexität der Energie-Materie. Mit der unterschiedlichen Einordnung geht ja nicht das Phänomen verloren, sondern die begriffliche Einordnung muss neu justiert werden. Dies verlangt nicht nur eine Neupositionierung der bisherigen Geisteswissenschaften, sondern genauso auch eine Neupositionierung der Naturwissenschaften. Diese erweisen sich bislang aber als nicht minder dogmatisch wie die oft gescholtenen Geisteswissenschaften.

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
  2. David Joseph Bohm FRS[1] (December 20, 1917 – October 27, 1992) was an American scientist who has been described as one of the most significant theoretical physicists of the 20th century[2] and who contributed innovative and unorthodox ideas to quantum theory, neuropsychology and the philosophy of mind.
  3. Basil J. Hiley (born 1935), is a British quantum physicist and professor emeritus of the University of London. He received the Majorana Prize „Best person in physics“ in 2012.
  4. Review von: „The Undivided Universe: An Ontological Interpretation of Quantum Theory“ von David Bohm and Basil J. Hiley, Routledge, London and New York, 1993. 397 pp. hc, ISBN 0–415–06588–7 durch Sheldon Goldstein, Department of Mathematics, Rutgers University, New Brunswick, NJ 08903, USA(July 28, 1994)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

DIE MÜCKE FLIEGT INS TODESLICHT – UND DER MENSCH FLIEGT …

DIE MÜCKE

1. Wir kennen alle das Schauspiel, wenn Mücken, Insekten sich, magisch angezogen vom Licht, geradezu unaufhaltsam hineinstürzen … und verglühen, verkohlen, durch beißenden Geruch in unsere Wahrnehmung dringen.

2. Die einen ekelt es, andere schaudern innerlich, manche fühlen sich überlegen: diese dummen Mücken; könnte mir nicht passieren.

3. In der Tat, dass Menschen sich in eine Lichtquelle stürzen und dabei umkommen ist ziemlich ausgeschlossen. Aber sind wir deswegen aus dem Schneider?

Eine musikalische Mücke (Vom 7.Mai2015)

UND WIR

4. Ersetzt man das Wort ‚Licht‘ durch etwas anderes, kann sich das Bild schnell ändern. Wie wär’s mit ‚liebgewordener Vorstellung‘?

5. Wenn man jahrelang ‚Erfolg‘ hatte mit einer bestimmten Vorgehensweise (VW, Flüchtlingspolitik der Europäer, Nokia-Handy, Faule Geldprodukte der Großbanken, Fifa-Korruption, …), dann gaukelt dies eine Sicherheit vor, die tatsächlich nicht gegeben ist. Das scheinbar Bekannte, Erprobte übt solch eine Anziehungskraft aus, dass man alles tut, es zu bewahren, und damit bereitet man den Untergang vor.

REICHTUM

6. Wohlhabende und reiche Menschen, insbesondere, die diesen Reichtum geerbt und nicht selbst erarbeitet haben, leben in einer Welt scheinbarer Vorteile und Privilegien wie in einem Käfig. Freiwillig gibt dies kaum jemand auf; warum auch. Hat man nicht alles? Was wären die Alternativen? Warum sollte man sein Leben ändern? Was aus Sicht des einzelnen einen gewissen Sinn ergibt, kann als Teil des Ganzen einen gefährlichen Sprengsatz darstellen: wenn immer weniger Menschen (Prozentual) immer mehr besitzen, erzeugt dies ein soziales Spannungsfeld, das in der Geschichte bislang immer zu Aufruhr, Revolution, Zerstörung geführt hat, zu Chaos (fast alle Länder dieser Welt leiden an dieser Krankheit). Die individuelle Verblendung wird dann zur Falle, wird zum Gift, das das Denken, Fühlen und Handeln lähmt.

MACHT

7. Mit Macht ist dies nicht anders. Wer einmal in den scheinbare Genuss von ‚Macht‘ gekommen ist, der ist in der Regel verloren. Es ist wie ein physikalisch schwarzes Loch: die Beteiligung an dem System, das die Macht besitzt, wirkt wie die Gravitationskraft, die alles Individuelle, alle Art von Moral, Ethik, Individualität weg saugt und den einzelnen zum fast willenlosen Element des Machtfeldes macht, aus dem es kein Entkommen gibt, solange man die Macht für sich als oberstes Lebensprinzip akzeptiert.

8. Eines der berühmtesten Beispiele aus der Gegenwart für solch ein Macht-System ist die NSA: sie hat unglaubliche Geldvermögen zur Verfügung; sie steht außerhalb jeglichen Gesetze (jede Art von Verbrechen ist legitimiert, weil es offiziell um die ‚Sicherheit‘ geht, die über allem steht, was Menschen sonst heilig ist); eine demokratische Kontrolle existiert schon seit vielen Jahren nicht mehr (ehemalige Mitglieder des einzigen demokratischen Kontrollgremiums bestätigen, dass eine Kontrolle faktisch ausgeschlossen ist); das gelegentliche Auswechseln der offiziellen Leiter ist reine Kosmetik; die einzelnen Chefs müssen über ihre finanziellen Gebaren keinerlei Rechenschaft ablegen (die Generäle des US-Militärs übrigens auch nicht). Die innere Struktur ist auf Geheimniskrämerei und bedingungslosen Gehorsam ausgelegt. Für Machtmenschen ein Paradies. Für das Individuum eine Dauerhölle: nichts ist sicher; man muss alles abliefern, selbst seine intimsten Überzeugungen und Wünsche, Ethik ist ein Verbrechen; Entkommen ausgeschlossen. Das ganze ummantelt von der Illusion einer Demokratie, die aber keinerlei Zugriff mehr besitzt. Umgekehrt kann dies Monster jederzeit überall auf jeden zugreifen, ihn kontrollieren, ihn manipulieren und ihn nach Belieben zerstören. Keine juristische Einrichtung dieser Welt kann und wird dies verhindern.

9. Warum also sollte z.B. solch eine Institution sich ändern? Was könnte es geben, was diese Institution motiviert, ‚anders‘ zu sein, wie anders? Dieses schwarze-Macht-Loch (analog zum schwarzen Gravitations-Loch) zieht alles an sich; je tiefer man drin ist, umso stärker. Im Innern des Gravitationsfeldes dieser Macht ist jeder einzelne bis zur Unkenntlichkeit verzerrt. Es ist nur eine Frage der Zeit, bis solche Machtzentren die sie umgebenden gesellschaftlichen Systeme von innen heraus völlig aufsaugen und zerstören. Schon heute ist nicht mehr so richtig klar, ob das zivile politische System überhaupt noch ein Rest an Eigenleben hat, um solch ein Machtmonster demokratisch unter Kontrolle zu bringen. Alle Versuche der letzten Jahre in den politischen Gremien sind kläglich gescheitert.

10. Die NSA ist sicher ein Extrembeispiel. Immerhin gibt es noch Grundinformationen zu diesem System. In anderen Ländern (Russland, China, Iran, …) sind die Dinge verdeckter, aber, so muss man vermuten, sicher nicht besser. Ein klares Bild ist schwer möglich.

ANGST ZU SCHEITERN

11. Aber wir müssen nicht so weit streifen. Schauen wir uns in unserem eigene Alltag um, in unserer Nahumgebung, in unserem Bundesland. Wo immer wir hin schauen, überall finden wir die Tendenz, erreichte scheinbare ‚Vorteile‘ zu verteidigen, ‚erprobte Vorgehensweisen‘ heilig zu sprechen. Dies ist kein Zufall. Wir Menschen sind so konstruiert, dass unser Gedächtnis alles speichert und dass wir uns das, was einmal schlecht war zu meiden versuchen, und das, was erfolgreich erscheint, beibehalten und wiederholen. Die tiefsitzende Angst zu ’scheitern‘, ‚Fehler‘ zu machen, treibt uns dazu, das bislang erkannte ‚Erfolgreiche‘ quasi ‚heilig‘ zu sprechen, es auf das Podest zu stellen, es nicht zu hinterfragen.

WER HILFT DEN SCHWACHEN?

12. Und es ist ja auch objektiv nicht einfach. Die Dinge erscheinen heute vielfach so undurchsichtig, so komplex, dass man oft auch informatorisch hilflos da steht, und nicht wirklich weiß, was soll ich denn jetzt tun. Dann gibt es Prozesse, die man für ein Ziel durchlaufen muss, die Jahre dauern können, viele Jahre. In dieser Zeit muss man eine Beharrlichkeit, eine Konstanz entwickeln, die aktuelle Infragestellungen, Verunsicherungen abwehrt, sie durchsteht, sonst kommt man nicht zum Ziel. Änderungen sind angesichts solcher Prozesse nicht schnell machbar, nur in größeren Zeitabschnitten. Manchmal kann es also Jahre dauern, bis man einem unterschwelligen Gefühl der ‚Unstimmigkeit‘ wirklich Raum gibt, es kommen lässt, es anschaut, und man sich dann plötzlich ganz neu entscheidet. Dies sind aber schon sehr stabile Persönlichkeiten. Unsichere, instabile Persönlichkeiten werden beständig verunsichert, entscheiden sich um, brechen ab, erzeugen ein persönliches und soziales Chaos, was dann alles noch schwerer macht; vieles ausweglos erscheinen lässt. Sie können sich offensichtlich nicht alleine helfen. Doch wer hilft Ihnen? Welche Unterstützung haben die, die Hilfe brauchen?

EHEMALIGE DDR

13. In der damaligen DDR (ich bin da geboren; ein Teil unserer Verwandtschaft lebte dort, hatte immer Kontakt, war z.T. in der DDR) hatten wir ein System, das sich offiziell ideologisch auf ein Programm verpflichtet hatte, das gute Werte propagierte, und ein unmenschliches Programm der Überwachung und der Unterdrückung praktizierte. Das real Böse wurde gerechtfertigt mit einem virtuell Guten (die heutigen Parallelen zur NSA sind sehr stark: das virtuell Gut ‚Sicherheit‘ dient als Argument, alle erdenklichen Verbrechen, Überwachungen und Unterdrückungen zu rechtfertigen; dazu viel umfassender und effizienter, als es die Stasi je konnte). Für die Mitglieder der ‚Macht‘ in der ehemaligen DDR war dies sehr vorteilhaft; und diese Vorteile wurden in Stufen an die Unterstützer weitergegeben. Für diese gab es kein Motiv, sich zu ändern; im Gegenteil, durch die bekannten Unterdrückungsmaßnahmen musste jeder Angst um sich und sein Umfeld haben. Im Nachhinein und von außen betrachtet können wir heute wissen, dass dieses System als Ganzes ruinös war, Ressourcen verschwendet hat, nicht konkurrenzfähig war. Aus sich heraus hatte es keine Kraft, sich zu ändern, weil die Gravitationskraft der Macht und der Privilegien die Individuen in ihrem Bann hielt. Dass dann die Bürgerbewegungen Kraft entfalten konnten, lag weitgehend nur daran, dass das übergeordnete Machtsystem aufgrund anderer Faktoren Machtverschiebungen ermöglichte, die ein Handeln ohne Blutvergießen zuließen.

IST LEBEN UNMÖGLICH?

14. Individuelle Emotionen, individuelles Wissen, Koordinierung vieler Gehirne durch Kommunikation und durch faktische Verhältnisse, die immer größere Anzahl von Individuen, die riesige Bandbreite an kulturellen Gepflogenheiten und Sprache, darin enthalten die unterschiedlichen Ethiken, Regelsysteme, Werte … dass dies alles sich täglich neu finden und koordinieren soll, ohne mitgelieferte Bauanleitungen für das Leben, das ist eigentlich eine unlösbare Aufgabe. Dass wir es als Menschen trotzdem überhaupt soweit geschafft haben ist für mich ein Wunder, das hoffen lässt.

DAS GANZ GROSSE WUNDER

15. Eigentlich kann es nicht gehen, aber es geht doch, es geht immer weiter, es gibt nicht nur Katastrophen, es gibt nicht nur narzisstische Alphatierchen, es gibt nicht nur gewissenlose Diener der Macht, es gibt unglaublich Schönes, es gibt wunderbare tiefe Wahrheiten, es gibt berauschende Kunst, es gibt Menschen, die ihr Leben der Gravitation von Macht und Reichtum entrissen haben und eigenverantwortlich risikobereit handeln, es gibt Menschen, es gibt …. ja es gibt immer noch dieses unfassbare Phänomen des Lebens in diesem Universum, das sich über ca. 4 Mrd Jahre entwickelt hat, ohne dass wir auch nur das kleinste Momentum dazu beigetragen haben. Kann man dann überhaupt am Leben zweifeln?

eDrum – eBass – ePiano Overdrive (2.Okt.2015)

SPRUCH

Wer nicht staunen und lieben kann, sollte anfangen, nach seinen eigenen Lügen zu forschen, die ihn daran hindern, das Wunderbare wahrzunehmen, was schon immer da ist, bevor wir überhaupt den ersten Atemzug gemacht haben (nicht selten sind es andere, die zumindest dazu mit beigetragen haben, dass uns diese Lügen ‚eingepflanzt‘ wurden …).

 

PS: Einen thematisch ähnlichen, und doch leicht anders akzentuierten, Beitrag  findet man HIER.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 22.August 2015 – SHANNON BOLTZMANN DEACON – Was fehlt

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

Dies ist die Fertigstellung des vorausgehenden Beitrags zur Position von Deacon 2010.

VORIGER BEITRAG VON MAYNARD SMITH

1. Im vorigen Beitrag war die Kritik von John Maynard Smith an der Informationstheorie von Shannon vorgestellt worden. Diese fokussierte im wesentlichen auf der direkten Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden.

NOCHMALS ZU SHANNON (1948)

2. Nochmals kurz zurück zu Shannon selbst. Claude Elwood Shannon (1916-2001) macht gleich zu Beginn seiner Schrift klar, dass er sich nicht um bedeutungsrelevante Eigenschaften kümmern will, sondern, als Ingenieur und Mathematiker interessieren ihn vor allem jene allgemeinen Eigenschaften bei der Übermittlung von Nachrichten, durch die eine abgesendete Nachricht (‚message‘) möglichst eindeutig auch wieder bei einem Empfänger ankommt. Dabei wird davon ausgegangen, dass die aktuell zu übermittelnde Nachricht von einer bekannten Menge von möglichen Nachrichten ausgewählt wurde (Anmerkung: diese Menge muss sowohl dem Sender wie auch dem Empfänger bekannt sein). Der Sender muss in der Lage sein, die Nachricht in eine Ereignisform zu übersetzen (kodieren, encode), die innerhalb eines Kommunikationskanals übermittelt werden kann. Dazu werden in der Regel Sequenzen konkreter ‚Symbole‘ aus unterschiedlichen endlichen ‚Alphabeten‘ benutzt, die dann u.U. weiter übersetzt werden in konkrete physikalische Ereignisse in einem Kommunikationskanal. Das empfangende System wiederum muss diese Ereignisse so rückübersetzen können (dekodieren, decode), dass das System entscheiden kann, ob die ‚empfangenen Symbole‘ eine Nachricht im Sinne der vorausgesetzten Menge darstellen oder nicht.

3. Wichtig ist, dass Shannon im Allgemeinen zwar von Kommunikation spricht, die untersucht werden soll, und dass Kommunikation sich innerhalb der kommunizierenden Systeme über Nachrichten vermittelt, dass aber diese Nachrichten im realen physikalischen Austausch zwischen den Systemen als ephysikalische Ereigniss in einem Kommunikationskanal auftreten. Diese physikalischen Ereignisse (nicht die Nachrichten als solche!) müssen sich durch ihre Häufigkeit und durch ihren Unterscheidungsaufwand charakterisieren lassen.

4. Der ‚Unterscheidungsaufwand‘ resultiert daraus, dass ein physikalisches Ereignis in minimale Schaltereignisse aufgelöst werden muss, durch die es realisiert wird. So besteht zwischen den physikalischen Eigenschaften eines Signals, mittels dessen sich Nachrichten realisieren lassen, und den erzeugenden Schaltereignissen, ein transparenter Zusammenhang. Es hat sich eingebürgert, elementare Schaltvorgänge mit ‚1‘ und ‚0‘ zu charakterisieren und die Anzahl von benötigten Schaltvorgängen mittels des binären Zahlensystems zu ‚kodieren‘. In Anlehnung an John Wilder Tukey (1915-2000) übernahm Shannon die Sprechweise, dass ein physikalischer Zustand mit zwei möglichen Werten als binärer Zustand bezeichnet wird; er soll die Menge von 1 bit Information repräsentieren. Nur auf diesen Aspekt bezieht Shannon den Begriff der Information! Es geht um ein Maß für den Aufwand an unterscheidbaren technischen binären Schaltzuständen, die zur Realisierung von Signalen notwendig ist, mittels deren Nachrichten kodiert werden. Die Nachrichten selbst, die möglicherweise (und im Normalfall) noch zusätzlich komplexe Bedeutungen kodieren, bleiben in dieser Betrachtung völlig außen vor.

5. Man muss also davon ausgehen, dass es zwischen der Menge der möglichen Nachrichten in einem Sender und der Übersetzung dieser Nachrichten in geeignete Symbolketten, die dann weiter für physikalische Ereignisse im Kanal kodiert werden, eine hinreichende Korrespondenzbeziehung gibt, die im Übersetzungsvorgang (in der Enkodierung) festgelegt ist. In seinem theoretischen Modell geht Shannon dann davon aus, dass jedem unterscheidbaren Symbol im Übermittlungsprozess ein unterscheidbarer Zustand in seinem Modell einer Quelle entspricht, und dass es von jedem solchen Zustand zum nächsten möglichen Zustand eine Übergangswahrscheinlichkeit gibt, die man im realen Prozess über Häufigkeiten messen kann. Das Modell einer solchen Quelle nennt er ein ’stochastisches‘ Modell, hier genauer ein ‚Markov Modell‘, das zudem noch ‚ergodisch‚ sein soll.

 

DIE POSITION VON DEACON

ALLTAGSERFAHRUNG

6. Terrence W.Deacon (Geb.1950) beginnt seine Überlegungen mit der Alltagserfahrung, dass die physikalischen Ereignisse (Schallwellen, Schriftzeichen, …) als solche keinerlei Hinweise auf irgendetwas anderes Zusätzliches enthalten. Erst in der Interpretation durch einen Empfänger werden diese physikalischen (= extrinsischen) Ereignisse zu möglichen Hinweisen, Zeichen für etwas Anderes (Anmerkung: Deacon benutzt hier ‚about‘); dieses Andere können irgendwelche intrinsische abstrakte Sachverhalte sein, die als ’nicht existente‘ Objekte dennoch eine Wirkung auf einen Kommunikationsteilnehmer entfalten können. Wie diese Abbildung von erkannten empirischen extrinsischen Kommunikationsereignisse auf nicht empirische mentale intrinsische Sachverhalte genau vonstatten geht, dazu fehlt nach Deacon noch eine angemessene wissenschaftliche Erklärung. Der ontologische Status dieser intrinsischen abstrakten mentalen Sachverhalte ist unklar.

COMPUTER PARADIGMA

7. An dieser Stelle bringt Deacon das Computer-Paradigma ins Spiel. Er charakterisiert es so, dass man in einem Computer, der ein physikalisches Objekt mit vielen möglichen physikalischen Prozessen darstellt, sehr wohl Beziehungen zwischen unterschiedlichen physikalischen Prozessen und Zuständen herstellen kann, die man abstrakt als Abbildungs- und Bedeutungsbeziehungen interpretieren könnte. Anders als bei einem natürlichen physikalischen Prozess kann man in einem Computer das Verhalten eines physikalischen Prozesses von anderen physikalischen Eigenschaften abhängig machen; diese anderen ‚willkürlich zugeordneten‘ physikalischen Eigenschaften funktionieren in einer abstrakten Sehweise als ‚Referenz‚, als mögliche ‚Bedeutung‘. Insofern wäre der Computer prinzipiell ein theoretisches Modell für Interpretations- und Bedeutungsprozesse. Dennoch meint Deacon hier auf die Bremse treten zu müssen, da für ihn das Computerparadigma nur ‚syntaktisch‚ definiert sei und die möglichen Bedeutungen nur ‚implizit‘ besitzt. Auch jene Ansätze, die die syntaktische Maschinerie des Computers über ‚Verkörperung‘ (Englisch: ‚embodiment‘) und ‚Fundierung in der Realwelt‘ (Englisch: ‚grounding‘) mit Bedeutung aufladen wollen, akzeptiert er nicht als ‚Lösung‘ des Geist-Körper (‚mind-body‘) Problems.

8. Es wird nicht ganz klar, warum Deacon dieses offensichtlich über Shannon hinausgehende Computer-Paradigma nicht akzeptiert; man spürt nur einen starken Vorbehalt, der von einem inneren Widerstand gespeist wird, dessen innere Logik sich dem Leser verschließt. Er spricht an späterer Stelle nochmals von einem ‚mechanistischem Determinismus‚, wobei aber nicht klar ist, ob das Computer-Paradigma wirklich ‚deterministisch‘ ist; viele unterstellen dies spontan. Deswegen muss es aber nicht zutreffen. Deacon legt sich jedenfalls darin fest, dass im klassischen Computer-Paradigma nur das syntaktische Konzept von Information berücksichtigt sei. (vgl. S.157) Wenn er dann emphatisch behauptet, dass berechenbare Prozesse in einem Computer nichts haben, was sie von normalen physikalischen Prozessen unterscheidet (vgl. S.157), widerspricht er sich selbst, da er zuvor bei der Charakterisierung des Computer-Paradigmas geschrieben hat, dass sich Prozesse in einem Computer von anderen bloß physikalischen Prozessen gerade dadurch unterscheiden, dass sie Abbildungsbeziehungen (‚maping relationship‘) realisieren können. (vgl. S.155) Was gilt nun? Als Leser hat man den Eindruck, dass Deacon einerseits zwar gewisse Besonderheiten bei Berechnungsprozessen im Computer sehr wohl erkennt, dass er aber offensichtlich ‚innerlich‘ ein Problem damit hat, diesen Erkenntnissen weiter zu folgen.

QUANTENMECHANIK

9. Deacon diskutiert auch den möglichen Beitrag der Quantenmechanik für die Frage der potentiellen abstrakten Objekte. Die Quantenmechanik beobachtet und misst Eigenschaften am Verhalten der Materieteilchen, die sowohl dem alltäglichen Kausalverständnis wie auch einem platten Determinismus zu widersprechen scheinen. Dennoch konstatiert Deacon, dass dieses scheinbar nichtdeterministische Verhalten die Frage nach potentiellen Beziehungen zu anderen Tatbeständen nicht beantwortet. Die beobachtbaren sonderbaren Korrelationen zwischen bestimmten Teilchen sind nicht vergleichbar mit den intentionalen Sachverhalten, bei denen ein etwas ‚für‘ (‚about‘) ein ‚anderes‘ ’steht‘. (vgl. S.157)

INFORMATION

10. In der Begegnung mit der Schrift A mathematical theory of communication erkennt Deacon sehr wohl den spezifischen Beitrag von Shannon an, kritisiert aber, dass durch die Ausklammerung möglicher Bedeutungsanteile bei Shannon in der nachfolgenden Rezeption des Informationsbegriffs der Begriff der Information unzulässig vereinfacht und eingeengt wurde. Dies behinderte später eine angemessene Behandlung jener ausgelassenen Eigenschaften.

11. An dieser Stelle muss man fragen, ob die – in dieser Weise auch von vielen anderen – erhobene Kritik an einer Engführung des Begriffs Information am allerwenigsten Shannon selbst trifft, da dieser sehr klar und unmissverständlich schon auf der ersten Seite feststellt, dass er hier aufgrund des Interesses des Engineerings alle diese bedeutungsrelevanten Aspekte ausgeklammert hat. Man muss sich eher wundern, warum nicht andere nach Shannon, nachdem er solch eine exzellente Analyse einiger logischer Eigenschaften von Zeichenträgern in einem Kommunikationskanal vorgelegt hat, aufbauend auf diesen Analysen dann nicht weiterführende mathematische Modelle vorgelegt haben, die sich gerade um die von Shannon ausgeklammerte Bedeutungsproblematik kümmern. Ständig nur darüber zu klagen, dass Shannon nicht die ganze Breit des Problems behandelt hat, ist wenig hilfreich und wird seiner innovativen Leistung nicht gerecht.

12. Wenn Deacon behauptet, dass der Begriff ‚Information‘ ’nach Definition‘ die Beziehung von etwas zu etwas anderem bezeichnet, dann muss man hier viele Fragezeichen setzen. In der Zeit vor der sogenannten Informationstheorie (begründet u.a. durch Shannon und Norbert Wiener (1894-1964)) wurde der Begriff der ‚Information‘– wenn überhaupt – damals nicht so benutzt, wie wir ihn heute gerne benutzen. Im Vordergrund standen allgemeine philosophische Aspekt wie die ‚Formung der Materie‘, später die ‚Formung des Menschen‘ durch Erziehung, noch später die ‚Fixierung von Wissen‘. (vgl. Sandkühler 2010:1105f) Die explizite Frage nach der Bedeutung war eher gebunden an Reflexionen über Zeichen und ihren Bedeutungen, die erst in der Semiotik (vgl. Noeth 2000) und dann durch Wittgensteins Philosophische Untersuchungen (1953) explizit thematisch wurden. Allerdings stellte sich das Bedeutungsproblem in der Neuzeit mehr und mehr in einer Weise dar, die die Frage nach der Bedeutung als ’schwierig‘ oder gar ‚unbeantwortbar‘ erscheinen lässt. Und es ist sicher kein Zufall, dass auch im Gebiet der Logik, spätestens mit dem Aufkommen der modernen formalen Logik, alle möglichen Bedeutungsanteile genauso ‚entfernt‘ wurden wie in der modernen Informationstheorie. Dies wird gerne großzügig übersehen. Dass die moderne Logik weniger über das alltägliche Denken sagen kann als noch die antike Logik, ist bizarr.

ENTROPIE

13. Wäre der Artikel von Deacon ein Schachspiel, dann könnte man sagen, dass er an dieser Stelle der Argumentation mit einem ungewöhnlichen Zug überrascht. Anstatt, dass er jetzt den beklagten Mangel an Theorie für eine befriedigende Erklärung der möglichen Bedeutungsanteile im Rahmen von Kommunikation mit der Einführung eines entsprechenden Modells behebt, verharrt er bei dem Problem der ‚Abwesenheit der Bedeutung‘ bzw. ‚des Inhalts‘.

ENTROPIE IM KONTEXT VON SHANNON

14. Nachdem Shannon für seine technischen Zwecke mit dem ‚Bit‘ einen technischen Informationsbegriff eingeführt hatte, der auf dem Konzept des Entscheidungsaufwandes zur Erkennung eines Symbols aus dem verwendeten Alphabet aufbaute, führte er das Konzept der ‚Informationskapazität eines Kanals‘ (gemessen in Bits pro Sekunde) ein, sowie das Konzept einer ‚Informationsquelle‘. Diese Informationsquelle ist nicht vollständig zufällig und erzeugt Sequenzen von Informationselementen, die einer bestimmten statistischen Struktur gehorchen. Letztlich ist es ein diskretes Markov Modell (Anmerkung: für weitere Typen von Markov Modellen siehe HIER) mit der zusätzlichen Eigenschaft der Ergodizität. Und er führt dann ein Funktion H ein, die ‚messen‘ soll, wie viel (technische) Information von solch einer Quelle erzeugt wird. Er gibt keine Begründung für diese Formel im Detail sondern meint nur, dass die tatsächlich Begründung für diese Formel in ihren Implikationen liege. (vgl. S.393) Auch stellt Shannon einen direkten Bezug zur Entropieformel von Boltzmann her.

15. Auffällig an dieser Stelle ist, dass der zuvor eingeführte technische Informationsbegriff bezogen auf die Anzahl der technischen Entscheidungen, die notwendig sind, um ein Symbol von einem anderen zu entscheiden (die Anzahl der Bits), in diesem Informationsmaß H überhaupt keine Rolle mehr spielen! Stattdessen arbeitet Shannon hier nur noch mit Wahrscheinlichkeiten: (i) Wahrscheinlichkeiten dafür, dass ein bestimmter Zustand eintritt und (ii) Wahrscheinlichkeit dafür, dass in einem bestimmten Zustand ein bestimmtes Element ausgewählt wird. Die technische Beschaffenheit der Elemente spielt eigentlich keine Rolle mehr.

BOLTZMANN ENTROPIE

16. Daraus ergibt sich, dass Shannon im gleichen Text zwei ganz verschiedene Informationsbegriffe benutzt: (i) Information1 im Sinne des Aufwands an binärer Kodierung; (ii) Information2 als die Wahrscheinlichkeit für das Auftreten bestimmter Elemente bzw. Sequenzen von Elementen. Der zweite Begriff hat strukturell Ähnlichkeiten mit dem Entropiebegriff von Boltzmann (1844 – 1906.

17. Mit Bedeutungsanteilen hat keiner der beiden Informationsbegriffe etwas zu tun.

UNKLARHEITEN IM ENTROPIEBEGRIFF

18. Ferner muss man hier einblenden, dass der Begriff der Entropie, den Shannon einführt, keinesfalls so eindeutig ist, wie man im ersten Moment glauben möchte. Shannon zitiert Boltzmann mit seiner Entropieformel. Letzterer gehört zu den Mitbegründern dessen, was man heute Statistische Mechanik nennt, die im Rahmen der allgemeinen Thermodynamik nur einen Teilbereich abbildet. Wie der Philosoph Lawrence Sklar (Geb.1938) herausgearbeitet hat (siehe Lawrence Sklar (2015), Philosophy of Statistical Mechanics), sind die Begrifflichkeiten der verschiedenen Teiltheorien alles andere als klar (und hängen, sobald sie auf reale Bereiche angewendet werden, von sehr vielen speziellen Begriffen ab). Zudem ist nicht gesichert, ob und wie die vorausgesetzten Statistiken die unterstellten empirischen Strukturen tatsächlich so abbilden, wie diese sich in der empirischen Welt verhalten. Einen ‚Entropiebegriff‘ einzuführen erklärt damit nicht automatisch die Frage, die man beantworten möchte.

ABWESENHEIT DES MÖGLICHEN

19. Dass Deacon von der ‚Abwesenheit‘ des Inhalts, der Bedeutungsanteile, sprechen kann, liegt nur daran, dass er relativ zu einem Kommunikationsmedium mit seinen Symbolen einen Empfänger voraussetzt, der ‚in sich‘ (mental) relativ zu den wahrnehmbaren (und unmittelbar präsenten) Symbolen (mental) annimmt (!), dass diese wahrnehmbaren Symbole einen Bezug (‚about‘) zu etwas Anderem haben, das nicht ‚unmittelbar präsent‘ (in der empirischen Situation) ist. Natürlich ist der Bezug (about) zu dem Anderen in (!) den mentalen Zuständen des Interpreten gleichzeitig unmittelbar präsent. Ohne diese fundamentale Annahme gebe es keinerlei Grund, das Vorkommen von Symbolen so zu charakterisieren, dass ihnen Bedeutungsanteile fehlen würden. Diese fundamentale Annahme macht Deacon aber nicht explizit. Stattdessen analysiert er die Eigenschaften des Kommunikationsmediums weiter, das als solches keinerlei Bezug zu einer Bedeutung (about) hat.

SHANNON-BOLTZMANN ENTROPIE

20. Deacon benutzt dann die Bezugnahme von Shannon auf den Entropiebegriff von Boltzmann in dem Sinne, dass Boltzmann in seinem Entropiebegriff annimmt, dass die Veränderung eines wahrscheinlicheren Zustandes durch Ausführung von Arbeit in Richtung eines weniger wahrscheinlicheren Zustandes die Entropie bei Boltzmann verringert (da dieser Entropiebegriff am größten ist, je mehr Freiheitsgrade die Mikroteilchen des unterstellten Systems haben. Dies setzt die Annahme voraus, dass die Einschränkung der Freiheitsgrade durch ‚Bindungen‘ auftreten, die nur durch Energiezufuhr (Arbeit, Wärme, …) aufgelöst werden können). Arbeit impliziert eine extrinsische Einwirkung auf das System.

21. Mit dem Shannonschen Entropiebegriff ist die Entropie auch am größten, wenn alle Kommunikationselemente gleich wahrscheinlich sind. Im Shannonschen Entropiebegriff wird aber keinerlei Annahme darüber gemacht, wie eine Ungleichverteilung zustande kommt. Während die Physiker unterschiedliche Modellvorstellungen darüber entwickelt haben, wie sich Elemente eines System ‚binden‘ können und wie man diese Bindungen wieder auflöst, verzichtet Shannon darauf völlig, da er ja nur die Auswirkungen von den verschiedenen Verteilungen auf den Kommunikationskanal beschreiben wollte. Der Shannonschen Entropiebegriff leistet insofern formal annähernd das Gleiche wie der Entropiebegriff von Boltzmann, aber er bietet keinerlei Ansatzpunkte, etwas darüber zu sagen, was zu den unterschiedlichen Verteilungen führt. Würde man (was Shannon explizit nicht getan hat und wofür er keinerlei Grund hatte) das Modell der Informationsquelle dahingehend erweitern, dass man das formale Modell eines Sprecher-Hörers konzipieren würde, in dem man die Entstehung von Verteilungen mit modellieren würde, dann könnte man ein Äquivalent zum Begriff der ‚Arbeit‘ im Boltzmann Modell (und dann in allen thermodynamischen Modellen) bekommen, welches den ‚mentalen/ kognitiven‘ Aufwand modellieren würde, der notwendig ist, um die Elemente eines Kommunikationsereignisses mit unterschiedlichen Wahrscheinlichkeiten zu konfigurieren. So wie es aus technischer Sicht einen unterschiedlichen Schaltungsaufwand – gemessen in Bits – bedeutet, unterschiedliche große Symbolmengen zu realisieren, so kann man unterstellen, dass es aus technischer Sicht einen höheren Aufwand bedeutet, eine Menge von N Elementen mit unterschiedlichen Wahrscheinlichkeiten zu konfigurieren und zu verwalten. Möglicherweise kann man diesen technischen Aufwand auch in Bits messen; möglicherweise aber besser in der Anzahl notwendiger Elementaroperationen eines definierten idealen Rechners. Würde man zusätzlich eine Abbildung herstellen zwischen der technischen Maschinerie zur Konstruktion und Verwaltung von Elementen mit unterschiedlichen Wahrscheinlichkeiten zu dem formalen Modell eines ‚mentalen Raumes‘, dann könnte man die technisch-digitale Arbeit übersetzen in eine ‚mentale-kognitive‘ Arbeit.

22. Deacon spricht zwar von einer ‚intimen Beziehung‘ zwischen dem Entropiebegriff von Shannon und Boltzmann, beschränkt sich aber auf den sehr äußerlichen Aspekt, dass der physikalischen Kommunikationskanal die ‚Basis einer Signalreferenz‘ ist. Er verfolgt dann aber den Aspekt der ‚Referenz‘ (zu möglichen Umständen einer Bedeutung) nicht direkt, sondern reflektiert eher den Unterschied zwischen jenen Kommunikationsereignissen, die im Kanal zu einem bestimmten Zeitpunkt auftreten und jenen, die auch noch auftreten könnten, aber aufgrund bestimmter Beschränkungen (‚constraints‘) nicht jetzt aufgetreten sind. Auch hier stellt er fest, dass diese Beschränkungen zusammen mit der Differenz zwischen jetzt präsent und was sein könnte keine inhärenten Eigenschaften der physikalischen Beschaffenheit des Kanals oder der Kommunikationselemente als solcher ist, sondern eine ‚Beziehungseigenschaft‘ (‚relational property‘), die auf eine ‚extrinsische Intervention‘ (‚extrinsic intervention‘) verweisen. An anderer Stelle formuliert Deacon es so, dass die Abweichung von einem erwarteten Zustand genommen wird als Referenz zu einer ansonsten unbeobachteten Ursache. (vgl. Deacon 2010:162)

REFERENZ IN DER ABWESENHEIT

23. Es ist schon auffällig, dass Deacon einerseits sehr beharrlich den unvollständigen (reduktiven) Charakter des Sprechens über Kommunikationselemente ohne Bedeutungsbezug anspricht, dass er aber die dazu notwendigen Annahmen über spezielle Eigenschaften des Hörer oder Senders, zur ‚In-Beziehung-Setzung‘ von Kommunikationselementen mit möglichen Bedeutungen vollständig außen vor lässt. Wenn schon das Kommunikationselement als solches (und auch nicht der Kommunikationskanal) keinerlei Hinweis auf mögliche Bedeutungen liefert, er aber dennoch von ‚Bezug‘, ‚Erwartung‘, ‚Differenz‘ usw. spricht, wundert es, warum er nicht direkt die beteiligten Hörer-Specher in seine Modellierungen einbezieht. Stattdessen versucht er über die formale Ähnlichkeit zwischen der Entropie bei Shannon und Boltzmann eine Brücke zu ‚äußeren Einflüssen‘ zu bauen, die zwar der Entropiebegriff von Boltzmann dank seiner Einbettung in ein weiterführendes physikalisches Modell bietet, nicht (!!!) aber der Entropiebegriff von Shannon. Shannon hat dies nicht interessiert und er benötigt es auch nicht.

24. Dieses Beharren auf das Postulat von äußeren Einflüssen bei Änderung von Zuständen wird umso unverständlicher, als Deacon selbst feststellt, dass weder die Unterschied im Symbol selbst noch mögliche externe Arbeit aus sich heraus irgendeinen Bezug zu möglicher Bedeutung haben müssen. (vgl. Deacon 2010:162f)

NOTWENDIGKEIT DER INTERPRETATION

25. An einer Stelle stellt Deacon dann fest, dass die Einbettung eines Kommunikationselementes in eine Beziehung mit referentiellem Anteil einen ‚Prozess‘ voraussetzt, einen ‚Interpretationsprozess‘, für dessen Beschreibung jedoch eine geeignete Theorie fehle. Er greift dann Gregory Bateson (1904-1980) auf, der die Formel bietet „Eine Differenz die eine Differenz macht“. So kryptisch diese Formulierung ist, Deacon greift sie auf und verbindet diese Idee mit dem vorausgehenden Postulat, dass das Überschreiten eines Kommunikationselementes in Richtung einer möglichen Referenz einen Interpretationsprozess voraussetzt. Dieser Interpretationsprozess muss empfänglich (’susceptible‘, ’sensitiv‘) sein für Einwirkungen von außen, muss modifizierbar sein, und muss differenziert fähig sein, aufgrund dieser Änderungen Arbeit ausführen zu können. (vgl. Deacon 2010:164)

INTERPRETATIONSPROZESS ALS PHYSIKALISCH-BIOLOGISCHER PROZESS

26. Insofern dieser Interpretationsprozess ein biologischer Prozess sein soll, muss man nach Deacon verlangen, dass dieser Prozess sich nicht in einem thermodynamischen Gleichgewicht befindet. Dies ist aber nur möglich, wenn es eine Umgebung gibt, die hinreichende Unterstützung (z.B. freie Energie) zur Erhaltung des Nichtgleichgewichts bietet. Zugleich impliziert dies nach Deacon die Annahme, dass solch ein interpretatives System sich von der Umgebung abgrenzen muss, was eine gewisse körperliche Identität mit sich bringt. Auch sieht Deacon hier eine implizite Normativität gegeben, insofern die Vorgaben der Umgebung für das agierende Systeme eine Quasi-Norm darstellen, die das System erfüllen muss, sollen seine Nachkommen überleben (die Nachkommen erwähnt Deacon nicht).

27. An dieser Stelle behauptet Deacon dann, dass diese physikalische Beziehungen zwischen System und Umgebung dann in eine Informationsbeziehung verwandelt wird. Dies ist eine überraschende Formulierung. Bislang gibt es ja nur zwei Informationsbegriffe: Information1 bezogen auf den Entscheidungsaufwand zur Darstellung eines Kommunikationselementes in einer Menge (Alphabet); Information2 als gewichteter Logarithmus der Wahrscheinlichkeiten aller aktuell verfügbaren Elemente. Wie diese Begriffe sich jetzt in den postulierten Prozess im thermodynamischen Ungleichgewicht einfügen sollen, ist nicht klar. Wenn er dann noch die Begriffe ‚Evolutionär‘ und ‚emergent‘ einwirft, wird es nicht klarer, was er eigentlich meint. Man kann nur ahnen, dass er in der dynamischen Wechselbeziehung zwischen ‚inneren‘ Zuständen des Interpretationsprozesses in Abhängigkeit von Gegebenheiten der externen Umgebung Differenzen im Innern des Systems sieht, die als ‚Ursache‘ des beobachtbaren Verhaltens (= Arbeit?) dienen und in diesem Sinne jene möglichen Referenzen repräsentieren, die dann zur Produktion nicht nur von Verhalten allgemein sondern auch von speziellem Kommunikationsverhalten führen können, die sich in der Produktion von Kommunikationselementen manifestieren. Dies motiviert ein wenig seine begriffliche Hierarchie von (i) syntaktischer Information (Shannon), (ii) semantischer Information (Shannon-Boltzmann) sowie (iii) pragmatischer Information (Shannon-Boltzmann-Darwin). (vgl. Deacon 2010:166)

SEMIOTIK

28. So schön dies klingt, hier bleibt Deacon viele wichtigen Erklärungen schuldig. Aus dem, was er zuvor erläutert hatte, lassen sich diese Begriffe nicht motivieren. Die Begriffe ’syntaktisch‘, ’semantisch‘ und pragmatisch‘ gehören in das Begriffsnetzwerk der Semiotik (ausführlich bei Noeth 2000), von der Deacon zuvor nichts erklärt hatte. Außerdem bietet die Semiotik keine einheitliche Theorie. Den Ansatz von Shannon ’syntaktisch‘ zu beschreiben könnte partiell funktionieren. Die Kombination aus Shannon und Boltzmann als ’semantisch‘ zu bezeichnen, ist nicht nachvollziehbar; das Dreigestirn Shannon-Boltzmann-Darwin mit der Pragmatik in Beziehung zu setzen, könnte irgendwo funktionieren, würde aber voraussetzen, dass man entsprechend die syntaktische und semantische Dimension herausgearbeitet hat. Das ist in diesem Text nicht zu sehen. (Anmerkung: Deacon verweist hier auf zwei Artikel von ihm selbst, in denen dieses Thema behandelt worden sein soll: Deacon 2007, Deacon 2008. Grob erscheint der Beitrag im Buch 2010 als eine verkürzte Fassung dieser beiden Artikel. Es wird sich lohnen, diese zusätzlich zu lesen).

MENTALES ALS PRODUKT DER INTERAKTION MIT UMWELT

29. In den abschließenden Überlegungen Deacons (Deacon 2010: 168ff) blitzt ein wenig das Motiv auf, warum Deacon nach dem Konstatieren der Bedeutungsanteile im Modell von Shannon nicht einfach ein erweitertes Modell vorgestellt hat. Er will nicht das Mentale/ Kognitive einfach so separat vom gesamten Systemdarstellen, sondern als ein ein Moment des dynamischen Entwicklungsprozesses (Phylogenese, Ontogenese), innerhalb dessen ein System seine Unterschiede und Beschränkungen in der Interaktion mit der Umgebung ausbildet. Deacon will die Referenz nicht nur formal fundieren (wie z.B. im Paradigma des ‚Embodyments‘ oder ‚Groundings‘), sondern physikalisch-biologisch. Dies kann man nur begrüßen. Allerdings gibt es schon sehr viele Ansätze, die dieses versucht haben oder versuchen. Allerdings nicht so explizit hart orientiert an den Entropiebegriffen von Shannon und Boltzmann. Und mehr als eine erste grobe Idee hat Deacon hier nicht geliefert. Es ist noch nicht einmal klar, ob die Konzepte von Shannon, Boltzmann und Darwin tatsächlich all das hergeben, was Deacon innovativ ihnen einfach mal so unterstellt hat.

 

Eine weitere Zwischenreflexion war notwendig. Zum Mitlesen klicke HIER

QUELLEN

  1. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  2. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2,, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  3. Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
  4. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  5. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  6. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  7. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  8. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  9. Bateson, G. (2000 reprint. First published 1972). Steps to an Ecology of Mind: Collected Essays in Anthropology, Psychiatry, Evolution, and Epistemology. Chicago, Illinois: University of Chicago Press
  10. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  11. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  12. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  13. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)

BUCHPROJEKT 2015 – Zwischenreflexion 19.August 2015 – INFORMATION – WHAT IS MISSING – Terrence W.Deacon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

!!! ACHTUNG: Noch nicht vollständig !!!

VORIGER BEITRAG

1. Im vorigen Beitrag war die Kritik von John Maynard Smith an der Informationstheorie von Shannon vorgestellt worden. Diese fokussierte im wesentlichen auf der direkten Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden.

NOCHMALS ZU SHANNON (1948)

2. Nochmals kurz zurück zu Shannon selbst. Claude Elwood Shannon (1916-2001) macht gleich zu Beginn seiner Schrift klar, dass er sich nicht um bedeutungsrelevante Eigenschaften kümmern will, sondern, als Ingenieur und Mathematiker interessieren ihn vor allem jene allgemeinen Eigenschaften bei der Übermittlung von Nachrichten, durch die eine abgesendete Nachricht (‚message‘) möglichst eindeutig auch wieder bei einem Empfänger ankommt. Dabei wird davon ausgegangen, dass die aktuell zu übermittelnde Nachricht von einer bekannten Menge von möglichen Nachrichten ausgewählt wurde (Anmerkung: diese Menge muss sowohl dem Sender wie auch dem Empfänger bekannt sein). Der Sender muss in der Lage sein, die Nachricht in eine Ereignisform zu übersetzen (kodieren, encode), die innerhalb eines Kommunikationskanals übermittelt werden kann. Dazu werden in der Regel Sequenzen konkreter ‚Symbole‘ aus unterschiedlichen endlichen ‚Alphabeten‘ benutzt, die dann u.U. weiter übersetzt werden in konkrete physikalische Ereignisse in einem Kommunikationskanal. Das empfangende System wiederum muss diese Ereignisse so rückübersetzen können (dekodieren, decode), dass das System entscheiden kann, ob die ‚empfangenen Symbole‘ eine Nachricht im Sinne der vorausgesetzten Menge darstellen oder nicht.

3. Wichtig ist, dass Shannon im Allgemeinen zwar von Kommunikation spricht, die untersucht werden soll, und dass Kommunikation sich innerhalb der kommunizierenden Systeme über Nachrichten vermittelt, dass aber diese Nachrichten im realen physikalischen Austausch zwischen den Systemen als ephysikalische Ereigniss in einem Kommunikationskanal auftreten. Diese physikalischen Ereignisse (nicht die Nachrichten als solche!) müssen sich durch ihre Häufigkeit und durch ihren Unterscheidungsaufwand charakterisieren lassen.

4. Der ‚Unterscheidungsaufwand‘ resultiert daraus, dass ein physikalisches Ereignis in minimale Schaltereignisse aufgelöst werden muss, durch die es realisiert wird. So besteht zwischen den physikalischen Eigenschaften eines Signals, mittels dessen sich Nachrichten realisieren lassen, und den erzeugenden Schaltereignissen, ein transparenter Zusammenhang. Es hat sich eingebürgert, elementare Schaltvorgänge mit ‚1‘ und ‚0‘ zu charakterisieren und die Anzahl von benötigten Schaltvorgängen mittels des binären Zahlensystems zu ‚kodieren‘. In Anlehnung an John Wilder Tukey (1915-2000) übernahm Shannon die Sprechweise, dass ein physikalischer Zustand mit zwei möglichen Werten als binärer Zustand bezeichnet wird; er soll die Menge von 1 bit Information repräsentieren. Nur auf diesen Aspekt bezieht Shannon den Begriff der Information! Es geht um ein Maß für den Aufwand an unterscheidbaren technischen binären Schaltzuständen, die zur Realisierung von Signalen notwendig ist, mittels deren Nachrichten kodiert werden. Die Nachrichten selbst, die möglicherweise (und im Normalfall) noch zusätzlich komplexe Bedeutungen kodieren, bleiben in dieser Betrachtung völlig außen vor.

5. Man muss also davon ausgehen, dass es zwischen der Menge der möglichen Nachrichten in einem Sender und der Übersetzung dieser Nachrichten in geeignete Symbolketten, die dann weiter für physikalische Ereignisse im Kanal kodiert werden, eine hinreichende Korrespondenzbeziehung gibt, die im Übersetzungsvorgang (in der Enkodierung) festgelegt ist. In seinem theoretischen Modell geht Shannon dann davon aus, dass jedem unterscheidbaren Symbol im Übermittlungsprozess ein unterscheidbarer Zustand in seinem Modell einer Quelle entspricht, und dass es von jedem solchen Zustand zum nächsten möglichen Zustand eine Übergangswahrscheinlichkeit gibt, die man im realen Prozess über Häufigkeiten messen kann. Das Modell einer solchen Quelle nennt er ein ’stochastisches‘ Modell, hier genauer ein ‚Markov Modell‘, das zudem noch ‚ergodisch‚ sein soll.

 

DIE POSITION VON DEACON

ALLTAGSERFAHRUNG

6. Terrence W.Deacon (Geb.1950) beginnt seine Überlegungen mit der Alltagserfahrung, dass die physikalischen Ereignisse (Schallwellen, Schriftzeichen, …) als solche keinerlei Hinweise auf irgendetwas anderes Zusätzliches enthalten. Erst in der Interpretation durch einen Empfänger werden diese physikalischen (= extrinsischen) Ereignisse zu möglichen Hinweisen, Zeichen für etwas Anderes (Anmerkung: Deacon benutzt hier ‚about‘); dieses Andere können irgendwelche intrinsische abstrakte Sachverhalte sein, die als ’nicht existente‘ Objekte dennoch eine Wirkung auf einen Kommunikationsteilnehmer entfalten können. Wie diese Abbildung von erkannten empirischen extrinsischen Kommunikationsereignisse auf nicht empirische mentale intrinsische Sachverhalte genau vonstatten geht, dazu fehlt nach Deacon noch eine angemessene wissenschaftliche Erklärung. Der ontologische Status dieser intrinsischen abstrakten mentalen Sachverhalte ist unklar.

COMPUTER PARADIGMA

7. An dieser Stelle bringt Deacon das Computer-Paradigma ins Spiel. Er charakterisiert es so, dass man in einem Computer, der ein physikalisches Objekt mit vielen möglichen physikalischen Prozessen darstellt, sehr wohl Beziehungen zwischen unterschiedlichen physikalischen Prozessen und Zuständen herstellen kann, die man abstrakt als Abbildungs- und Bedeutungsbeziehungen interpretieren könnte. Anders als bei einem natürlichen physikalischen Prozess kann man in einem Computer das Verhalten eines physikalischen Prozesses von anderen physikalischen Eigenschaften abhängig machen; diese anderen ‚willkürlich zugeordneten‘ physikalischen Eigenschaften funktionieren in einer abstrakten Sehweise als ‚Referenz‚, als mögliche ‚Bedeutung‘. Insofern wäre der Computer prinzipiell ein theoretisches Modell für Interpretations- und Bedeutungsprozesse. Dennoch meint Deacon hier auf die Bremse treten zu müssen, da für ihn das Computerparadigma nur ‚syntaktisch‚ definiert sei und die möglichen Bedeutungen nur ‚implizit‘ besitzt. Auch jene Ansätze, die die syntaktische Maschinerie des Computers über ‚Verkörperung‘ (Englisch: ‚embodiment‘) und ‚Fundierung in der Realwelt‘ (Englisch: ‚grounding‘) mit Bedeutung aufladen wollen, akzeptiert er nicht als ‚Lösung‘ des Geist-Körper (‚mind-body‘) Problems.

8. Es wird nicht ganz klar, warum Deacon dieses offensichtlich über Shannon hinausgehende Computer-Paradigma nicht akzeptiert; man spürt nur einen starken Vorbehalt, der von einem inneren Widerstand gespeist wird, dessen innere Logik sich dem Leser verschließt. Er spricht an späterer Stelle nochmals von einem ‚mechanistischem Determinismus‚, wobei aber nicht klar ist, ob das Computer-Paradigma wirklich ‚deterministisch‘ ist; viele unterstellen dies spontan. Deswegen muss es aber nicht zutreffen. Deacon legt sich jedenfalls darin fest, dass im klassischen Computer-Paradigma nur das syntaktische Konzept von Information berücksichtigt sei. (vgl. S.157) Wenn er dann emphatisch behauptet, dass berechenbare Prozesse in einem Computer nichts haben, was sie von normalen physikalischen Prozessen unterscheidet (vgl. S.157), widerspricht er sich selbst, da er zuvor bei der Charakterisierung des Computer-Paradigmas geschrieben hat, dass sich Prozesse in einem Computer von anderen bloß physikalischen Prozessen gerade dadurch unterscheiden, dass sie Abbildungsbeziehungen (‚maping relationship‘) realisieren können. (vgl. S.155) Was gilt nun? Als Leser hat man den Eindruck, dass Deacon einerseits zwar gewisse Besonderheiten bei Berechnungsprozessen im Computer sehr wohl erkennt, dass er aber offensichtlich ‚innerlich‘ ein Problem damit hat, diesen Erkenntnissen weiter zu folgen.

QUANTENMECHANIK

9. Deacon diskutiert auch den möglichen Beitrag der Quantenmechanik für die Frage der potentiellen abstrakten Objekte. Die Quantenmechanik beobachtet und misst Eigenschaften am Verhalten der Materieteilchen, die sowohl dem alltäglichen Kausalverständnis wie auch einem platten Determinismus zu widersprechen scheinen. Dennoch konstatiert Deacon, dass dieses scheinbar nichtdeterministische Verhalten die Frage nach potentiellen Beziehungen zu anderen Tatbeständen nicht beantwortet. Die beobachtbaren sonderbaren Korrelationen zwischen bestimmten Teilchen sind nicht vergleichbar mit den intentionalen Sachverhalten, bei denen ein etwas ‚für‘ (‚about‘) ein ‚anderes‘ ’steht‘. (vgl. S.157)

DEACON UND DER INFORMATIONSBEGRIFF

10. In der Begegnung mit der Schrift A mathematical theory of communication erkennt Deacon sehr wohl den spezifischen Beitrag von Shannon an, kritisiert aber, dass durch die Ausklammerung möglicher Bedeutungsanteile bei Shannon in der nachfolgenden Rezeption des Informationsbegriffs der Begriff der Information unzulässig vereinfacht und eingeengt wurde. Dies behinderte später eine angemessene Behandlung jener ausgelassenen Eigenschaften.

11. An dieser Stelle muss man fragen, ob die – in dieser Weise auch von vielen anderen – erhobene Kritik an einer Engführung des Begriffs Information am allerwenigsten Shannon selbst trifft, da dieser sehr klar und unmissverständlich schon auf der ersten Seite feststellt, dass er hier aufgrund des Interesses des Engineerings alle diese bedeutungsrelevanten Aspekte ausgeklammert hat. Man muss sich eher wundern, warum nicht andere nach Shannon, nachdem er solch eine exzellente Analyse einiger logischer Eigenschaften von Zeichenträgern in einem Kommunikationskanal vorgelegt hat, aufbauend auf diesen Analysen dann nicht weiterführende mathematische Modelle vorgelegt haben, die sich gerade um die von Shannon ausgeklammerte Bedeutungsproblematik kümmern. Ständig nur darüber zu klagen, dass Shannon nicht die ganze Breit des Problems behandelt hat, ist wenig hilfreich und wird seiner innovativen Leistung nicht gerecht.

12. Wenn Deacon behauptet, dass der Begriff ‚Information‘ ’nach Definition‘ die Beziehung von etwas zu etwas anderem bezeichnet, dann muss man hier viele Fragezeichen setzen. In der Zeit vor der sogenannten Informationstheorie (begründet u.a. durch Shannon und Norbert Wiener (1894-1964)) wurde der Begriff der ‚Information‘– wenn überhaupt – damals nicht so benutzt, wie wir ihn heute gerne benutzen. Im Vordergrund standen allgemeine philosophische Aspekt wie die ‚Formung der Materie‘, später die ‚Formung des Menschen‘ durch Erziehung, noch später die ‚Fixierung von Wissen‘. (vgl. Sandkühler 2010:1105f) Die explizite Frage nach der Bedeutung war eher gebunden an Reflexionen über Zeichen und ihren Bedeutungen, die erst in der Semiotik (vgl. Noeth 2000) und dann durch Wittgensteins Philosophische Untersuchungen (1953) explizit thematisch wurden. Allerdings stellte sich das Bedeutungsproblem in der Neuzeit mehr und mehr in einer Weise dar, die die Frage nach der Bedeutung als ’schwierig‘ oder gar ‚unbeantwortbar‘ erscheinen lässt. Und es ist sicher kein Zufall, dass auch im Gebiet der Logik, spätestens mit dem Aufkommen der modernen formalen Logik, alle möglichen Bedeutungsanteile genauso ‚entfernt‘ wurden wie in der modernen Informationstheorie. Dies wird gerne großzügig übersehen. Dass die moderne Logik weniger über das alltägliche Denken sagen kann als noch die antike Logik, ist bizarr.

Die vollständige Fassung findet sich HIER.

QUELLEN

  1. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  2. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2,, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  3. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  4. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  5. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  6. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  7. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  8. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  9. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)

EINLADUNG ZUR PHILOSOPHIEWERKSTATT v2.0 am So, 10.Mai 2015 – WIEWEIT KÖNNEN WIR NOCH ENTSCHEIDEN?

philosophieWerkstatt v2.0

philosophieWerkstatt v2.0

EINLADUNG ZUR NÄCHSTEN

philosophieWerkstatt v2.0

am

Sonntag, 10.Mai 2015

16:00 – 19:00h

in der
DENKBAR Frankfurt
Spohrstrasse 46a

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

PROGRAMMVORSCHLAG

Nachdem wir in den vorausgehenden letzten drei Sitzungen die spannenden Themen SIND KINDER GUT? WIE KOMMT DAS BÖSE IN DIE WELT?, WEISHEIT ALS REVOLUTIONÄRER BEGRIFF FÜR EINE ZUKUNFTSFÄHIGE WELT sowie Wieweit können wir den ‘biologischen Geist’ durch einen ‘künstlichen Geist’ nachbilden? – Nachreflexion zur Philosophiewerkstatt vom 12.April 2015

diskutieren konnten, hat die Mehrheit für den 10.Mai folgende Problemstellung vorgeschlagen:

Kann sich ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden? Kann man überhaupt noch eine Wirkung erzielen? Ist nicht irgendwie alles egal?

Als Programmablauf wird vorgeschlagen:

1. Nach der Begrüßung und Kurzeinführung
2. eine gemeinsame Reflexion zum Thema mit begleitender Erstellung eines gemeinsamen Begriffsnetzwerkes.
3. ‚Blubberphase‘ – jeder kann mit jedem reden, um das zuvor gesagte ‚aktiv zu verdauen‘ ….
4. Schlussdiskussion mit Zusammenfassung der Ergebnisse
5. Mögliche Aufgabenstellung für das nächste Treffen (letztes Treffen vor der Sommerpause)
6. Offener Ausklang

HINTERGRUND

Schon wenn wir die alltäglichen Prozesse betrachten, in denen wir uns bewegen, können wir eine Vielzahl von Faktoren finden, die alle zusammenwirken müssen, damit diese Prozesse stattfinden. Auf diese gestalterisch einzuwirken erfordert vielfachen Einsatz, der nicht leicht oder über weite Strecken nur teilweise erbracht werden kann. Dehnen wir den Horizont aus, treffen wir auf immer mehr Prozesse, die unser Leben bestimmen, auf die wir wenig oder gar keinen Einfluss zu haben scheinen. Endet hier Freiheit? Endet hier Rationalität? Ende hier der Sinn des Individuums? Ist Demokratie nur eine Scheinveranstaltung? Worin kann hier Sinn liegen? Dies sind einige der vielen Fragen, die sich hier stellen können.

PHILOSOPHIEWERKSTATT ÜBERBLICK

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

WAS IST MENSCHENWÜRDE? – Überlegungen im Umfeld des Buches von Paul Tiedemann – Teil 8

Paul Tiedemann, „Was ist Menschenwürde? Eine Einführung“, 2. aktualisierte Aufl., Darmstadt: Wissenschaftliche Buchgesellschaft, 2014

KONTEXT

Nach einem kurzen Aufriss zur historischen Genese des juristischen Begriffs ‚Menschenwürde‘ im Kontext der UN-Deklaration und der Übernahme in das Grundgesetz der Bundesrepublik Deutschland (Kap.1) stellt Paul Tiedemann im 2. Kapitel wichtige Interpretationsrichtungen in der deutschen Rechtsauslegung vor. Es folgte dann im Kapitel 3 ein Ausflug in die Philosophiegeschichte. Dieser endet für Tiedemann in einer ‚Verwirrung‘. Er versuchte daraufhin eine weitere Klärung über die ‚Wortbedeutung‘ im Kapitel 4. Dieser ‚Umweg‘ über die Wortbedeutung wird in seiner Methodik nicht selbst problematisiert, liefert aber für den Fortgang der Untersuchung im Buch einen neuen Anknüpfungspunkt durch das Konzept des Werturteils. Es folgt dann der Versuch, einen absoluten Referenzpunkt für Werturteile zu identifizieren, mittels dem sich dann vielleicht das Werturteil als grundlegend erweisen lässt. Diesen absoluten Referenzpunkt findet P.Tiedemann in der ‘Identitätstheorie der Menschenwürde’: diese geht aus von einer grundsätzlichen Selbstbestimmungskompetenz des Menschen und enthält als ein Moment auch den Aufbau einer individuellen Identität (‘Ich’). Dann folgt eine Anzahl möglicher Einwände gruppiert nach vier Themen: Anderer, Determiniert, Böse, nichtpersonale Menschen.

Es folgen nun weitere Präzisierungen.

KAPITEL 7 (SS.119-148)

Tiedemann (2014), Stichworte Kap.7

Tiedemann (2014), Stichworte Kap.7

1. Der Begriff der ‚Selbstbestimmung‘ mit dem Moment der ‚Willensfreiheit‘ klingt für die meisten zu Beginn sehr abstrakt. Geht man aber den verschiedenen Konkretisierungen nach, die diesem Begriff im Laufe der Geschichte zugeordnet wurden – zumindest in aufgeklärten, säkularen Gesellschaften –, dann kann man sehr schnell ein ‚Gefühl‘ dafür entwickeln, was mit ‚Menschenwürde‘ als ‚Selbstbestimmung‘ an Werten verbunden ist.

2. Das Schaubild zeigt hin auf die verschiedenen Achtungsbereiche, die Paul Tiedemann mit dem Begriff ‚Menschenwürde‘ in Verbindung sieht. Sehr anschaulich führt er die verschiedenen Punkte aus, so dass man nachvollziehen kann, wie verschiedene Verhaltensweisen/ Lebensweisen tief in das Selbst- und Lebensgefühl eines Menschen eingreifen können, bis dahin, dass er in der Wurzel getroffen, verletzt oder gar nachhaltig zerstört wird. Es sind weniger die äußerlichen Dinge als solche, sondern ihre Wirkung auf das ‚Innere‘ eines Menschen, sein Fühlen, seine Fähigkeit zu vertrauen, sein Denken usw.

3. Es werden jetzt hier nicht die vielen Details wiederholt; dies sei der eigenen Lektüre jeden Lesers vorbehalten. Nur ein paar wenige Anmerkungen.

KRITISCHER DISKURS

4. Wenn zuvor einige Male kritisch angemerkt wurde, dass die Methodik der Klärung der ‚Bedeutung‘ unbefriedigend war, so erwecken diese konkret-anschaulichen Beispiele des Kap.7 aus den unterschiedlichen Bereichen den Eindruck, als ob solch ein ‚bottom-up‘ Ansatz möglicherweise — auch ganz im Sinne der Sprachspielidee vom späten Wittgenstein – der ‚realistischere‘ Ansatz sein könnte, um im Lichte eines aufgeklärten säkularen Menschenbildes jene Handlungsansätze sichtbar zu machen, die auf die inneren Prozesse eines Menschen schwächend, behindernd, verletzend, zerstörerisch einwirken.

5. All die angestrengten Versuche, eine gewisse ‚Absolutheit‘ zu retten, deren Umschreibung und Definition letztlich dann doch an der unüberwindlichen Endlichkeit unsres Wissens scheitern muss, würde möglicherweise überzeugender erscheinen, wenn es nicht um eine metaphysische Absolutheit ginge sondern um eine empirisch motivierte abstrakte Struktur, die sich im Wechselspiel von hypostasierter Struktur und empirischem Verhalt jene ‚Achtung‘ erwerben würde, die der ‚Realität‘ als unhintergehbarer Vorgabe vorbehalten ist.

6. Die Zahl und Qualität jener Situationen, die wir heute in ihrer Bedeutung für eine positiv-konstruktive Entwicklung eines Menschen empirisch begründet einschätzen können, ist mittlerweile so groß und inhaltlich so reichhaltig, dass wir nicht nur die klassischen Begriffe von Selbstbestimmung weiter verwenden könnten, sondern eben ein großes Netzwerk von Eigenschafte unter einem dynamischen Prozessmodell versammeln könnten, das einen ‚Quasistandard‘ für Menschenwürde darstellen würde. Der Mangel an metaphysischer Absolutheit würde durch empirische Gültigkeit und wachsender Differenziertheit möglicherweise mehr als aufgewogen.

7. Ein letztes Urteil hierzu kann aber erst in der Abschlussreflexion gewonnen werden.

Eine Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER: Blog gesamt.