Archiv der Kategorie: Zeichenmaterial

MEMO PHILOSOPHIE JETZT – WERKSTATTGESPRÄCH – 27.November 2016

EINLADUNG

  1. Entsprechend der Einladung war das Thema dieses Treffens dieses Mal nicht das Fühlen (im philosophischen Sinne), sondern das Denken, unser eigenes Denken.

EINSTIMMUNG

  1. Jeden Tag benutzen wir unser Denken, indem wir mit anderen direkt kommunizieren oder indem wir jemandem etwas schreiben oder von jemand anderem etwas lesen/ hören.
  2. Aber was tun wir da, wenn wir mit anderen direkt kommunizieren?
  3. Die Frage ist nicht neu und hat schon viele Menschen vor uns bewegt.
  4. In einem kleinen historischen Blitzlicht wurde anhand wichtiger Philosophen und Denkern ein Zeitstrahl eingeblendet, der von Platos Geburt bis zur Gegenwart reichte (siehe Bild 1).
Zeittaffel von Plato bis zur Gegenwart
BILD 1: Zeittaffel von Plato bis zur Gegenwart
  1. Aus der Breite der (antiken) griechischen Philosophie waren stellvertretend nur die Namen der beiden bekanntesten griechischen Denker Plato und Aristoteles angeführt. Es dauerte ca. 600 – 800 Jahre, bis einige wenige Werke von Aristoteles im römischen Reich eine Übersetzung fanden, die bis ins Mittelalter wirkten.
  2. Im Mittelalter – hier abgebildet in der Spanne zwischen ca. 735 und 1360, also ca. 600 Jahre – gab es erst die Phase der direkten Aufnahme der wenigen aristotelischen Texte (zusammen mit Werken von Porphyr, Victorinus und Boethius); aus der intensiven Kommentierung entstanden zunehmend eigene, neue Positionen, die am Ende des 14.Jahrhunderts zu dem führte, was dann später neue empirische Wissenschaft, neue Logik und Mathematik bzw. neue Philosophie genannt wurde.
  3. Der Überblick machte dann einen Sprung in die letzten 150 Jahre bis zur Gegenwart.
  4. Der Überblick beginnt mit Bréal, der als Begründer der Idee einer Semantik gilt, der Lehre von der sprachlichen Bedeutung. Aus der Vielzahl der hier einschlägigen Denker und Denkerinnen folgt eine Auswahl der besonders bekannten Namen (teilweise mit Angabe der hier einschlägigen Werke).
  5. Allerdings, wie neuere Studien zum Mittelalter zeigen, sind viele der Ideen, die heute als neu daher kommen, im Mittelalter zumindest angedacht worden. Während im neuzeitlichen Denken des 20.Jahrhunderts die formalen Aspekte des Denkens und Sprechens stark bis fast vollständig von den assoziierten Inhalten (Bedeutungen) losgelöst erscheinen, hat das Mittelalter noch versucht, die Ausdrucksstrukturen und die Logik in ihrer intensiven Wechselwirkung zu denken. So sind z.B. die google-Algorithmen zur Analyse von Texten (und Bildern und …) heute ausschließlich an den formalen Ausdruckselementen orientiert; ein Bezug zu assoziierten Bedeutungen, wie sie jeder normale Sprecher-Hörer benutzt, fehlt vollständig. Dieser Bezug ist mit den bekannten Algorithmen auch nicht zu bekommen.
  6. Nach dieser blitzlichtartigen Einbettung der aktuellen Situation in den übergreifenden Denkkontext gab es die ‚individuelle Fühlpause‘ (manche nennen dies Meditation). Jeder konnte für sich – wie auch immer – 20 Min meditieren und sich anschließend Notizen machen.
  7. Wir stiegen dann in die erste Diskursrunde ein.(Siehe Bild 2)
PhJ Werkstattgespraech 27.November 2016 im INM - Gedankenskizze
BILD 2: PhJ Werkstattgespraech 27.November 2016 im INM – Gedankenskizze

START MIT EINER ÄUSSERUNG

  1. Für das gemeinsame Gedankenexperiment gab es zwei Leitfragen, von denen wir letztlich nur die erste ansatzweise bearbeiten konnten: FRAGE1: WIE HÄNGT EIN SPRACHLICHER AUSDRUCK MIT SEINER BEDEUTUNG ZUSAMMEN?
  2. Das Experiment begann damit, dass ein Teilnehmer aus der Runde spontan eine Äußerung macht: „Es ist behaglich“.
  3. Anhand dieser sprachlichen Äußerung entwickelte sich ein lebhaftes und intensives Gespräch, in dem jeder immer neue Aspekte beisteuerte.
  4. Wie man aus dem Bild 2 entnehmen kann, gab es zunächst mal Äußerungen von anderen TeilnehmernInnen, wie man diese anderen es formuliert hätten (siehe Bild 2).
  5. Daraus ergab sich, dass eine aktuelle, konkrete Äußerung in Beziehung zu setzen ist zum jeweiligen Sprecher bzw. Hörer. Je nach Sprecher empfindet dieser den Raum mit seiner für alle gleichen Temperatur entweder zu warm (also nicht behaglich), gerade richtig (z.B. behaglich) oder ganz anders.
  6. Außerdem empfanden manche Teilnehmer als Hörer die Allgemeinheit des Ausdrucks („Es ist“) zu vage. Lieber hätten sie gehört, dass der Sprecher das konkreter sagt, mehr über sich selbst („Ich empfinde es…“), was dem Hörer eher die Möglichkeit gibt, die Situation einzuschätzen. In der allgemeinen, unbestimmten Formulierung konnte es klingen, als ob der Sprecher für sich in Anspruch nimmt, auch für die anderen zu sprechen. Das fordert evtl. Widerspruch heraus…
  7. Dann wurde darauf aufmerksam gemacht, dass die Art der sprachlichen Äußerungen unterschiedliche Muster zulässt. Neben sachlicher Feststellung/ Behauptung gibt es auch einfache Ausrufe, Fragen, Befehle, Versprechen usw.
  8. Weitere Aspekte kamen ins Spiel: die Körpersprache des Sprechers. Wie steht diese im Verhältnis zu dem, was er sagt.
  9. Mit Beispielen aus eigenen Sprecherfahrungen wurde thematisiert, wie jemand von ganz vielen verschiedenen Gewohnheiten, Regeln, gesellschaftlichen Erwartungen in seinen Äußerungen gesteuert sein kann. Der Begriff der Rolle wurde eingeführt. Die Gesamtheit der wirkenden Regeln und Erwartungen können in der jeweiligen Situationen normativ wirken: jemand hat in einer bestimmten Situation bestimmte Gefühle, muss aber als Elternteil in diesem Moment eine gewisse Verantwortung wahrnehmen, entsprechend ein Therapeut in einem Beratungsgespräch, ein Lehrer in einer Unterrichtssituation, usw.
  10. Angeregt von Wittgenstein brachte ein Teilnehmer auch das Wort Sprachspiel in den Diskurs ein. Eine einzelne isolierte sprachliche Äußerung allein ist oft/ meistens nicht verständlich ohne die Einbettung in die Situation, ohne das Wechselspiel zwischen den Beteiligten, ohne dass alle Beteiligten in der Situation bestimmten (unterstellten) Regeln folgen.
  11. Ferner spielt der zeitliche Ablauf eine Rolle: was war vorher? So erwähnten einige TeilnehmerInnen, dass sie die vorausgehende individuelle Fühlzeit (Meditation) als sehr angenehm, beruhigend, entspannend erlebt hatten und danach ganz anders in den Diskurs eingestiegen sind.

DENKEN ÜBER DAS DENKEN

  1. Dies führte im Verlauf der zweiten Diskursrunde dann zum Versuch, das bislang Gesagte aus einer mehr reflektierenden Position nochmals zu betrachten. Anhand der Frage 1 gab es mehrere Anregungen des Gesprächsleiters, die Erzählperspektive des Teilnehmers mal zu verlassen und über den Diskurs zu reden. Erst als im unteren Teil von Bild 2 Ansätze einer theoretischen Modellbildung skizziert wurden, in der der Sprecher-Hörer als ein abstrakter Kreis erschien, der verschiedene sinnliche Wahrnehmungen hat, verschiedene Motive/ Interessen sowie unterschiedliche Erinnerungen/ erworbene Kompetenzen, setzte sich ansatzweise der Gedanke durch, dass die Ausdruckselemente (gesprochene Laute, geschriebene Zeichen, bestimmte Gesten,…) nicht automatisch, von vornherein, mit etwas anderem, dem, was dann Bedeutung verleiht, assoziiert sind. Man kann etwas sehen (einen Tisch im Zimmer) und etwas hören (einen sprachlichen Ausdruck ‚Tisch‘). Ohne dass man notwendigerweise den gesprochenen Ausdruck ‚Tisch‘ mit einem gesehenen Objekt (Tisch) assoziiert. Allein die Vielzahl der unterschiedlichen Sprachen zeigt, dass der deutsche Ausdruck für Russen, Chinesen, Spanier, Nigerianer, …. nicht zwingend ist. Sie haben das Problem anders gelöst.
  2. Ein Teilnehmer betonte mehrfach, dass man das Sprachgeschehen nicht in seine Bestandteile auflösen könne/ sollte, da man es ansonsten nicht verstehen würde. Mit Hinweis auf das (noch sehr primitive) Modell wurde erläutert, dass das sich Bewusstmachen der unterschiedlichen Komponenten, die in der interne Maschinerie des Sprecher-Hörers (letztlich im Gehirn) solch ein dynamisches Verhalten ermöglichen, kein Gegensatz sein muss zu einem holistischen Blick auf ein dynamisches Sprachgeschehen, eingebettet in Situationsfolgen. Das Zustandekommen von Assoziationen der unterschiedlichsten Arten in komplexen Handlungsfolgen ist gerade der Kern dessen, was man Lernen nennt. Im Lernprozess fließen alle diese unterschiedlichen Komponenten zusammen (aber nicht zwangsweise!).

AUSBLICK MIT FRAGEN

  1. Gegen Ende stellten sich dann viele neue Fragen.
  2. Z.B. die Frage nach den realen, konkreten Objekten in der Sprechsituation und der Frage, ob und wie diese als abstrakte Objekte im Kopf sein können, auch wenn sie in der konkreten Situation nicht mehr vorkommen. (So kann man ja über Gegenstände, Objekte auch in ihrer Abwesenheit sprechen).
  3. Eng damit zusammenhängend die Frage nach allgemeinen Begriffen. Wir reden von Tischen, jeder konkrete Tisch ist aber anders; entsprechend Begriffe wie Stuhl, Tasse, Mensch usw.
  4. Andere Fragestellungen ergaben sich aus dem Eindruck, dass sich die Sprache verrohen würde, vereinfachen.
  5. Oder: welche Bedeutung kommt der Handschrift zu? Kann man auf sie verzichten ohne negative Wirkung auf das Sprachvermögen/ das Sprachverstehen?
  6. Schließlich der Wunsch, dass die einzelnen noch mehr Beispiele aus ihrer persönlichen Sprachlerngeschichte beisteuern, da die Beispiele, die während des Gesprächs spontan erzählt wurden, sehr aufschlussreich waren.

Einen Überblick über alle Einträge zur Philosophiewewrkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

MATHEMATIK UND WIRKLICHKEIT – DISKUTIERT AM BEISPIEL DES BUCHES VON TEGMARK: Our Mathematical Universe (2014) – Teil2

Max Tegmark (2014), Our Mathematical Universe. My Quest of the Ultimate Nature of Reality, New York: Alfred A.Knopf

Nachtrag: 3.Okt.13:55h, Bild zum letzten Abschnitt

KONTEXT

1. Diesem Teil ging ein einleitender Teil 1 voraus. In ihm wird ein erster Horizont aufgespannt. Darin u.a. die These, dass das Universum sich nicht nur mathematisch beschreiben lässt, sondern selbst auch ein mathematisches Objekt sei.
2. Für die weitere Diskussion werden die Kapitel 2-8 zunächst übersprungen und die Aufmerksamkeit gilt den Kapiteln 9ff. In diesen werden die erkenntnistheoretischen und physik- methodischen Voraussetzungen besprochen, die Tegmark in der modernen Physik am Werke sieht.

SELBSTBESCHREIBUNG EINES PHYSIKERS

Konzepte aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)
Konzepte aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)

3. Wir erinnern uns aus Kapitel 1, dass Tegmark selbst ein Mensch ist, ein homo sapiens (sapiens), der für sich die Methoden der Physik in Anspruch nimmt.
4. Von daher macht es Sinn, dass er sich selbst mit seinen Erkenntnis ermöglichenden Fähigkeiten in den Blick nimmt.
5. In diesem Zusammenhang (vgl. Bild 1) macht er darauf aufmerksam, dass wir nach den neuesten Erkenntnissen der Naturwissenschaften (und der Selbsterfahrung, die er in Beispielen in Form von Selbstexperimenten bemüht), davon ausgehen müssen, dass unsere bewusste Wahrnehmung einer Welt in unserem Körper, in unserem Gehirn stattfindet. Diese bewusste Wahrnehmung bildet für uns die primäre Realität, die man als interne Realität bezeichnen kann, wenn man außerhalb dieser inneren Realität eine externe Realität voraussetzt.
6. Nach allem, was wir heute wissen, übersetzen unsere Sinnesorgane Ereignisse der externen Realität (die in einer angenommenen externen Welt stattfinden), in komplexe Signalverarbeitungsprozesse in unserem Gehirn. Ein kleiner Teil dieser vom Gehirn automatisch – und daher nicht-bewusst – verarbeiteten Signale werden uns bewusst, bilden den Stoff unserer bewussten Wahrnehmung. Er nennt diese bewussten Signale auch Qualia. Sie werden automatisch so vom Gehirn aufbereitet, dass wir beständig z.B. ein konsistentes 3D-Model einer Wirklichkeit zur Verfügung haben, mittels dem wir uns im Raum des Bewusstseins orientieren. Wichtiges Detail: verschiedene Menschen können mit ihren Sinnesorganen u.U. unterschiedliche Signale von der gleichen Signalquelle empfangen (z.B. unterschiedliche Farbwahrnehmung). Trotzdem scheint das interne Modell zum Zwecke der Orientierung zu funktionieren.
7. Die wissenschaftlichen Untersuchungen zum Verhältnis zwischen messbaren externen Ereignissen und der Wahrnehmung dieser Ereignisse basierend auf den weitgehend nicht-bewussten sensorischen Prozessen im Körper deuten an, dass der Körper und das Gehirn keine 1-zu-1 Abbildung der externen Ereignisse liefern, sondern diese auf unterschiedliche Weise verändern: (i) hervorstechend ist, dass nur ein Bruchteil der (heute) messbaren externen Ereignisse erfasst und dann verarbeitet wird (z.B. nur ein kleiner Teil aus dem Wellenspektrum wird erfasst). Wir haben also den Sachverhalt der Auslassung (‚omission‘). (ii) Ferner liefert das Gehirn Eigenschaften in der bewussten Wahrnehmung (z.B. 3D-Modell), die in der auslösenden sensorischen Wahrnehmung (2D) nicht gegeben ist. Diesen Sachverhalt bezeichnet Tegmark als Illusion. (iii) Ferner kann das Gehirn eine Vielzahl von unterschiedlichen Halluzinationen erzeugen (z.B. Erinnerungen, Träume, Fantasien, Wahnvorstellungen …), die weder aktuell in der externen Realität vorkommen noch genau so, wie sie als halluziniertes Ereignis im Bewusstsein auftreten.

THEORIEN

Konzepte Nr.2 aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)
Konzepte Nr.2 aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)

8. Nach diesen vorbereitenden Überlegungen stellt sich die Frage, wo und wie in diesem Bild der Ort für physikalische Theorien ist?
9. Die große Mehrheit der Philosophen hatte in der Vergangenheit an dieser Stelle die interne Realität, das interne Weltmodell, als möglichen Ort weiterer Theoriebildung vermutet und dazu dann jeweils umfangreichste Überlegungen angestellt, wie man sich diese Maschinerie des bewussten Erkennens vorzustellen habe, damit man in diesem Rahmen das Denken einer physikalischen Theorie rekonstruieren könnte.
10. Tegmark klammert dieses Vorgehensweise vom Start weg aus. Bevor überhaupt ein Gedanke in diese Richtung aufscheinen kann erklärt er, dass der höchste Triumph der Physik darin bestehen würde, dass die Physik mit der externen Realität startet, diese mathematisch beschreibt, und zwar so, dass man innerhalb dieser Beschreibung dann die Entstehung und das Funktionieren der internen Realität ableiten (‚derive‘) kann. (vgl. S.237f)
11. Ihm ist schon bewusst, dass es für eine volle physikalische Theorie dieser Art notwendig wäre, eine vollständig detaillierte Beschreibung des Gehirns, speziell auch des Phänomens des Bewusstseins, mit zu liefern. (vgl. S.238) Aber er meint, man kann sich diese Aufgabe ersparen und den ganzen Komplex der subjektiven (und zugehörigen nicht-bewussten) Prozesse ausklammern (‚decouple‘), weil Menschen die Fähigkeit zeigen, sich trotz und mit ihrer individuellen Subjektivität auf eine Weise miteinander zu verständigen, die auf einer Sicht der externen Welt in der internen Welt beruht, die zwischen Menschen geteilt (‚shared‘) werden kann.
12. Diese zwischen Menschen in der Kommunikation gemeinschaftlichen Sicht der externen Welt (auf der Basis der internen Welt) nennt er Konsensus Realität (‚consensus reality‘).(vgl. S.238f)
13. Die Konsensus Realität verortet er zwischen der externen und der internen Realität.
14. Mit dieser begrifflichen Unterscheidung begründet er für sich, warum eine physikalische Theorie möglich ist, ohne dass man eine Theorie des Bewusstseins hat; er räumt aber ein, dass man natürlich für eine endgültige vollständige (physikalische) Theorie auch eine vollständige Theorie des Bewusstseins samt allen zugehörigen Aspekten bräuchte.
15. Während man sich als Leser noch fragt, wie denn die Physik diese nicht ganz leichte Aufgabe angehen will, erklärt Tegmark ohne weitere Begründung, dass diese delikate Aufgabe nicht von der Physik geleistet werden solle, sondern von der Kognitionswissenschaft (‚cognitive science‘). (vgl. S.238f)
16. Obwohl Tegmark selbst viele Beispiele bringt, die illustrieren sollen, dass es aus Sicht der Physik gerade die Wechselwirkung zwischen der externen und internen Realität war, um auf dem Weg zu einer umfassenden physikalischen Theorie voran zu schreiten (vgl. SS.240ff), delegiert er nun diese delikate Aufgabe an die Kognitionswissenschaft. Warum soll die Kognitionswissenschaft diese delikate Aufgabe lösen können und die Physik nicht? Bedeutet dies, dass die Kognitionswissenschaft ein Teil der Physik ist oder hat sie etwas Besonderes über die Physik hinaus? Letzteres würde seinem Anspruch widersprechen, dass die Physik das Ganze erklärt.
17. Tegmark lässt diese Fragen schlicht offen. Er meint nur, die Physik habe hier noch einen sehr langen Weg zu gehen. (vgl. S.242)
18. Er fällt einfach die Entscheidung, den Aspekt der ersten Realität innerhalb der allgemeinen Theoriebildung in seinem Buch auszuklammern und sich auf die Frage der Rolle der Mathematik in physikalischen Theorien zu beschränken, sofern sie sich mit der externen und der Konsensus Realität beschäftigen.(vgl. S.240)

DISKURS
EIN BISSCHEN ENTTÄUSCHT ….

19. Ich muss gestehen, dass ich als Leser an dieser Stelle des Buches irgendwie enttäuscht bin. Nachdem das Buch mit so viel Elan gestartet ist, so viel wunderbares Wissen aufbietet, um diese Fragen zu erhellen, kommt es an einer entscheidenden Stelle zu einer Art gedanklichen Totalverweigerung. Natürlich kann jeder verstehen – und ich besonders –, dass man aus Zeitgründen eine komplexe Fragestellung vorläufig ausklammert, deren Behandlung ‚nach hinten schiebt‘, aber es ist dennoch schade, nicht als Vorwurf, sondern als Erlebnis.
20. Trotz dieser Einschränkung der Perspektive des weiteren Vorgehens bleiben natürlich noch viele interessante Fragen im Raum, insbesondere das Hauptthema der Rolle der Mathematik in einer physikalischen Theorie verbunden mit der These von Tegmark, dass die externe Realität selbst ein mathematisches Objekt sei.
21. Bevor dieser Aspekt im Blog weiter untersucht wird, soll aber noch ein wenig an dieser Umschaltstelle in der Darstellung von Tegmark verweilt werden. Diese ist zu wichtig, als dass man sein Vorgehen einfach unkommentiert lassen sollte.

INNEHALTEN: EXTERN – INTERN

22. Tegmark geht davon aus, dass eine physikalische Theorie die externe und die Konsensus Realität beschreibt, und dies mit Hilfe der Mathematik.
23. Er stellt einleitend fest, dass wir direkt von der externen Realität aber nichts wissen. Unser Gehirn liefert uns ein Weltmodell W0, das uns als Basis des Verstehens und Verhaltens dient, das aber nicht die Welt ist, wie sie vielleicht jenseits dieses Modells W0 existiert. Die Geschichte des menschlichen Erkennens und die Untersuchungen zum modernen Alltagsverstehen belegen, dass die Erkenntnis, dass unser individuelles Welterleben auf Basis von W0 nicht die Welt sein kann, die jenseits des Gehirns existiert, nicht nur erst wenige tausend Jahre alt ist, sondern es in der Regel nur wenigen Menschen gelingt, dies explizit zu denken, selbst heute (die meisten – alle? – Naturwissenschaftler z.B. sind nicht in der Lage, die mögliche Welt jenseits von W0 unter expliziten Berücksichtigung von W0 zu denken!). Tegmark selbst demonstriert diese Unfähigkeit vor den Augen des Lesers.
24. Er beschreibt zwar empirische (und nicht-empirische) Fakten, die die Annahme der Unterscheidung von W0 und etwas jenseits von W0 nahelegen, aber er macht keine Anstalten, darüber nach zu denken, was dies für empirische Theorien über die Welt jenseits von W0 bedeutet.
25. Wie kann es sein, dass unser Denken in W0 verankert ist, aber doch über eine Welt jenseits von W0 redet, als ob es W0 nicht gibt?
26. Die Evolutionsbiologen sagen uns, dass im Laufe der Evolution von biologischen Systemen deren Gehirne in diesen Systemen so optimiert wurden, dass das jeweilige System nicht durch die internen (automatischen) Berechnungsprozesse des Gehirns abgelenkt wird, sondern nur mit jenen Aspekten versorgt wird, die für das Überleben in der umgebenden Welt (jenseits des Gehirns) wichtig sind; nur diese wurden dem System bewusst. Alles andere blieb im Verborgen, war nicht bewusst. Dies heißt, es war (und ist?) ein Überlebensvorteil, eine Identität von internem Weltmodell W0 und der jeweils umgebenden Welt zu ermöglichen. Hunderttausende von Jahren, Millionen von Jahren war dies überlebensförderlich.
27. In diesem Überlebenskampf war es natürlich auch wichtig, dass Menschen in vielen Situationen und Aufgaben kooperieren. Voraussetzung dafür war eine minimale Kommunikation und dafür eine hinreichend strukturell ähnliche Wahrnehmung von umgebender Welt und deren Aufbereitung in einem internen Modell W0.
28. Kommunikation in einer geteilten Handlungswelt benötigt Signale, die ausgetauscht werden können, die sich mit gemeinsamen wichtigen Sachverhalten assoziieren lassen, die sowohl Teil der äußeren Welt sind wie auch zugleich Teil des internen Modells. Nur durch diese Verbindung zwischen Signalen und signalverbundenen Sachverhalten einerseits und deren hinreichend ähnlichen Verankerung in den individuellen Weltmodellen W0 boten die Voraussetzungen, dass zwei verschiedene Weltmodelle – nämlich eines von einem biologischen System A mit W0_a und eines von einem biologischen System B mit W0_b – miteinander durch kommunikative Akte ausgetauscht, abgestimmt, verstärkt, verändert … werden konnten.
29. Dies ist der mögliche Ort der Konsensus Realität, von der Tegmark spricht.
30. Weil die individuellen Gehirne unterschiedlicher biologischer Systeme der Art homo sapiens (sapiens) eine hinreichend ähnliche Struktur von Signalverarbeitung und Modellgenerierung haben ist es ihnen möglich, Teile ihres Modells W0 mittels Kommunikation auszutauschen. Kommunikativ können sie austauschen, Ob etwas der Fall ist. Kommunikativ können sie sich zu bestimmten Handlungen koordinieren.
31. Die Zuordnung zwischen den benutzten Signalereignissen und den damit assoziierten Sachverhalten ist zu Beginn offen: sie müssen von Fall zu Fall im Bereich von möglichen Alternativen entschieden werden. Dies begründet arbiträre Konventionen, die dann – nach ihrer Einführung – zu pragmatischen Regeln werden können.
32. Die von Tegmark angesprochene Konsensus Realität ist von daher ein hybrides Konstrukt: primär ist es ein Produkt der internen Realität, Teil des internen Weltmodells W0, aber durch die Beziehung zwischen dem internen Modell W0 mit einer unterstellten externen Welt Wx (also z.B. wm0: Wx –→ W0, wm1:W0 –→ Wx*) und der Hypothese, dass diese Abbildungsprozesse bei unterschiedlichen Individuen A und B der gleichen Art homo sapiens (sapiens) hinreichend strukturell ähnlich sind, kann man annehmen, dass W0_a und W0_b strukturell hinreichend ähnlich sind – EQ(W0_a, W0_b) – und eine arbiträre Zuordnung von beliebigen Signalereignissen zu diesen unterstellten Gemeinsamkeiten damit synchronisierbar ist.
33. Man kann an dieser Stelle den fundamentalen Begriff der Zeichenrelation derart einführen, dass man sagt, dass diese grundlegenden Fähigkeit der Assoziierung von Signalereignissen S und zeitgleich auftretenden anderen Ereignissen O in der unterstellten äußeren Welt Wx sich über die Wahrnehmung dann im internen Weltmodell W0 eines biologischen Systems als S‘-O‘-Beziehung repräsentieren lässt. Diese interne Repräsentation einer in der Außenwelt Wx auftretenden Korrelation von Ereignissen S und O ist dann eine Zeichenrelation SR(S‘,O‘). Die an sich arbiträren Signalereignisse S und die davon unabhängigen zeitgleichen Ereignisse O können auf diese Weise in einer internen Beziehung miteinander verknüpft werden. Über diese intern vorgenommene Verknüpfung sind sie dann nicht mehr arbiträr. Ein Signalereignis s aus S und ein anderes Ereignis o aus O erklären sich dann gegenseitig: SR(s‘,o‘) liest sich dann so: das Signalereignis s‘ ist ein Zeichen für das andere Ereignis o‘ und das andere Ereignis o‘ ist die Bedeutung für das Zeichen s‘. Insofern verschiedene Systeme ihre Zeichenrelationen koordinieren entsteht ein Kode, ein Zeichensystem, eine Sprache, mittels deren sie sich auf Basis ihrer internen Weltmodelle W0 über mögliche äußere Welten verständigen können.
34. Die Konsensus Realität wäre demnach jener Teil des Bewusstseins eines biologischen Systems, dessen Phänomene (Qualia) sich über eine hinreichende Korrespondenz mit einer unterstellten Außenwelt Wx mit den internen Modellen W0 anderer Systeme koordinieren lassen.
35. Dass die beteiligten Signalereignisse als Zeichen mittels Symbolen realisiert werden, mittels Ausdrücken über einem Alphabet, später dann mit einem Alphabet, das man einer mengentheoretischen Sprache zuschreiben kann, die zur Grundsprache der modernen Mathematik geworden ist, ist für den Gesamtvorgang zunächst unwesentlich. Entscheidend ist die biologische Maschinerie, die dies ermöglicht, der ‚Trick‘ mit dem Bewusstsein, das das System von der unfassbaren Komplexität der beteiligten automatischen Prozessen befreit, von der Fähigkeit zu Abstraktionen (was hier noch nicht erklärt wurde), von dem fantastischen Mechanismus eines Gedächtnisses (was hier auch noch nicht erklärt wurde), und manchem mehr.
36. Dass Tegmark das Konzept der Konsensus Realität einführt, sich aber die Details dieser Realität ausspart, ist eine Schwachstelle in seiner Theoriebildung, die sich im weiteren Verlauf erheblich auswirken wird. Man kann schon an dieser Stelle ahnen, warum seine These von der äußeren Welt Wx als mathematischem Objekt möglicherweise schon im Ansatz scheitert.

SEMIOTIK GRUNDLEGENDER ALS PHYSIK?

37. Ohne diesen Punkt hier voll zu diskutieren möchte ich an dieser Stelle zu überlegen geben, dass der Erklärungsanspruch der Physik in weiten Teilen sicher berechtigt und unverzichtbar ist. Doch bei der Reflexion auf die Grundlagen einer physikalischen Theorie (die letztlich auch Teil einer wissenschaftlichen Erklärung sein sollte) müssen wir offensichtlich die Physik verlassen. Die klassische und die moderne Physik hat für ihre Existenz und ihr Funktionieren eine Reihe von Voraussetzungen, die nicht zuletzt den Physiker selbst mit einschließen. Sofern dieser Physiker als biologisches System ein Zeichenbenutzer ist, gehen die Gesetzmäßigkeiten eines Zeichenbenutzers als Voraussetzungen in die Physik ein. Sie hinterlassen nachhaltige Spuren in jeder physikalischen Theorie qua Zeichensystem. Diejenige Wissenschaft, die für Zeichen allgemein zuständig war und ist, ist die Semiotik. Bis heute hat die Semiotik zwar noch keine einheitliche, systematische Gestalt, aber dies muss nicht so sein. Man kann die Semiotik genauso wissenschaftlich und voll mathematisiert betreiben wie die moderne Physik. Es hat halt nur noch niemand getan. Aber die Physik hat ja auch noch niemals ihre erkenntnistheoretischen Voraussetzungen vollständig reflektiert. Vielleicht können sich eine neue Semiotik und eine neue Physik die Hand geben für ein gemeinsames Abenteuer des Geistes, was die Denkhemmungen der Vergangenheit vergessen macht. Das Beharren auf tradierten Vorurteilen war schon immer das größte Hindernis für eine tiefere Erkenntnis.

NACHTRAG

Konzepte in Anlehnung an Tegmark (2014) Kap.9 von G.Doeben-Henisch
Konzepte in Anlehnung an Tegmark (2014) Kap.9 von G.Doeben-Henisch

In Ergänzung zum vorausgehenden Text kann es hilfreich sein, sich klar zu machen, dass Tegmark als Physiker ein biologisches System der Art homo sapiens (sapiens) ist, dessen primäre Wirklichkeit in einem internen Modell der Art W0 zu suchen ist. Um sich mit seinen Physikkollegen zu verständigen benutzt er mathematische Texte, die mit bestimmten Messwerten korreliert werden können, die ebenfalls als Zeichen von Messprozeduren generiert werden. Der Zusammenhang der Messwerte mit den mathematischen Texten wird intern (!!!) kodiert. Insofern spielt die Art und Weise der internen Modelle, ihre Beschaffenheit, ihre Entstehung, ihre Abgleichung etc. eine fundamentale Rolle in der Einschätzung der potentiellen Bedeutung einer Theorie. Physikalische Theorien sind von daher grundlegend nicht anders als alle anderen Theorien (sofern diese mathematische Ausdrücke benutzen, was jeder Disziplin freisteht). Sie unterscheiden sich höchstens durch die Art der Messwerte, die zugelassen werden. Sofern eine moderne philosophische Theorie physikalische Messwerte akzeptiert — und warum sollte sie dies nicht tun? — überlappt sich eine philosophische Theorie mit der Physik. Sofern eine moderne philosophische Theorie die Voraussetzungen einer physikalischen Theorie in ihree Theoriebildung einbezieht, geht sie transparent nachvollziehbar über die Physik hinaus. Semiotik sehe ich als Teilaspekt der Philosophie.

Einen Überblick über alle Beiträge des Autors cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themen des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann ($latex R: M \longmapsto O$). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 18.August 2015 – INFORMATION IN DER MOLEKULARBIOLOGIE – Maynard-Smith

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

SPANNENDER PUNKT BEIM SCHREIBEN

1. Das Schreiben des Buches hat zu einem spannenden Punkt geführt, der mich seit Jahren umtreibt, den ich aber nie so richtig zu packen bekommen habe: alle große begriffliche Koordinaten laufen im Ereignis der Zelle als einer zentralen Manifestation von grundlegenden Prinzipien zusammen. Die Physik hat zwar generelle Vorarbeiten von unschätzbarem Wert geleistet, aber erst das Auftreten von selbst reproduzierenden molekularen Strukturen, die wir (biologische) Zellen nennen, macht Dynamiken sichtbar, die ‚oberhalb‘ ihrer ‚Bestandteile‘ liegen. Dies könnte man analog dem physikalischen Begriff der ‚Gravitation‘ sehen: dem physikalischen Begriff entspricht kein direktes Objekt, aber es beschreibt eine Dynamik, eine Gesetzmäßigkeit, die man anhand des Verhaltens der beobachtbaren Materie indirekt ‚ableitet‘.

DYNAMIK BIOLOGISCHER ZELLEN

2. Ähnlich verhält es sich mit verschiedenen Dynamiken von biologischen Zellen. Die Beschreibung ihrer einzelnen Bestandteile (Chromatin, Mitochondrien, Golgiapparat, Membran, …) als solcher sagt nichts darüber aus, was tatsächlich eine biologische Zelle charakterisiert. Ihre Haupteigenschaft ist die generelle Fähigkeit, eingebettet in eine allgemeine Entropiezunahme sich eine Struktur zu generieren, die sich temporär funktionsfähig halten kann und in der Lage ist, Informationen zu sammeln, mittels deren sie sich selbst so kopieren kann, dass die Kopie sich von neuem zu einer funktionsfähigen Struktur aufbauen kann. Wie dies im einzelnen chemisch realisiert wurde, ist beeindruckend, es ist atemberaubend, aber es ist letztlich austauschbar; für die Gesamtfunktion spielen die chemischen Details keine Rolle.

BEGRIFF INFORMATION

3. Und hier beginnt das Problem. Obwohl es von einem theoretischen Standpunkt aus klar ist, dass die Details noch nicht die eigentliche Geschichte erzählen, wird in den vielen umfangreichen Büchern über Genetik und Molekularbiologie die eigentliche ‚Story‘ nicht erzählt. Dies fängt schon an mit dem wichtigen Begriff der Information. Spätestens seit Schrödingers Buch von 1944 „What is Life?“ ist klar, dass das selbstreproduktive Verhalten von Zellen ohne das Genom nicht funktioniert. Und es wurde auch sehr bald der Begriff der Information eingeführt, um den ‚Inhalt‘ des Genoms theoretisch zu klassifizieren. Das Genom enthält ‚Informationen‘, aufgrund deren in einer Vererbung neue hinreichend ähnlich Strukturen entstehen können.

STATISTISCHER INFORMATIONSBEGRIFF

4. Leider wurde und wird der Informationsbegriff im Sinne des rein statistischen Informationsbegriffs von Shannon/ Weaver (1948) benutzt, der explizit Fragen möglicher Bedeutungsbezüge (Semantik) außen vor lässt. Damit ist er eigentlich weitgehend ungeeignet, der Rolle der im Genom verfügbaren Informationen gerect zu werden.

MEHR ALS STATISTIK

5. Einer, der diese Unzulänglichkeit des rein statistischen Informationsbegriffs für die Beschreibung der Rolle der Information im Kontext des Genoms und der Zelle samt ihrer Reproduktionsdynamik immer kritisiert hatte, war John Maynard Smith (1920 – 2004). In seinem Artikel “ The concept of information in biology“ von 2000 kann man dies wunderbar nachlesen.

6. Zwar hat auch Maynard Smith keine explizite übergreifende Theorie der Reproduktionsdynamik, aber er kann an verschiedenen Eigenschaften aufweisen, dass der rein statistische Informationsbegriff nicht ausreicht.

7. Während im Shannon-Weaver Modell ein fester Kode A von einem Sender in Transportereignisse übersetzt (kodiert) wird, die wiederum in den festen Kode A von einem Empfänger zurückübersetzt (dekodiert) werden, ist die Lage bei der Zelle anders.

8. Nimmt man an, dass der zu sendende Kode das DNA-Molekül ist, das in seiner Struktur eine potentielle Informationssequenz repräsentiert, dann ist der Sender eine Zelle in einer Umgebung. Der ‚DNA-Kode‘ (der feste Kode A) wird dann umgeschrieben (Transskription, Translation) in zwei verschiedene Kodes (mRNA, tRNA). Während man die Zustandsform des mRNA-Moleküls noch in Korrespondenz zum DNA-Kode sehen kann (abr nicht vollständig), enthalten die verschiedenen tRNA-Moleküle Bestandteile, die über den ursprünglichen DNA-Kode hinausgehen. Daraus wird dann eine Proteinstruktur erzeugt, die sowohl eine gewisse Kopie des ursprünglichen DNA-Moleküls (Kode A) enthält, aber auch zusätzlich einen kompletten Zellkörper, der mit dem Kode A nichts mehr zu tun hat. Außerdem gibt es den Empfänger bei Beginn der Übermittlung noch gar nicht. Der Empfänger wird im Prozess der Übermittlung erst erzeugt! Anders formuliert: beim biologischen Informationsaustausch im Rahmen einer Selbstreproduktion wird zunächst der potentielle Empfänger (eine andere Zelle) erzeugt, um dann den DNA-Kode im Empfänger neu zu verankern.

9. Innerhalb dieses Gesamtgeschehens gibt es mehrere Bereiche/ Phasen, in denen das Konzept eines rein statistischen Informationsbegriffs verlassen wird.

10. So weist Maynard Smith darauf hin, dass die Zuordnung von DNA-Sequenzen zu den später erzeugten Proteinen mindestens zweifach den statistischen Informationsbegriff übersteigt: (i) die erzeugten Proteinstrukturen als solche bilden keine einfache ‚Übersetzung‘ das DNA-Kodes verstanden als eine syntaktische Sequenz von definierten Einheiten eines definierten endlichen Alphabets. Die Proteinmoleküle kann man zwar auch als Sequenzen von Einheiten eines endlichen Alphabets auffassen, aber es handelt sich um ein ganz anderes Alphabet. Es ist eben nicht nur eine reine ‚Umschreibung‘ (‚Transkription‘), sondern eine ‚Übersetzung‘ (‚Translation‘, ‚Translatio‘), in die mehr Informationen eingehen, als die Ausgangssequenzen im DNA-Kode beinhalten. (ii) Der DNA-Kode enthält mindestens zwei Arten von Informationselementen: solche, die dann in Proteinstrukturen übersetzt werden können (mit Zusatzinformationen), und solche, die die Übersetzung der DNA-Informationselemente zeitlich steuern. Damit enthält der DNA-Kode selbst Elemente, die nicht rein statistisch zu betrachten sind, sondern die eine ‚Bedeutung‘ besitzen, eine ‚Semantik‘. Diese Bedeutung st nicht fixiert; sie kann sich ändern.

ALLGEMEINE ZEICHENLEHRE = SEMIOTIK

11. Für Elemente eines Kodes, denen ‚Bedeutungen‘ zugeordnet sind, gibt es in der Wissenschaft das begriffliche Instrumentarium der allgemeinen Zeichenlehre, spricht ‚Semiotik‘ (siehe z.B. Noeth 2000).

12. Nimmt man die empirischen Funde und die semiotische Begrifflichkeit ernst, dann haben wir es im Fall der Zelle also mit eindeutigen (und recht komplexen) Zeichenprozessen zu; man könnte von der Zelle in diesem Sinne also von einem ’semiotischen System‘ sprechen. Maynard Smith deutet den Grundbegriff von Jacques Lucien Monod (1910-1976) ‚gratuity‘ im Sinne, dass Signale in der Biologie ‚Zeichen‘ seien. Ob dies die Grundintention von Monod trifft, ist eine offene Frage; zumindest lässt die Maschinerie, die Monod beschreibt, diese Deutung zu.

13. Eine zusätzliche Komplikation beim biologischen Zeichenbegriff ergibt sich dadurch, dass eine Zelle ja nicht ‚isoliert‘ operiert. Eine Zelle ist normalerweise Teil einer Population in einer bestimmten Umgebung. Welche Strukturen der Proteinaufbauprozess (Wachstum, Ontogenese) auch hervorbringen mag, ob er gewisse Zeiten überdauert (gemessen in Generationen), hängt entscheidend davon ab, ob die Proteinstruktur in der Interaktion mit der Umgebung ‚hinreichend lange‘ jene ‚Arbeit‘ verrichten kann, die notwendig ist, um eine Selbstreproduktion zu ermöglichen.

14. Ob eine Proteinstruktur in diesem weiterführenden Sinne ‚lebensfähig‘ ist, hängt also entscheidend davon ab, ob sie zur jeweiligen Umgebung ‚passt‘. Eine lebensfähige Proteinstruktur ist in diesem Sinne – von einer höheren theoretischen Betrachtungsweise aus gesehen – nichts anderes als ein auf Interaktion basierendes ‚Echo‘ zur vorgegebenen Umgebung.

15. Dass dies ‚Echo‘ nicht ’stagniert‘, nicht ‚auf der Stelle tritt‘, nicht ‚um sich selbst kreist‘, liegt entscheidend daran, dass die ‚letzte‘ Struktur den Ausgangspunkt für ‚weitere Veränderungen‘ darstellt. Die Zufallsanteile im gesamten Selbstreproduktionsprozess fangen also nicht immer wieder ‚von vorne‘ an (also keine ‚Auswahl mit Zurücklegen‘), sondern sie entwickeln eine Informationsstruktur ‚weiter‘. In diesem Sinne bildet die Informationssequenz des DNA-Moleküls auch einen ‚Speicher‘, ein ‚Gedächtnis‘ von vergangenen erfolgreichen Versuchen. Je mehr Zellen in einer Population verfügbar sind, umso größer ist diese molekulare Erfolgsgedächtnis.

Diese Fortsetzung war nicht die letzte Zwischenreflexion. Es geht noch weiter: HIER

QUELLEN

Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
Claude E. Shannon, „A mathematical theory of communication“. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (URL: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; last visited May-15, 2008)
Claude E. Shannon; Warren Weaver (1948) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 4

Diesem Beitrag ging voraus Teil 3.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor.

WEITER

1) Im folgenden Kapitel macht er nochmals deutlich, dass der menschliche Geist ohne externe Hilfsmittel sehr beschränkt, sehr hilflos ist. (vgl. S.43) Die primären erweiternden Technologien sieht er im Lesen (was Texte voraussetzt) und Schreiben (was Schreibmöglichkeiten voraussetzt, Zeichensysteme).(vgl. S.44). In diesem Sinne wiederholt Norman die These, dass es ‚Dinge‘ sind, die uns ‚intelligent machen‘ („It is things that make us smart“ (S.44)).
2) Mit Bezug auf Susan Noakes nimmt Norman an, dass es im Mittelalter unter den ‚Intellektuellen‘ üblich war, Geschriebenes (ergänzt um Gemaltes, Kommentiertes) nicht einfach ‚runter zu lesen‘, sondern mit dem Geschriebenen in einen Dialog zu treten, zu hinterfragen, zu befragen, zu kommentieren. (vgl. S.46)

REPRÄSENTATION

3) Norman wird dann konkreter. Ausgehend von der Kommunikation mittels Zeichen (’symbols‘) führt er die Unterscheidung ein zwischen dem Zeichenmaterial (Klang, Geste, Schriftzeichen,….) und dem, worauf es sich bezieht (‚refers to‘). In einer solchen Zeichenbeziehung kann man sagen, dass das Zeichenmaterial das Bezeichnete ‚repräsentiert‘ (‚represents‘). (vgl. S.47)
4) Zusätzlich zum repräsentierenden Zeichenmaterial und dem Bezeichneten führt Norman noch ein Drittes ein, die ‚Abstraktion‘ (‚abstraction‘). Unser Denken ‚abstrahiert‘ aus dem Wahrgenommenen einen Bündel von Eigenschaften, das dann kognitiv das auslösende Objekt repräsentiert, und auf dieses Abstraktum bezieht sich dann das Zeichenmaterial, also OBJ_real —> ABSTR_cogn —> ZCHN_real.(vgl. S.47) Allerdings können auch reale Objekte genutzt werden, um bestimmte Eigenschaften von anderen realen Objektven zu repräsentieren, also OBJ_real —> ABSTR_real —> ZCHN_real. (vgl. S.48) Wichtig ist, dass die Abstraktionen verschieden sind von den Objekten, die sie repräsentieren und dass sie Vereinfachungen darstellen, Hervorhebung von interessierenden Eigenschaften, die in gewissen Sinne Manipulationen zulassen, um mögliche potentielle Kombinationen dieser Eigenschaften rein gedanklich zu untersuchen.(vgl. S.49)
5) Norman differenziert dann nochmals weiter: er unterscheidet (i) zwischen der Welt, die repräsentiert werden soll (Objekte, Konzepte), (ii) einer Welt von Symbolen (= Zeichenmaterial), und (iii) einem Interpreten (I), der die Beziehung (‚relationships‘) zwischen dem Bezeichneten (O) und dem Bezeichnendem (S) verwaltet. Man müsste also minimal schreiben I: O —> S der Interpreter I bildet Objekte auf Symbole ab und umgekehrt I: S —> O. Wobei das gleiche Objekt o in O verschiedene s_i in S meinen kann und umgekehrt.(vgl. S.49f, S.259f).
6) [Anmerkung: Norman zitiert ja generell fast gar nicht die Quellen, die er benutzt. Hier ist es aber besonders ärgerlich, da er mit dieser Begrifflichkeit den Bereich der Semiotik (Semiotics) betritt, in dem es viele Publikation zum Thema gibt. Die von ihm benutzte Terminologie I,O,S findet sich ziemlich genau bei Peirce wieder, aber auch bei vielen anderen Semiotikern, z.B. Saussure oder Morris.]
7) [Anmerkung: Letztlich bleiben diese Begriffe aber alle etwas vage und unscharf. Das zeigt sich an vielen konkreten Beispielen. Wenn er z.B. eine Skizze als Repräsentation einer realen Szene (=O) als eine Art Modell (Mod(O)) benutzt, die auch in Abwesenheit der realen Szene benutzt werden kann (dann als S), um über die reale Szene zu sprechen. Andererseits kann die Skizze selbst ein Objekt (=O) sein, auf das andere Symbole (S) Bezug nehmen. Nur der jeweilige Interpreter (=I) kann entscheiden, welche Beziehung gerade vorliegt. Ebenso können wir uns von realen Szenen (=O) (oder auch von Skizzen von realen Szenen!) rein abstrakte Konzepte bilden, die diese Objekte repräsentieren (=Abstr(O)). Diese abstrakten Konzepte sind keine Symbole (S). Sie können aber in Abwesenheit von den realen Objekten als Quasi-Objekte für Symbole benutzt werden (z.B. verschiedene reale Objekte, die wir als ‚Stühle‘ bezeichnen erlauben die Bildung eines abstrakten Konzepts von ‚Stuhl_abstr‘. Die Bedeutung des Wortes (= Symbols) ‚Stuhl‘ ist dann kodiert in der Abstraktion ‚Stuhl_abstr‘ mit Bezug auf die auslösenden realen Stuhl-Objekte. Dies alles würde folgende Verallgemeinerung nahelegen: (i) es gibt ‚auslösende Objekte (O)‘, um Abstraktionen auszulösen, die entweder als reale Strukturen realisiert werden Abstr_real(O) oder als rein gedankliche, kognitive Abstraktionen Abstr_cog(O). Bei realen Abstraktionen Abstr_real(O) spricht man oft auch von ‚Modellen‘. Symbole (S) im Sinne von Zeichenmaterial kann sowohl auf reale Objekte direkt Bezug nehmen als I: S —> O oder – was im Falle der Sprache üblicher ist – indirekt durch Bezugnahme auf Abstraktionen I: O —> Abstr_x(O) und I: Abstr_x(O) —> S. In Grenzfällen kann eine reale Abstraktion Abstr_real(O), also ein Modell Abstr-real(O) = Mod(O), auch als Symbol für ein reales Objekt dienen, also I: Abstr_real(O) = S —> O. Hier eröffnen sich sehr viele weitere Fragen, auf die später noch eingegangen werden soll.]
8) [Anmerkung: Warum Norman ein Modell Mod(O) eines realen Objektes (O) nicht nur als ‚Repräsentation‘ des realen Objektes bezeichnet, sondern zugleich auch als ‚Metarepräsentation‘ (‚representation of a representation‘) erschließt sich mir nicht.(vgl. 51) ]
9) Andererseits gibt es natürlich die Möglichkeit, mit Hilfe von realen Abstraktionen (Skizzen, Diagrammen, Formeln,…) Zusammenhänge sichtbar zu machen und zu ’speichern‘, die ohne solche realen Abstraktionen nur schwer oder gar nicht ‚gedacht‘ werden könnten, und diese Abstraktionen können durch Bezugnahmen untereinander immer ‚höhere Ordnungen‘ (‚higher order‘) von Abstraktionen bilden.(vgl. S.51)
10) [Anmerkung: Diese Fähigkeit der Bildung von ‚Abstraktionen höherer Ordnung‘ setzt voraus, dass jede Abstraktion Abstr_x() zu einem ’neuen Objekt‘ wird, also zu einem ‚Objekt höherer Ordnung‘. Also O —> Abstr_x(O) = O1 —> Abstr_x(O1) = O2 … . In der Tat zeigt die Erfahrung, dass solche Abstraktionsketten ohne Hilfsmittel, ohne Artefakte, vom normalen Gehirn nicht bewältigt werden können.]
11) Auf den SS.53-75 beschreibt Norman dann anhand einer Reihe von Beispielen (game of 15, ticktacktoe, airline schedules, medical prescriptions, numbers, diagrams) weitere Aspekte von realen Abstraktionen, die gedacht sind, wichtige Eigenschaften von Objekten (O) als Abstr_real(O) zu repräsentieren. Reale Abstraktionen Abstr_real(O), die die Eigenschaften unserer sensorischen Wahrnehmung gut ausnutzen, können leichter verarbeitet werden, als wenn sie diesen entgegen stehen. Dies gilt aber nur dann, wenn die reale Abstraktion mit ihren konkreten Eigenschaften mit den wichtigen Eigenschaften des abzubildenden Objektes (O) gut übereinstimmen.

Fortsetzung folgt mit Teil 5.

LITERATURVERWEISE

Susan Noakes, Timely Reading: Between Exegesis and Interpretation. Ithaca, N.Y., and London: Cornell University Press, 1988. Pp. xv,

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 3

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 25.Okt.2012, 23:30h
Letzte Änderung: 10.Nov. 2012, 10:30h

Für Teil2 siehe HIER

  1. [ANMERKUNG: Obwohl Duve den Begriff der Information im Text immer wieder verwendet, wird der Begriff bislang nicht definiert. Selbst an der Stelle, an der er vom Ende der chemischen Evolution spricht, die dann mit Hilfe von DNA/ RNA in die informationsgeleitete Entwicklung übergeht, findet man keine weitere Erklärung. Der einzige greifbare Anhaltspunkt ist der Bezug zur DNA/ RNA, wobei offen bleibt, warum die DNA der RNA vorgeschaltet wurde.]
  2. Duve beschreibt den Kernsachverhalt so, dass wir ein Abhängigkeitsverhältnis haben von der DNA (die zur Replikation fähig ist) über eine Transkription zur RNA (die in speziellen Fällen, Viren, auch zur Replikation fähig ist) mittels Translation (Übersetzung) zu den Proteinen (vgl. S.55f) ; von den Proteinen gäbe es keinen Weg zurück zur RNA (vgl. S.56f). Die RNA hat dabei auch eine enzymatisch-katalytische Rolle.
  3. [ANMERKUNG: Für einen Interpretationsversuch zur möglichen Bedeutung des Begriffs ‚Information‘ in diesem Kontext bietet sich vor allem der Sachverhalt an, dass die ‚Konstruktion‘ eines DNA-Moleküls bzgl. der Anordnung der einzelnen Aminosäurebausteinen nicht deterministisch festgelegt ist. Ist erst einmal ein DNA-Molekül ‚zustande gekommen‘, dann kann es innerhalb des Replikationsmechanismus (kopieren, mischen und mutieren) so verändert werden, dass es nach der Replikation ‚anders‘ aussieht. Diese nicht-deterministischen Veränderungsprozesse sind völlig unabhängig von ihrer möglichen ‚Bedeutung‘! Es ist etwa so, wie ein kleines Kind, das mit einem Haufen von Buchstaben spielen würde, allerdings mit der kleinen Vorgabe, dass es eine fertige ‚Kette‘ von Buchstaben bekommen würde, die es zerschneiden darf, neu zusammenfügen, und gelegentlich einzelne Stellen austauschen darf.
  4. Die Übersetzung dieser DNA-Ketten in Proteine erfolgt dann über den RNA-gesteuerten Mechanismus. Diese Übersetzung folgt ‚in sich‘ festen Regeln, ist von daher im Prinzip deterministisch. Dies bedeutet, dass ohne die DNA-Ketten zwar deterministische Prozesse möglich sind, allerdings ohne die ‚freie Kombinierbarkeit‘ wie im Falle der DNA-Ketten (was aber, siehe Viren, im Prinzp auch gehen könnte). Die standardmäßige Trennung von Replikation und Translation deutet indirekt daraufhin, dass mit dieser Trennung irgendwelche ‚Vorteile‘ einher zugehen scheinen.
  5. Der Clou scheint also darin zu liegen, dass durch die Entkopplung von chemisch fixierten (deterministischen) Übersetzungsmechanismen von den freien erinnerungs- und zufallsgesteuerten Generierungen von DNA-Ketten überhaupt erst die Voraussetzung geschaffen wurde, dass sich das ‚Zeichenmaterial‘ von dem ‚Bedeutungsmaterial‘ trennen konnte. Damit wiederum wurde überhaupt erst die Voraussetzung für die Entstehung von ‚Zeichen‘ im semiotischen Sinne geschaffen (zu ‚Zeichen‘ und ’semiotisch‘ siehe Noeth (2000)). Denn nur dann, wenn die Zuordnung zwischen dem ‚Zeichenmaterial‘ und dem möglichen ‚Bedeutungsmaterial‘ nicht fixiert ist, kann man von einem Zeichen im semiotischen Sinne sprechen. Wir haben es also hier mit der Geburt des Zeichens zu tun (und damit, wenn man dies unbedingt will, von den ersten unübersehbaren Anzeichen von Geist!!!).
  6. Die Rede von der Information ist in diesem Kontext daher mindestens missverständlich, wenn nicht gar schlichtweg falsch. Bislang gibt es überhaupt keine allgemeine Definition von Information. Der Shannonsche Informationsbegriff (siehe Shannon und Weaver (1948)) bezieht sich ausschließlich auf Verteilungseigenschaften von Elementen einer endlichen Menge von Elementen, die als Zeichenmaterial (Alphabet) in einem technischen Übermittlungsprozeß benutzt werden, völlig unabhängig von ihrer möglichen Bedeutung. Mit Zeichen im semiotischen Sinne haben diese Alphabetelemente nichts zu tun. Daher kann Shannon in seiner Theorie sagen, dass ein Element umso ‚wichtiger‘ ist, je seltener es ist.  Hier von ‚Information‘ zu sprechen ist technisch möglich, wenn man weiß, was man definiert; diese Art von Information hat aber mit der ‚Bedeutung‘ von Zeichen bzw. der ‚Bedeutung‘ im Kontext von DNA-Ketten nichts zu tun. Die Shannonsche Information gab und gibt es auch unabhängig von der Konstellation DNA – RNA – Proteine.
  7. Auch der Informationsbegriff von Chaitin (1987, 2001) bezieht sich ausschließlich auf Verteilungseigenschaften von Zeichenketten. Je weniger ‚Zufall‘ bei der Bildung solcher Ketten eine Rolle spielt, also je mehr ‚regelhafte Wiederholungen (Muster, Pattern)‘ auftreten, um so eher kann man diese Ketten komprimieren. Benutzt man dann dazu das Shannonsche Konzept, dass der ‚Informationsgehalt‘ (wohlgemerkt ‚Gehalt‘ hier nicht im Sinne von ‚Bedeutung‘ sondern im Sinne von ‚Seltenheit‘!) umso größer sei, je ’seltener‘ ein Element auftritt, dann nimmt der Informationsgehalt von Zeichenketten mit der Zunahme von Wiederholungen ab. Insofern Zeichenketten bei Chaitin Algorithmen repräsentieren können, also mögliche Anweisungen für eine rechnende Maschine, dann hätten nach dieser Terminologie jene Algorithmen den höchsten ‚Informationsgehalt (im Sinne von Shannon)‘, die die wenigsten ‚Wiederholungen‘ aufwiesen; das wären genau jene, die durch eine ‚zufällige Bildung‘ zustande kommen.
  8. Lassen wir den weiteren Aspekt mit der Verarbeitung durch eine rechnende Maschine hier momentan mal außer Betracht (sollte wir später aber noch weiter diskutieren), dann hätten DNA-Ketten aufgrund ihrer zufälligen Bildung von ihrer Entstehung her einen maximale Informationsgehalt (was die Verteilung betrifft).
  9. Die Aussage, dass mit der DNA-RNA die ‚Information‘ in das Geschehen eingreift, ist also eher nichtssagend bzw. falsch. Dennoch machen die speziellen Informationsbegriffe von Shannon und Chaitin etwas deutlich, was die Ungeheuerlichkeit an der ‚Geburt des Zeichens‘ verstärkt: die zufallsgesteuerte Konstruktion von DNA-Ketten verleiht ihnen nicht nur eine minimale Redundanz (Shannon, Chaitin) sondern lässt die Frage aufkommen, wie es möglich ist, dass ‚zufällige‘ DNA-Ketten über ihre RNA-Interpretation, die in sich ‚fixiert‘ ist, Protein-Strukturen beschreiben können, die in der vorausgesetzten Welt lebensfähig sind? Zwar gibt es im Kontext der biologischen (= zeichengesteuerten) Evolution noch das Moment der ‚Selektion‘ durch die Umwelt, aber interessant ist ja, wie es durch einen rein ‚zufallsgesteuerten‘ DNA-Bildungsprozess zu Ketten kommen kann, die sich dann ‚positiv‘ selektieren lassen. Dieses Paradox wird umso stärker, je komplexer die Proteinstrukturen sind, die auf diese Weise erzeugt werden. Die ‚Geordnetheit‘ schon einer einzigen Zelle ist so immens groß, dass eine Beschreibung dieser Geordnetheit durch einen ‚zufälligen‘ Prozess absurd erscheint. Offensichtlich gibt es hier noch einen weiteren Faktor, der bislang nicht klar identifiziert wurde (und der muss im Generierungsprozess von DNA-Ketten stecken).]
  10. [ANMERKUNG: Eine erste Antwort steckt vielleicht in den spekulativen Überlegungen von Duve, wenn er die Arbeiten von Spiegelmann (1967), Orgel (1979) und Eigen (1981) diskutiert (vgl. S.57-62). Diese Arbeiten deuten daraufhin, dass RNA-Molküle Replizieren können und Ansätze zu evolutionären Prozessen aufweisen. Andererseits sind RNA-Moleküle durch Übersetzungsprozesse an Proteinstrukturen gekoppelt. Wenn also beispielsweise die RNA-Moleküle vor den DNA-Ketten auftraten, dann gab es schon RNA-Ketten, die sich in ihrer jeweiligen Umgebung ‚bewährt‘ hatten. Wenn nun — auf eine Weise, die Duve nicht beschreibt — zusätzlich zu den RNA-Ketten DNA-Ketten entstanden sind, die primär nur zur Replikation da waren und die RNA-Ketten dann ’nur‘ noch für die Übersetzung in Proteinstrukturen ‚zuständig‘ waren, dann haben die DNA-Ketten nicht bei ‚Null‘ begonnen sondern repräsentierten potentielle Proteinstrukturen, die sich schon ‚bewährt‘ hatten. Der Replikationsmechanismus stellte damit eine lokale Strategie dar, wie die im realen Raum vorhandenen DNA/ RNA-Ketten den ‚unbekannten Raum‘ möglicher weiterer Proteinstrukturen dadurch ‚absuchen‘ konnten, dass neue ‚Suchanfragen‘ in Form neuer DNA-Moleküle gebildet wurden. Der ‚Akteur‘ war in diesem Fall die komplette Umgebung (Teil der Erde), die mit ihren physikalisch-chemischen Eigenschaften diese Replikationsprozesse ‚induzierte‘. Die einzige Voraussetzung für einen möglichen Erfolg dieser Strategie bestand darin, dass die ‚Sprache der DNA‘ ‚ausdrucksstark‘ genug war, alle für das ‚hochorganisierte Leben‘ notwendigen ‚Ausdrücke‘ ‚bilden‘ zu können. Betrachtet man den RNA-Proteinkonstruktionsprozess als die ‚Maschine‘ und die DNA-Ketten als die ‚Anweisungen‘, dann muss es zwischen der RNA-Proteinmaschine‘ und den DNA-Anweisungen eine hinreichende Entsprechung geben.]
  11. [ANMERKUNG: Die Überlegungen von Duve haben einen weiteren kritischen Punkt erreicht. Um die Optimierung des Zusammenspiels zwischen RNA und Proteinen und ihren Vorformen erklären zu können, benötigt er einen Rückkopplungsmechanismus, der ein schon vorhandenes ‚Zusammenspiel‘ von allen beteiligten Komponenten in einer gemeinsamen übergeordneten Einheit voraussetzt. Diese hypothetische übergeordnete gemeinsame Einheit nennt er ‚Protozelle‘ (‚protocell‘). (vgl.S.65f)]
  12. Die Protein-Erzeugungsmaschinerie (‚proteine-synthesizing machinery‘) besteht aus mehreren Komponenten. (i) Das Ribosom heftet eine Aminosäure an eine wachsende Peptid-Kette, quasi ‚blindlings‘ entsprechend den determinierenden chemischen Eigenschaften. (vgl. S.66) Das Bindeglied zwischen den ‚informierenden‘ Aminosäuren und den zu bildenden Petidketten (Proteinen) bildet die ‚Boten-RNA‘ (‚messenger RNA, mRNA‘), in der jeweils 3 Aminosäuren (Aminosäuren-Triplets) als ‚Kodon‘, also 4^3=64, eine von 64 möglichen Zieleinheiten kodieren. Dem Kodon entspricht in einer ‚Transport-RNA‘ (‚transfer-RNA, tRNA‘) dann ein ‚Antikodon‘ (ein chemisch komplementäres Aminosäure-Triplet), an das genau eine von den 22 (21) biogenen Aminosäuren ‚angehängt‘ ist. Durch diesen deterministischen Zuordnungsprozess von mRNA-Kodon zu tRNA-Antikodon und dann Aminosäure kann eine Peptidkette (Protein) Schritt für Schritt entstehen. Diejenigen Zieleinheiten aus den 64 Möglichen, die nicht in eine Aminosäure übersetzt werden, bilden ‚Befehle‘ für die ‚Arbeitsweise‘ wie z.B. ‚Start‘, ‚Stopp‘. Dieser ‚Kode‘ soll nach Duve ‚universal‘ für alle Lebewesen gelten. (vgl. S.66f)
  13. [ANMERKUNG: Für eine vergleichende Lektüre zu diesem zentralen Vorgang der Proteinbildung sei empfohlen, die immer sehr aktuellen Versionen der entsprechenden englischsprachigen Wikipediabeiträge zu lesen (siehe unten Wkipedia (en).]
  14. Duve weist ausdrücklich darauf hin, dass die eigentliche ‚Übersetzung‘, die eigentliche ‚Kodierung‘ außerhalb, vorab zu dem mRNA-tRNA Mechanismus liegt. Der ribosomale Konstruktionsprozess übernimmt ja einfach die Zuordnung von Antikodon und Aminosäure, wie sie die Transfer-RNA liefert. Wann, wie und wo kam es aber zur Kodierung von Antikodon und Aminosäure in dem Format, das dann schließlich zum ‚Standard‘ wurde? (vgl. S.69)
  15. Letztlich scheint Duve an diesem Punkt auf der Stelle zu treten. Er wiederholt hier nur die Tatsachen, dass RNA-Moleküle mindestens in der dreifachen Funktionalität (Botschaft, Transfer und Konformal) auftreten können und dass sich diese drei Funktionen beim Zusammenbauen von Peptidketten ergänzen. Er projiziert diese Möglichkeit in die Vergangenheit als möglichen Erklärungsansatz, wobei diese reine Möglichkeit der Peptidwerdung keinen direkten ‚evolutionären Fitnesswert‘ erkennen lässt, der einen bestimmte Entwicklungsprozess steuern könnte.(vgl. S.69f) Er präzisiert weiter, dass der ‚Optimierung‘ darin bestanden haben muss, dass — in einer ersten Phase — ein bestimmtes Transfer-RNA Molekül hochspezifisch nur eine bestimmte Aminosäure kodiert. In einer nachfolgenden Phase konzentrierte sich die Optimierung dann auf die Auswahl der richtigen Boten-RNA. (vgl.S.70f)
  16. [ANMERKUNG: Das alles ist hochspekulativ. Andererseits, die ‚Dunkelheit‘ des Entstehungsprozesses ist nicht ‚völlige Schwärze‘, sondern eher ein ’nebliges Grau‘, da man sich zumindest grundsätzlich Mechanismen vorstellen kann, wie es gewesen sein könnte.]
  17. Duve reflektiert auch über mögliche chemische Präferenzen und Beschränkungen innerhalb der Bildung der Zuordnung (= Kodierung) von Kodons und Antikodons mit der Einschätzung, dass die fassbaren chemischen Eigenschaften darauf hindeuten, dass eine solche Zuordnung nicht ohne jede Beschränkung, sprich ’nicht rein zufällig‘ stattgefunden hat.(vgl. S.72f)
  18. [ANMERKUNG: Der spekulative Charakter bleibt, nicht zuletzt auch deswegen, weil Duve schon für den ‚evolutionären‘ Charakter der Kodon-Antikodon Entwicklung das fiktive Konzept einer ‚Protozelle‘ voraussetzen muss, deren Verfügbarkeit vollständig im Dunkel liegt. Etwas kaum Verstandenes (= die Kodon-Antikodon Zuordnung) wird durch etwas an dieser Stelle vollständig Unverstandenes (= das Konzept der Protozelle) ‚erklärt‘. Natürlich ist dies keine echte Kritik an Duve; schließlich versucht er ja — und darin mutig — im Nebel der verfügbaren Hypothesen einen Weg zu finden, der vielleicht weiter führen könnte. In solchen unbefriedigenden Situationen wäre eine ‚vornehme Zurückhaltung‘ fehl am Platze; Suchen ist allemal gefährlich… ]
  19. Duve geht jedenfalls von der Annahme aus, dass ein evolutionärer Prozess nur in dem Umfang effektiv einsetzen konnte, als die Veränderung der Kodon-Antikodon Zuordnung samt den daraus resultierenden chemischen Prozessen (Katalysen, Metabolismus…) insgesamt ein Trägersystem — in diesem Fall die vorausgesetzte Protozelle — ‚positiv‘ unterstützte und ‚überlebensfähiger‘ machte. (vgl. S.73f)
  20. Ungeachtet der Schwierigkeit, die Details des Entstehungsprozesses zum jetzigen Zeitpunkt zu enthüllen, versucht Duve weitere Argumente zu versammeln, die aufgrund allgemeiner Eigenschaften des Entstehungsprozesses den evolutionären Charakter dieses Prozesses weiter untermauern.
  21. Generell gehört es zu einem evolutionären Prozess, dass die Entwicklung zum Zeitpunkt t nur auf das zurückgreifen kann, was an Möglichkeiten zum Zeitpunkt t-1 zur Verfügung gestellt wird, also change: STATE —> STATE. Dies schränkt den Raum der Möglichkeiten grundsätzlich stark ein. (vgl. S.75, 77)
  22. Da es bei der Übersetzung von mRNA in Peptide zu Fehlern kommen kann (Duve zitiert Eigen mit der quantitativen Angabe, dass auf 70 – 100 übersetzten Aminosäuren 1 Baustein falsch ist ), bedeutet dies dass die ersten Kodon-Antikodon Zuordnungen in Gestalt von mRNA Molekülen aufgrund dieser Fehlerrate nur 60 – 90 Einheiten lang sein konnten, also nur 20 – 30 Aminosäuren kodieren konnten. (vgl. S.76)
  23. Rein kombinatorisch umfasst der Möglichkeitsraum bei 20 Aminosäuren 20^n viele Varianten, also schon bei einer Länge von nur 100 Aminosäuren 10^130 verschiedene Moleküle. Rein praktisch erscheint nach Duve ein solcher Möglichkeitsraum zu groß. Nimmt man hingegen an — was nach Duve der tatsächlichen historischen Situation eher entsprechen soll –, dass es zu Beginn nur 8 verschiedene Aminosäuren gab die zu Ketten mit n=20 verknüpft wurden, dann hätte man nur 8^20 = 10^18 Möglichkeiten zu untersuchen. In einem kleinen Tümpel (‚pond‘) erscheint das ‚Ausprobieren‘ von 10^18 Variationen nach Duve nicht unrealistisch.(vgl. S.76)
  24. Schließlich führt Duve noch das Prinzip der ‚Modularität‘ ein: RNA-Moleküle werde nicht einfach nur ‚Elementweise‘ verlängert, sondern ganze ‚Blöcke‘ von erprobten Sequenzen werden kombiniert. Dies reduziert einserseits den kombinatorischen Raum drastisch, andererseits erhöht dies die Stabilität. (vgl. S.77)

Fortsetzung folgt…

LITERATURVERWEISE

Chaitin, G.J; Algorithmic information theory. Cambridge: UK, Cambridge University Press, (first:1987), rev.ed. 1988, 1990, 1992, ,paperback 2004

Chaitin, G.J; Exploring Randomness. London: UK, Springer Ltd., (2001, corr. 2001), 3rd printing 2002

Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000

Claude E. Shannon A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (online: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; zuletzt besucht: May-15, 2008)

Claude E. Shannon; Warren Weaver The mathematical theory of communication. Urbana – Chicgo: University of Illinois Press, 1948.

Wikipedia (en): Genetischer Kode: http://en.wikipedia.org/wiki/Genetic_code, Ribosom: http://en.wikipedia.org/wiki/Ribosome, Protein Biosynthesis: http://en.wikipedia.org/wiki/Protein_biosynthesis, Aminosäuren: http://en.wikipedia.org/wiki/Amino_acid, Proteinoide Aminosäuren:http://en.wikipedia.org/wiki/Proteinogenic_amino_acid (Alle Links zuletzt besucht: Mo, 29.Okt.2012)

Für einen Überblick über alle bisherigen Einträge nach Titeln siehe HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.