Archiv der Kategorie: Semiotik

Eine Welt ohne Seele und freien Willen? – Teil 2

Reflexionen im Anschluss an Herms: Horizont der Hirnforschung….

Letzte Änderung: 2.März 2013, 10:10h (Anmerkung am Ende des Artikels)

PHILOSOPHIE

Herms nutzt in seinem Denken über das Ganze die phänomenologische Tradition, hier insbesondere Husserl und Heidegger (mündlich bestätigt). Die phänomenologische Tradition in der Philosophie wurde in diesem Blog schon mehrfach diskutiert (siehe Themenüberblick). Ihre Stärke liegt eindeutig darin, dass sie den Ankerpunkt unseres subjektiven Denkens ernst nimmt und die Wirklichkeit, wie sie sich dort darbietet, so voraussetzungslos wie möglich wahrzunehmen und zu beschreiben versucht. Die Schwierigkeiten, die sich hier bieten, wurden schon oft von sehr vielen reflektiert und angemerkt.

Positiv kann man festhalten, dass der gesamte Erkenntnishorizont eines Individuums dort aufscheint und sich in seiner Gesamtheit besprechen lässt. Man kann auch weitere Reflexionsschichten eröffnen und als solche benennen und explizieren. Einzelwissenschaftliche Erkenntnisse erscheinen hier als Teilmengen in der Gesamtmenge der Phänomene und die diversen begrifflichen Explikationen sind Teilmodelle im Gesamtrahmen möglicher Modelle. Aus phänomenologischer Sicht ist das Individuum daher grundsätzlich ‚mehr‘ als eine einzelwissenschaftliche Beschreibung eines Weltausschnitts.

Andererseits gibt es grundsätzliche Grenzen der phänomenologischen Weltsicht. Die eine resultiert aus den vorgegebenen Grenzen des einzelnen Bewusstseinsraumes, die andere aus der Existenz vieler Bewusstseinsräume, die sich über die Interaktion von Wahrnehmungsräumen erschließen kann.

Erscheint ‚der Andere‘ innerhalb der Phänomene zunächst nur als ‚Oberfläche‘ mit sich veränderten Phänomenmengen als ‚Manifestationen‘ eines möglichen ‚Zusammenhangs‘, so erzwingt das soziale Zusammenleben schon sehr früh eine ‚auf-den-anderen-bezogene‘ Modellbildung im (betrachtenden individuellen) Phänomenraum. Dies bedeutet, dass der aktive Phänomenraum die auftretenden Phänomensequenzen ‚versuchsweise/ hypothetisch‘ mit Teilen seines ‚Selbsmodells‘ in Verbindung bringen muss, um diese Phänomensequenzen des potentiell Anderen zu ‚interpretieren‘.

Sei PH der jeweils aktive Phänomenraum, seien PH_a jene Sequenzen von Phänomenen aus PH, die man einem ‚bestimmten Anderen‘ zuordnen möchte, also PH_a subset pow(PH^n), und sei M ein expliziertes Modell innerhalb von PH über Teilbereiche von PH, also M:PH —> PH (!!! Ein logisches Paradoxon, da M auch in PH liegt !!!), dann wäre eine ‚Interpretation‘ eine Abbildung zwischen PH_a und solch einem M, also I: Ph_a —> M. Dies zeigt u.a., dass jemand einen potentiell anderen nur insoweit verstehen kann, als er über ein explizites Selbstmodell verfügt. Normalerweise führt solch eine Interpretation I(PH_a) auch dazu, dass der aktive Phänomenraum PH ‚unterstellt/ annimmt‘, dass das explizierte Selbstmodell M ‚im anderen‘ auch ‚gegeben‘ ist und im anderen ‚funktioniert‘. Dies ist eine Art ‚Ontologisierung‘ des Selbstmodells im anderen, eine Form von ‚realistischer Transzendenz‘. Man könnte also sagen, dass das Selbstmodell in seiner Projektion auf einen anderen — nennen wir es M_a — ein Modell des Anderen darstellt.

Interaktionen im ‚vorsprachlichen‘ Bereich können unterschiedliche ‚Bestätigungen‘ für die Interpretation I(Ph_a) liefern, sie sind allerdings nur sehr grob. Durch Einbeziehung der Sprache lässt sich die Bestätigung — und eventuell die Interpretation I(PH_a) selbst — verfeinern.

Dazu muss man sich kurz vergegenwärtigen, wie Sprache funktioniert. In der Tradition von Peirce, Saussure und Morris kann man einen Zeichenbegriff extrahieren, in dem ‚Zeichenmaterial‘ ZM subset PH mit anderen Phänomenen PH_x subset PH ‚assoziiert‘ wird, und zwar als ‚aktivierbare Beziehung‘ BED(ZM,PH_x). Phänomenologisch ist diese Beziehung nicht ‚explizit‘, d.h. sie ist kein Phänomen wie ein sensorisches Phänomen, das ‚auftritt‘, sondern es ist ein ‚Wirkzusammenhang‘, der sich ‚indirekt andeutet‘. Also wenn das Phänomen ‚Haus‘ als Zeichenmaterial auftritt, dann werden diverse andere assoziierte Phämene PH_haus auftreten, da sie in einer aktivierbaren Beziehung zu ‚Haus‘ stehen. Diese phänomenologische Wenn-Dann-Beziehung kann man erklären durch die Annahme einer Hilfsstruktur ‚Gedächtnis‘ (MEM), deren Inhalte als solche ‚unbewusst‘ sind, die aber über den aktiven Phänomenraum PH ‚zugänglich‘ sind, so eine Art ‚phänomenologische Schnittstelle‘. Diese ‚indirekten‘ Phänomene berühren einen Sachverhalt, den wir weiter unten noch diskutieren werden.

Unter Voraussetzung von Bedeutungsbeziehungen kann man sich immer komplexere Hierarchien solcher Beziehungen denken, die es erlauben, ‚Ketten von Zeichen‘ zu bilden, bis hin zu dem, was wir Äußerungen, Sätze nennen. Diese Bedeutungsbeziehungen beruhen auf den Phänomenen eines aktiven Phänomenraumes PH. In Kombination mit dem Modell des Anderen M_a können jetzt Zeichenbeziehungen dazu benutzt werden, differenzierte Strukturen mit Hilfe des Selbstmodells M zu kodieren, die dann über das Konstrukt ‚Modell des Anderen M_a‘ auch ‚im anderen unterstellt werden können‘.

Diese Annahme macht allerdings nur Sinn, wenn man zugleich annimmt — ganz im Sinne der Bildung eines Fremdmodells M_a überhaupt — dass die Gesetze des aktiven Phänomenraumes PH auch im anderen M_a gelten (Symmetrie, Homomorphie,…)!!! Je mehr man diese Annahmen akzeptiert, um so mehr wird klar, dass man eine mögliche explizite Beschreibung M eines aktiven Phänomenraumes PH ergänzen sollte um eine ‚Metaebene‘ MM, die nicht mehr nur über einen einzelnen Phänomenraum PH spricht, sondern über die Menge aller möglichen Phänomenräume UPH. Diese universelle Menge UPH ist rein fiktiv, rein gedacht, und doch kann sie durch Interaktionen einer mehr oder weniger großen Bestätigung zugeführt werden. MM wäre eine genuin philosophische Theorie!

Kommen wir zurück zum Phänomen der indirekten Bedeutungsbeziehung und dem Konzept des ‚unbewussten‘.

Grundsätzlich ist die Annahme des Unbewussten M_ubw nicht sehr anders als die Annahme eines ‚Anderen‘ M_a. Es gibt bestimmte Phänomene, die sich in der Zeit verteilen, die aber einen ‚übergreifenden Zusammenhang‘ offenbaren (der letztlich schon immer ein Konstrukt wie ein Gedächtnis voraussetzt), der als ‚Zusammenhang‘ zu thematisieren ist. Analog wie man im Falle des Anderen, wo man ‚hinter der Oberfläche‘ eine Struktur M_a annehmen muss, kann man auch ‚hinter dem aktiven Phänomenraum‘ PH Strukturen annehmen, den ‚Körper‘, das ‚Gedächtnis‘, usw. Dies führt dazu, dass man das Selbstmodell M entsprechend ‚erweitern‘ muss. Je differenzierter das Selbstmodell M wird, umso differenzierter wird auch das Modell des anderen M_a und das universelle Modell MM.

WELTHEORIE?

Mit den obigen Überlegungen eröffnet sich die Perspektive einer möglichen phänomenologischen Theorie der Welt, in der alle Teiltheorien integriert werden können. Meines Wissens hat dies bis heute noch niemand versucht. Es wäre interessant, zu schauen, inwieweit eine solche Theorie helfen könnte, aktuelle Bruchstellen durch die Vielzahl der nicht integrierten Teiltheorien ein wenig zu überbrücken.

THEOLOGIE

Der Theologe Prof. Herms hatte ziemlich zu Beginn seines Vortrags vermerkt, dass sein Verständnis von Theologie nicht so sei, wie die meisten sich Theologie vorstellen. Diese zunächst kryptische Bemerkung gewann im Laufe seines Vortrags mehr und mehr Gestalt. Durch seine philosophische Grundausrichtung benötigt er zunächst keine offenbarungsspezifische Inhalte, da er nach den allgemeinen Bedingungen von Leben (und Erkennen) fragt. Aus diesen allgemeinen Bedingungen kann er dann allgemeine Prinzipien ableiten, innerhalb deren wir uns als Lebende orientieren sollten. Übernimmt man diese Position dann kann man sogar die Grundsatzfrage stellen, ob man überhaupt offenbarungsspezifische Inhalte noch benötigt, da ja diese keinesfalls im Gegensatz zu den allgemeinen Prinzipien stehen dürften. Vielmehr müsste es so sein, dass die potentiellen ‚Offenbarungsinhalte‘ nichts anderes sind als Instanzen dieses allgemeinen Möglichkeitsraumes.

Innerhalb des Vortrags wurde diese Fragen nicht Thema, da Herms sich auf die allgemeine Perspektive und daraus resultierenden allgemeinen Prinzipien beschränkte.

Allerdings könnte man — oder müsste man sogar? — natürlich die Frage aufwerfen, inwieweit nicht die tatsächlichen Realisierungen — wie auch im Falle der Entwicklung des Universums, der Milchstraße, der Erde, des Lebens auf der Erde … — dann doch in ihrer Konkretheit eine wichtige Aussage darstellen können. Konfrontiert mit den konkreten Ergebnissen der biologischen Evolution hat man auch dieses Dilemma: (i) relativiert man die gewordene Konkretheit durch den Verweis auf den allgemeinen Möglichkeitsraum oder (ii) nimmt man die Konkretheit ‚beim Wort‘ und sieht in ihre eine Form von ‚Mitteilung‘. Im letzteren Fall wäre die ‚Konkretheit an sich‘ dann eine Form von ‚Offenbarung‘ einer unterstellten ‚Superwirklichkeit‘, die ‚ihr Inneres‘ über die ungeheuren Werdeprozesse in der jeweiligen Konkretheit zeigt und — im Falle des menschlichen Bewusstseins — sich quasi ’selbst anschaut‘! Menschliches Bewusstsein also als eine Art ‚Minimodell‘ von universaler ‚Selbstanschauung‘ als Hinweis auf die ‚wahre Natur‘ des im Werden des Universums sich andeutenden Superwirklichkeit.

Diese Perspektive des allgemeinen Werdens als ‚möglicher Offenbarung‘ würde damit in jeder Art von Konkretisierung eine Aussage zutreffen. Vor diesem Hintergrund sind alle historisch überlieferten spezielle Ereignisse, die von Menschen als ‚offenbarungsrelevant‘ qualifiziert wurden, interessantes empirisches Material, das entweder das allgemeines Offenbarungskonzept zusätzlich konkretisieren kann oder aber nicht kompatibel ist. Im Falle der Nichtübereinstimmung (Inkompatibilität) würde dies dann eher gegen (!) die spezifischen Stoffe sprechen, da die Fülle der allgemein zusätzlichen Daten um ein Vielfaches größer ist als fragil überlieferte historische Ereignisse.

Versteht man Theologie als jene Denkhaltung und Theoriebildung, die von der allgemeinen Offenbarung ausgeht, um innerhalb dieses Rahmens mögliche konkrete Inhalte zu studieren, dann würde ich mein Erkenntnisinteresse auch als ‚theologisch‘ qualifizieren. Ich habe auch den Eindruck, dass Prof. Herms sich so versteht. Eine endgültige Bestätigung müsste ein Gespräch liefern. Ferner unterscheidet sich solch eine allgemein orientierte Theologie nicht grundsätzlich von einer philosophischen Gesamttheorie der Welt, höchstens in einer unterschiedlichen Akzentsetzung: die philosophische Gesamttheorie der Welt MM orientiert sich primär an den allgemeinen Erkenntnisstrukturen und der möglichen Integration des Einzelwissens, während eine Allgemeine Theologie sich speziell für den Aspekt einer möglichen Mitteilung durch das Gesamtgeschehen interessiert.

Diese spezifische Interessenrichtung der Theologie hat eine spezielle Pragmatik im Gefolge: während die Einzelwissenschaften (und die Philosophie) letztlich objektivierbare Messverfahren benutzen, um ihre Daten zu sichern, kann die Theologie darüber hinaus (!) die spezifischen bewusstseinsgebundenen Erfahrungsmöglichkeiten benutzen, die unter dem Begriff ‚Gotteserfahrung‘ gehandelt werden.

Der Kern des Konzepts ‚Gotteserfahrung‘ besteht — zumindest in der jüdisch-christlichen — Tradition darin, dass die Arbeitshypothese einer ‚Superwirklichkeit‘ genannt ‚Gott‘ (deus, theos, Jahwe,….) davon ausgeht, dass diese Superwirklichkeit sich nicht nur über die allgemeinen Offenbarungsstrukturen ‚mitteilen‘ kann, sondern auch zugleich ganz individuell in jedem Bewusstseinsraum (angesichts der neuesten Erkenntnisse zur Struktur der Materie grundsätzlich zumindest kein physikalisches Problem). Diese ‚Mitteilungen‘ haben — nimmt man die bekannten Zeugnisse ernst — (i) die Form von spezifischen ‚Gefühlsregungen‘, ‚Stimmungen‘, bisweilen begleitet von weiteren ‚Vorstellungsinhalten‘. Dabei kommt es auch hier nicht auf das ‚punktuelle‘ Erleben alleine an, sondern auf die ‚Abfolge verschiedener solcher Erlebnisse‘ und deren ‚Deutung‘ in Form eines Modells. Ferner (ii) implizieren sie normalerweise bestimmte Handlungen, um diese Art von innerem Erleben nicht zum ‚Versiegen‘ zu bringen, und (iii) können diese inneren Erlebnisse nicht durch das eigene Wollen verursacht werden, sondern gehen ‚von einem anderen‘ aus (dies unterscheidet Gotteserfahrung wesentlich von jeglicher Form von ‚Meditation‘, die sich auf selbstinszenierte Zustände bezieht). Im einzelnen sind diese Tatbestände eingebettet in das ‚allgemeine Rauschen des Alltags‘ und bedürfen — wie alle anderen Lernprozesse auch — meist eine Praxis von vielen, vielen Jahren, um sie wirklich zu ‚beherrschen‘, und, wie auch beim allgemeinen Lernen, geht es meist nicht ohne ‚Lehrer‘ im Sinne von ‚geistlichen Führern‘ ab. Durch die unvermeidbar radikal subjektivistischen Anteile bleibt all dies immer schwierig. Denken alleine hilft nicht. Praxis ohne Denken kann durch unreflektierte Interpretationen zu vielen falschen Schlüssen kommen.

Es ist schwer zu sagen, ob und wieweit die bekannten kirchlichen Gemeinschaften in der Lage sind, solche ‚geistliche (= spirituelle, mystische) Erfahrungen‘ angemessen zu vermitteln. Wir befinden uns hier in einer rechten Grauzone. Die offiziellen theologischen Positionen und die bekannten kirchlichen Praktiken sprechen eher gegen die Annahme.

Anmerkung 2.3.13: Eine Fortsetzung dieser Überlegungen findet sich im nachfolgenden Beitrag Gott ohne Kirche …. Der zentrale Punkt ist eigentlich ein neues Verständnis von Theologie und Offenbarung, durch die ‚Kirchen‘ nicht eigentlich verschwinden, aber stark relativiert werden auf ihren wesentlichen Punkt: ihre einzige Existenzberechtigung liegt in ihrem möglichen Dienst, anderen Menschen zu helfen, ihre Gottesbeziehung zu finden und zu leben. Wenn sie darin versagen, verlieren sie ihre Existenzberechtigung.

Einen Überblick über alle Beiträge des Blogs nach Themen findet sich HIER

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500
Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 3

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 25.Okt.2012, 23:30h
Letzte Änderung: 10.Nov. 2012, 10:30h

Für Teil2 siehe HIER

  1. [ANMERKUNG: Obwohl Duve den Begriff der Information im Text immer wieder verwendet, wird der Begriff bislang nicht definiert. Selbst an der Stelle, an der er vom Ende der chemischen Evolution spricht, die dann mit Hilfe von DNA/ RNA in die informationsgeleitete Entwicklung übergeht, findet man keine weitere Erklärung. Der einzige greifbare Anhaltspunkt ist der Bezug zur DNA/ RNA, wobei offen bleibt, warum die DNA der RNA vorgeschaltet wurde.]
  2. Duve beschreibt den Kernsachverhalt so, dass wir ein Abhängigkeitsverhältnis haben von der DNA (die zur Replikation fähig ist) über eine Transkription zur RNA (die in speziellen Fällen, Viren, auch zur Replikation fähig ist) mittels Translation (Übersetzung) zu den Proteinen (vgl. S.55f) ; von den Proteinen gäbe es keinen Weg zurück zur RNA (vgl. S.56f). Die RNA hat dabei auch eine enzymatisch-katalytische Rolle.
  3. [ANMERKUNG: Für einen Interpretationsversuch zur möglichen Bedeutung des Begriffs ‚Information‘ in diesem Kontext bietet sich vor allem der Sachverhalt an, dass die ‚Konstruktion‘ eines DNA-Moleküls bzgl. der Anordnung der einzelnen Aminosäurebausteinen nicht deterministisch festgelegt ist. Ist erst einmal ein DNA-Molekül ‚zustande gekommen‘, dann kann es innerhalb des Replikationsmechanismus (kopieren, mischen und mutieren) so verändert werden, dass es nach der Replikation ‚anders‘ aussieht. Diese nicht-deterministischen Veränderungsprozesse sind völlig unabhängig von ihrer möglichen ‚Bedeutung‘! Es ist etwa so, wie ein kleines Kind, das mit einem Haufen von Buchstaben spielen würde, allerdings mit der kleinen Vorgabe, dass es eine fertige ‚Kette‘ von Buchstaben bekommen würde, die es zerschneiden darf, neu zusammenfügen, und gelegentlich einzelne Stellen austauschen darf.
  4. Die Übersetzung dieser DNA-Ketten in Proteine erfolgt dann über den RNA-gesteuerten Mechanismus. Diese Übersetzung folgt ‚in sich‘ festen Regeln, ist von daher im Prinzip deterministisch. Dies bedeutet, dass ohne die DNA-Ketten zwar deterministische Prozesse möglich sind, allerdings ohne die ‚freie Kombinierbarkeit‘ wie im Falle der DNA-Ketten (was aber, siehe Viren, im Prinzp auch gehen könnte). Die standardmäßige Trennung von Replikation und Translation deutet indirekt daraufhin, dass mit dieser Trennung irgendwelche ‚Vorteile‘ einher zugehen scheinen.
  5. Der Clou scheint also darin zu liegen, dass durch die Entkopplung von chemisch fixierten (deterministischen) Übersetzungsmechanismen von den freien erinnerungs- und zufallsgesteuerten Generierungen von DNA-Ketten überhaupt erst die Voraussetzung geschaffen wurde, dass sich das ‚Zeichenmaterial‘ von dem ‚Bedeutungsmaterial‘ trennen konnte. Damit wiederum wurde überhaupt erst die Voraussetzung für die Entstehung von ‚Zeichen‘ im semiotischen Sinne geschaffen (zu ‚Zeichen‘ und ’semiotisch‘ siehe Noeth (2000)). Denn nur dann, wenn die Zuordnung zwischen dem ‚Zeichenmaterial‘ und dem möglichen ‚Bedeutungsmaterial‘ nicht fixiert ist, kann man von einem Zeichen im semiotischen Sinne sprechen. Wir haben es also hier mit der Geburt des Zeichens zu tun (und damit, wenn man dies unbedingt will, von den ersten unübersehbaren Anzeichen von Geist!!!).
  6. Die Rede von der Information ist in diesem Kontext daher mindestens missverständlich, wenn nicht gar schlichtweg falsch. Bislang gibt es überhaupt keine allgemeine Definition von Information. Der Shannonsche Informationsbegriff (siehe Shannon und Weaver (1948)) bezieht sich ausschließlich auf Verteilungseigenschaften von Elementen einer endlichen Menge von Elementen, die als Zeichenmaterial (Alphabet) in einem technischen Übermittlungsprozeß benutzt werden, völlig unabhängig von ihrer möglichen Bedeutung. Mit Zeichen im semiotischen Sinne haben diese Alphabetelemente nichts zu tun. Daher kann Shannon in seiner Theorie sagen, dass ein Element umso ‚wichtiger‘ ist, je seltener es ist.  Hier von ‚Information‘ zu sprechen ist technisch möglich, wenn man weiß, was man definiert; diese Art von Information hat aber mit der ‚Bedeutung‘ von Zeichen bzw. der ‚Bedeutung‘ im Kontext von DNA-Ketten nichts zu tun. Die Shannonsche Information gab und gibt es auch unabhängig von der Konstellation DNA – RNA – Proteine.
  7. Auch der Informationsbegriff von Chaitin (1987, 2001) bezieht sich ausschließlich auf Verteilungseigenschaften von Zeichenketten. Je weniger ‚Zufall‘ bei der Bildung solcher Ketten eine Rolle spielt, also je mehr ‚regelhafte Wiederholungen (Muster, Pattern)‘ auftreten, um so eher kann man diese Ketten komprimieren. Benutzt man dann dazu das Shannonsche Konzept, dass der ‚Informationsgehalt‘ (wohlgemerkt ‚Gehalt‘ hier nicht im Sinne von ‚Bedeutung‘ sondern im Sinne von ‚Seltenheit‘!) umso größer sei, je ’seltener‘ ein Element auftritt, dann nimmt der Informationsgehalt von Zeichenketten mit der Zunahme von Wiederholungen ab. Insofern Zeichenketten bei Chaitin Algorithmen repräsentieren können, also mögliche Anweisungen für eine rechnende Maschine, dann hätten nach dieser Terminologie jene Algorithmen den höchsten ‚Informationsgehalt (im Sinne von Shannon)‘, die die wenigsten ‚Wiederholungen‘ aufwiesen; das wären genau jene, die durch eine ‚zufällige Bildung‘ zustande kommen.
  8. Lassen wir den weiteren Aspekt mit der Verarbeitung durch eine rechnende Maschine hier momentan mal außer Betracht (sollte wir später aber noch weiter diskutieren), dann hätten DNA-Ketten aufgrund ihrer zufälligen Bildung von ihrer Entstehung her einen maximale Informationsgehalt (was die Verteilung betrifft).
  9. Die Aussage, dass mit der DNA-RNA die ‚Information‘ in das Geschehen eingreift, ist also eher nichtssagend bzw. falsch. Dennoch machen die speziellen Informationsbegriffe von Shannon und Chaitin etwas deutlich, was die Ungeheuerlichkeit an der ‚Geburt des Zeichens‘ verstärkt: die zufallsgesteuerte Konstruktion von DNA-Ketten verleiht ihnen nicht nur eine minimale Redundanz (Shannon, Chaitin) sondern lässt die Frage aufkommen, wie es möglich ist, dass ‚zufällige‘ DNA-Ketten über ihre RNA-Interpretation, die in sich ‚fixiert‘ ist, Protein-Strukturen beschreiben können, die in der vorausgesetzten Welt lebensfähig sind? Zwar gibt es im Kontext der biologischen (= zeichengesteuerten) Evolution noch das Moment der ‚Selektion‘ durch die Umwelt, aber interessant ist ja, wie es durch einen rein ‚zufallsgesteuerten‘ DNA-Bildungsprozess zu Ketten kommen kann, die sich dann ‚positiv‘ selektieren lassen. Dieses Paradox wird umso stärker, je komplexer die Proteinstrukturen sind, die auf diese Weise erzeugt werden. Die ‚Geordnetheit‘ schon einer einzigen Zelle ist so immens groß, dass eine Beschreibung dieser Geordnetheit durch einen ‚zufälligen‘ Prozess absurd erscheint. Offensichtlich gibt es hier noch einen weiteren Faktor, der bislang nicht klar identifiziert wurde (und der muss im Generierungsprozess von DNA-Ketten stecken).]
  10. [ANMERKUNG: Eine erste Antwort steckt vielleicht in den spekulativen Überlegungen von Duve, wenn er die Arbeiten von Spiegelmann (1967), Orgel (1979) und Eigen (1981) diskutiert (vgl. S.57-62). Diese Arbeiten deuten daraufhin, dass RNA-Molküle Replizieren können und Ansätze zu evolutionären Prozessen aufweisen. Andererseits sind RNA-Moleküle durch Übersetzungsprozesse an Proteinstrukturen gekoppelt. Wenn also beispielsweise die RNA-Moleküle vor den DNA-Ketten auftraten, dann gab es schon RNA-Ketten, die sich in ihrer jeweiligen Umgebung ‚bewährt‘ hatten. Wenn nun — auf eine Weise, die Duve nicht beschreibt — zusätzlich zu den RNA-Ketten DNA-Ketten entstanden sind, die primär nur zur Replikation da waren und die RNA-Ketten dann ’nur‘ noch für die Übersetzung in Proteinstrukturen ‚zuständig‘ waren, dann haben die DNA-Ketten nicht bei ‚Null‘ begonnen sondern repräsentierten potentielle Proteinstrukturen, die sich schon ‚bewährt‘ hatten. Der Replikationsmechanismus stellte damit eine lokale Strategie dar, wie die im realen Raum vorhandenen DNA/ RNA-Ketten den ‚unbekannten Raum‘ möglicher weiterer Proteinstrukturen dadurch ‚absuchen‘ konnten, dass neue ‚Suchanfragen‘ in Form neuer DNA-Moleküle gebildet wurden. Der ‚Akteur‘ war in diesem Fall die komplette Umgebung (Teil der Erde), die mit ihren physikalisch-chemischen Eigenschaften diese Replikationsprozesse ‚induzierte‘. Die einzige Voraussetzung für einen möglichen Erfolg dieser Strategie bestand darin, dass die ‚Sprache der DNA‘ ‚ausdrucksstark‘ genug war, alle für das ‚hochorganisierte Leben‘ notwendigen ‚Ausdrücke‘ ‚bilden‘ zu können. Betrachtet man den RNA-Proteinkonstruktionsprozess als die ‚Maschine‘ und die DNA-Ketten als die ‚Anweisungen‘, dann muss es zwischen der RNA-Proteinmaschine‘ und den DNA-Anweisungen eine hinreichende Entsprechung geben.]
  11. [ANMERKUNG: Die Überlegungen von Duve haben einen weiteren kritischen Punkt erreicht. Um die Optimierung des Zusammenspiels zwischen RNA und Proteinen und ihren Vorformen erklären zu können, benötigt er einen Rückkopplungsmechanismus, der ein schon vorhandenes ‚Zusammenspiel‘ von allen beteiligten Komponenten in einer gemeinsamen übergeordneten Einheit voraussetzt. Diese hypothetische übergeordnete gemeinsame Einheit nennt er ‚Protozelle‘ (‚protocell‘). (vgl.S.65f)]
  12. Die Protein-Erzeugungsmaschinerie (‚proteine-synthesizing machinery‘) besteht aus mehreren Komponenten. (i) Das Ribosom heftet eine Aminosäure an eine wachsende Peptid-Kette, quasi ‚blindlings‘ entsprechend den determinierenden chemischen Eigenschaften. (vgl. S.66) Das Bindeglied zwischen den ‚informierenden‘ Aminosäuren und den zu bildenden Petidketten (Proteinen) bildet die ‚Boten-RNA‘ (‚messenger RNA, mRNA‘), in der jeweils 3 Aminosäuren (Aminosäuren-Triplets) als ‚Kodon‘, also 4^3=64, eine von 64 möglichen Zieleinheiten kodieren. Dem Kodon entspricht in einer ‚Transport-RNA‘ (‚transfer-RNA, tRNA‘) dann ein ‚Antikodon‘ (ein chemisch komplementäres Aminosäure-Triplet), an das genau eine von den 22 (21) biogenen Aminosäuren ‚angehängt‘ ist. Durch diesen deterministischen Zuordnungsprozess von mRNA-Kodon zu tRNA-Antikodon und dann Aminosäure kann eine Peptidkette (Protein) Schritt für Schritt entstehen. Diejenigen Zieleinheiten aus den 64 Möglichen, die nicht in eine Aminosäure übersetzt werden, bilden ‚Befehle‘ für die ‚Arbeitsweise‘ wie z.B. ‚Start‘, ‚Stopp‘. Dieser ‚Kode‘ soll nach Duve ‚universal‘ für alle Lebewesen gelten. (vgl. S.66f)
  13. [ANMERKUNG: Für eine vergleichende Lektüre zu diesem zentralen Vorgang der Proteinbildung sei empfohlen, die immer sehr aktuellen Versionen der entsprechenden englischsprachigen Wikipediabeiträge zu lesen (siehe unten Wkipedia (en).]
  14. Duve weist ausdrücklich darauf hin, dass die eigentliche ‚Übersetzung‘, die eigentliche ‚Kodierung‘ außerhalb, vorab zu dem mRNA-tRNA Mechanismus liegt. Der ribosomale Konstruktionsprozess übernimmt ja einfach die Zuordnung von Antikodon und Aminosäure, wie sie die Transfer-RNA liefert. Wann, wie und wo kam es aber zur Kodierung von Antikodon und Aminosäure in dem Format, das dann schließlich zum ‚Standard‘ wurde? (vgl. S.69)
  15. Letztlich scheint Duve an diesem Punkt auf der Stelle zu treten. Er wiederholt hier nur die Tatsachen, dass RNA-Moleküle mindestens in der dreifachen Funktionalität (Botschaft, Transfer und Konformal) auftreten können und dass sich diese drei Funktionen beim Zusammenbauen von Peptidketten ergänzen. Er projiziert diese Möglichkeit in die Vergangenheit als möglichen Erklärungsansatz, wobei diese reine Möglichkeit der Peptidwerdung keinen direkten ‚evolutionären Fitnesswert‘ erkennen lässt, der einen bestimmte Entwicklungsprozess steuern könnte.(vgl. S.69f) Er präzisiert weiter, dass der ‚Optimierung‘ darin bestanden haben muss, dass — in einer ersten Phase — ein bestimmtes Transfer-RNA Molekül hochspezifisch nur eine bestimmte Aminosäure kodiert. In einer nachfolgenden Phase konzentrierte sich die Optimierung dann auf die Auswahl der richtigen Boten-RNA. (vgl.S.70f)
  16. [ANMERKUNG: Das alles ist hochspekulativ. Andererseits, die ‚Dunkelheit‘ des Entstehungsprozesses ist nicht ‚völlige Schwärze‘, sondern eher ein ’nebliges Grau‘, da man sich zumindest grundsätzlich Mechanismen vorstellen kann, wie es gewesen sein könnte.]
  17. Duve reflektiert auch über mögliche chemische Präferenzen und Beschränkungen innerhalb der Bildung der Zuordnung (= Kodierung) von Kodons und Antikodons mit der Einschätzung, dass die fassbaren chemischen Eigenschaften darauf hindeuten, dass eine solche Zuordnung nicht ohne jede Beschränkung, sprich ’nicht rein zufällig‘ stattgefunden hat.(vgl. S.72f)
  18. [ANMERKUNG: Der spekulative Charakter bleibt, nicht zuletzt auch deswegen, weil Duve schon für den ‚evolutionären‘ Charakter der Kodon-Antikodon Entwicklung das fiktive Konzept einer ‚Protozelle‘ voraussetzen muss, deren Verfügbarkeit vollständig im Dunkel liegt. Etwas kaum Verstandenes (= die Kodon-Antikodon Zuordnung) wird durch etwas an dieser Stelle vollständig Unverstandenes (= das Konzept der Protozelle) ‚erklärt‘. Natürlich ist dies keine echte Kritik an Duve; schließlich versucht er ja — und darin mutig — im Nebel der verfügbaren Hypothesen einen Weg zu finden, der vielleicht weiter führen könnte. In solchen unbefriedigenden Situationen wäre eine ‚vornehme Zurückhaltung‘ fehl am Platze; Suchen ist allemal gefährlich… ]
  19. Duve geht jedenfalls von der Annahme aus, dass ein evolutionärer Prozess nur in dem Umfang effektiv einsetzen konnte, als die Veränderung der Kodon-Antikodon Zuordnung samt den daraus resultierenden chemischen Prozessen (Katalysen, Metabolismus…) insgesamt ein Trägersystem — in diesem Fall die vorausgesetzte Protozelle — ‚positiv‘ unterstützte und ‚überlebensfähiger‘ machte. (vgl. S.73f)
  20. Ungeachtet der Schwierigkeit, die Details des Entstehungsprozesses zum jetzigen Zeitpunkt zu enthüllen, versucht Duve weitere Argumente zu versammeln, die aufgrund allgemeiner Eigenschaften des Entstehungsprozesses den evolutionären Charakter dieses Prozesses weiter untermauern.
  21. Generell gehört es zu einem evolutionären Prozess, dass die Entwicklung zum Zeitpunkt t nur auf das zurückgreifen kann, was an Möglichkeiten zum Zeitpunkt t-1 zur Verfügung gestellt wird, also change: STATE —> STATE. Dies schränkt den Raum der Möglichkeiten grundsätzlich stark ein. (vgl. S.75, 77)
  22. Da es bei der Übersetzung von mRNA in Peptide zu Fehlern kommen kann (Duve zitiert Eigen mit der quantitativen Angabe, dass auf 70 – 100 übersetzten Aminosäuren 1 Baustein falsch ist ), bedeutet dies dass die ersten Kodon-Antikodon Zuordnungen in Gestalt von mRNA Molekülen aufgrund dieser Fehlerrate nur 60 – 90 Einheiten lang sein konnten, also nur 20 – 30 Aminosäuren kodieren konnten. (vgl. S.76)
  23. Rein kombinatorisch umfasst der Möglichkeitsraum bei 20 Aminosäuren 20^n viele Varianten, also schon bei einer Länge von nur 100 Aminosäuren 10^130 verschiedene Moleküle. Rein praktisch erscheint nach Duve ein solcher Möglichkeitsraum zu groß. Nimmt man hingegen an — was nach Duve der tatsächlichen historischen Situation eher entsprechen soll –, dass es zu Beginn nur 8 verschiedene Aminosäuren gab die zu Ketten mit n=20 verknüpft wurden, dann hätte man nur 8^20 = 10^18 Möglichkeiten zu untersuchen. In einem kleinen Tümpel (‚pond‘) erscheint das ‚Ausprobieren‘ von 10^18 Variationen nach Duve nicht unrealistisch.(vgl. S.76)
  24. Schließlich führt Duve noch das Prinzip der ‚Modularität‘ ein: RNA-Moleküle werde nicht einfach nur ‚Elementweise‘ verlängert, sondern ganze ‚Blöcke‘ von erprobten Sequenzen werden kombiniert. Dies reduziert einserseits den kombinatorischen Raum drastisch, andererseits erhöht dies die Stabilität. (vgl. S.77)

Fortsetzung folgt…

LITERATURVERWEISE

Chaitin, G.J; Algorithmic information theory. Cambridge: UK, Cambridge University Press, (first:1987), rev.ed. 1988, 1990, 1992, ,paperback 2004

Chaitin, G.J; Exploring Randomness. London: UK, Springer Ltd., (2001, corr. 2001), 3rd printing 2002

Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000

Claude E. Shannon A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (online: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; zuletzt besucht: May-15, 2008)

Claude E. Shannon; Warren Weaver The mathematical theory of communication. Urbana – Chicgo: University of Illinois Press, 1948.

Wikipedia (en): Genetischer Kode: http://en.wikipedia.org/wiki/Genetic_code, Ribosom: http://en.wikipedia.org/wiki/Ribosome, Protein Biosynthesis: http://en.wikipedia.org/wiki/Protein_biosynthesis, Aminosäuren: http://en.wikipedia.org/wiki/Amino_acid, Proteinoide Aminosäuren:http://en.wikipedia.org/wiki/Proteinogenic_amino_acid (Alle Links zuletzt besucht: Mo, 29.Okt.2012)

Für einen Überblick über alle bisherigen Einträge nach Titeln siehe HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER

 

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.

 

 

 

 

 

SINN, SINN, und nochmals SINN

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.März 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 16.Februar 2019 (Kontext eingefügt sowie im Text kursive Hervorhebungen)

KONTEXT

Zum Thema ‚Sinn‘ hab es zwei  vorausgehende Beiträge mit den Titel „Zur Grammatik des Sinns„ sowie „Weil es Sinn gibt, kann sich Wissen akkumulieren, das Sinn sichtbar macht. Oder: warum die Frage ‚Warum gerade ich?‘ in die Irre führen kann„. Beide Beiträge sind ziemlich  grundsätzlich und können den vorliegenden Text weiter vertiefen.

(1) Wie die vorausgehenden Beiträge auf unterschiedliche Weise gezeigt haben, führt die Frage nach dem ‚Sinn‘ (eng verknüpft mit der Frage nach der Wahrheit), wenn man sie ernsthaft stellt, schnell auf allerlei ‚Randbedingungen‘ des ‚Erkennens‘, die nicht nur ‚passiver Natur‘ sind (was ‚uns geschieht‘), sondern zugleich auch vielfältiger ‚aktiver‘ Momente (was ‚wir tun‘), damit wir überhaupt etwas erkennen, ‚wie‘ wir erkennen, ‚wann‘, ‚wo‘, usw. ‚Erkennen‘ zeigt sich somit als ein komplexes Geschehen, eingebettet in eine Vielzahl von Randbedingungen, die eine unüberschaubare Anzahl von Möglichkeiten zulassen.

(2) In jeder dieser unendlich vielen Kombinationen haben wir ein Erkenntniserlebnis, was immer auch die aktuelle Konstellation sein mag (Fernsehen gucken, Lesen, Laufen, reden, arbeiten, Malen, Streiten, Internet surfen, ….). Dieses aktuelle Erlebnis ist als Erlebnis ‚real‘. Wir können uns diesem realen Erleben nicht entziehen. Wir sind ‚mitten drin‘. Und wenn wir über das, was wir erleben, nicht explizit und zusätzlich ’nachdenken‘ (reflektieren…), dann ist die Welt das, was wir aktuell faktisch erleben (Wittgensteins berühmter Satz ‚Die Welt ist, was der Fall ist‘ (der in einem ganz bestimmten Kontext geäußert wurde) würde hier jetzt genau dies bedeuten: die Welt ist, was ich erlebe (was Wittgenstein genau vehement abstreiten würde (das war sein Problem…)). Denn nur das haben wir zur Verfügung (oder, wie zuvor mehrfach ausgeführt, das ist das, was das Gehirn ’sich selbst‘ aufgrund der verfügbaren Signale ‚zubereitet‘ (… wobei ‚Gehirn‘ ein komplexes theoretisches Konzept ist, dessen Anführung in diesem Kontext für viele Leser eher irreführend als zielführend sein kann)).

(3) Was die Sache mit dem Erleben (aus theoretischer Sicht) ’schwierig‘ macht (mit den entsprechenden weitreichenden Folgen für das alltägliche praktische Leben), ist die Tatsache, dass unser Erleben (wie jetzt schon oft besprochen) keine 1-zu-1-Abbildung von ‚Dingen außerhalb des Körpers‘ ist, sondern eine permanente dynamische Konstruktionsleistung unseres Gehirns, das aktuell verfügbare Signale mit schon zuvor ‚erworbenen (gelernten?)‘ Daten (Erinnerung, Gedächtnis) ‚verrechnet‘ und ‚Arbeitshypothesen‘ entwickelt, wie das alles ‚zusammenpassen‘ (Kohärenz, Konsistenz…) kann. Da das Gehirn endlich ist und in knapp bemessener Zeit aus einer Signalflut permanent auswählen muss, fallen beständig Sachen unter den Tisch, werden ausgeklammert, werden Dinge ‚vereinfacht‘ usw. Auf der ‚Habenseite‘ dieses atemberaubenden Geschehens verbleibt aber ein ‚Erkenntniseindruck‘, der ‚uns‘ das Gefühl vermittelt, wir ’sehen‘ etwas, wir ‚hören‘, usw.

(4) Dieser permanente Rückgriff auf ’schon Bekanntes‘ hat den großen Vorteil, dass die meist unvollkommenen Daten durch den Bezug auf ‚Ähnliches‘ ‚ergänzt‘ (interpretiert, gedeutet…) werden können und damit der ‚Entscheidungsprozess‘ während der ‚Berechnung‘ der ‚möglichen Strukturen in den Signalströmen‘ in Richtung des ’schon Bekannten‘ geleitet und damit abgekürzt werden kann (in Experimenten im Rahmen der Phonetik konnte man zeigen, dass Menschen bei der Identifizierung von akustischen Signalen ohne ‚Kontextwissen‘ deutlich schlechter waren, als mathematische Algorithmen für die Signalerkennung. Sobald die Menschen aber nur ein wenig Kontextwissen besaßen, waren sie den Algorithmen (nachvollziehbarerweise) deutlich überlegen. Andererseits konnte man sie dadurch aber auch gezielter ‚manipulieren‘: wenn man weiß, welches Kontextwissen bei einem bestimmten Menschen ‚dominant‘ ist, dann kann man ihm Daten so servieren, dass er diese Daten ’spontan‘ (wenn er nicht kritisch nachdenkt) im Sinne seines Kontextwissens interpretiert und damit zu ‚Schlüssen‘ kommt, die mit der tatsächlich auslösenden Situation gar nichts mehr zu tun haben).

(5) Diese ambivalente Rückwirkung des ’schon Bekannten‘ wird noch komplexer, wenn man berücksichtigt, dass mit dem Erlernen einer Sprache die ‚Gegenstandswelt‚ erweitert wird um eine ‚Welt der Zeichen‚, die auf diese Gegenstandswelt (und auf sich selbst!) auf vielfältige Weise ‚verweisen‘ kann. Ein sprachlicher Ausdruck als solcher ist auch ein reales Erlebnis, das aber – im Normalfall – von sich weg auf etwas ‚Anderes‘, auf seine ‚Bedeutung‘ ‚verweist‘. Jede mögliche Bedeutung ist letztlich immer erst mal wieder nur ein Erlebnis, das irgendwann einmal stattgefunden hat, und sei es als bloß ‚Imaginiertes/ Vorgestelltes/…‘. D.h. die Verwendung der Sprache als solche führt nicht grundsätzlich über den Bereich des Erlebbaren hinaus. Ein Denken mit Hilfe von sprachlichen Ausdrücken ist nur ’strukturierter‘, ‚berechenbarer‘, ‚handhabbarer‘ als ein Denken ohne sprachliche Ausdrücke. Sprache erlaubt die ‚wunderbare Vermehrung der Dinge‘, ohne dass real die Dinge tatsächlich vermehrt oder verändert werden (ein Roman von vielen hundert oder gar über tausend Seiten kann für den Leser ein sehr intensives ‚Erlebnis‘ erzeugen, gestiftet von einem bunten Strauss von sprachlich induzierten ‚Vorstellungen‘, die als solche real sind, ohne dass diesen Vorstellungen irgendetwas in der Außenwelt entsprechen muss.

(6) Mit den modernen Medien (Film, Fernsehen, Video, Computeranimation…) wird die Erzeugung von ‚Vorstellungen‘ nach ‚außen‘ verlagert in ein Medium, das Erlebnisse erzeugt ’scheinbar wie die Außenwelt‘, die aber ‚willkürlich erzeugt‘ wurden und die mit der empirisch-realen Welt nichts zu tun haben müssen. Dem ‚Erlebnis als solchem‘ kann man dies u.U. Nicht mehr ansehen, sofern man nicht (wie auch in allen anderen Fällen) sehr bewusst ‚kritisch‘ Randbedingungen überprüft und berücksichtigt. Während das Lesen eines Romans ‚als Lesen‘ deutlich macht, dass alle durch das Lesen induzierten Erlebnisse ‚künstlich‘ sind, kann das sehen/ hören/ fühlen… eines künstlichen Mediums die Einsichtsschwelle in die ‚Künstlichkeit‘ immer ‚höher‘ legen. Ein Film über ‚Erfundenes‘ neben einem Film über ‚empirisch-Reales‘ ist nicht mehr ohne weiteres identifizierbar.

(7) Sofern man nicht explizit die Frage nach der ‚Wahrheit‘ stellt (ich definiere ‚Wahrheit‘ hier jetzt nicht; siehe dazu die vorausgehenden Reflexionen) sind alle diese möglichen Erlebniswelten (real-empirisch bezogen oder beliebig generiert) aus Sicht des Erlebens ‚gleichwertig‘. Wer hier nicht ausdrücklich immer darauf achtet, was wann wie von wem mit welcher Absicht usw. ‚erzeugt‘ wurde, für den verschwimmen alle diese erlebnisfundierten Bilder zu einem großen Gesamtbild, wo jedes jedes ‚interpretiert‘ und wo die Frage nach der Wahrheit aus den Händen gleitet. Dennoch bieten alle diese Bilder – so verzerrt und willkürlich sie auch sein mögen – für den, der sie ‚hat‘ eine ‚Interpretation‘ und damit einen ‚möglichen Sinn‘. Ohne die ‚Gewichtung‘ durch den Aspekt der Wahrheit sind alle diese ‚möglichen Sinne‘ ‚gleichwertig‘. Es gibt im Bereich des möglichen Sinns keine ausgezeichnete Instanz, die einen besonderen Vorzug verdienen würde. Entsprechend ‚bunt‘ ist das Bild, das sich bietet, wenn man schaut, was Menschen alles für ’sinnvoll‘ halten. Es kann für jemand anderen noch so ‚grotesk‘ erscheinen, für den ‚Besitzer‘ dieses Sinns ist es ‚der allein Seligmachende‘.

(8) Wie gesagt, solange man die Frage nach der ‚Wahrheit‘ ausklammert, geht alles. Die Frage nach der Wahrheit wiederum setzt eine ‚kritische Reflexion‘ auf Randbedingungen voraus. Wie der Alltag zeigt, ist aber den meisten Menschen gar nicht klar, was ‚kritische Reflexion‘ praktisch bedeutet. Selbst wenn sie ‚kritisch reflektieren‘ wollten, sie könnten es nicht. Millionen von Menschen sind zwar bereit, viel Geld, viel persönliche Zeit, ja sogar ihr ganzes persönliche Leben, in ‚Gefolgschaften‘ von Kursen und Organisationen zu investieren, ohne ein Minimum an kritischem Denken dafür zurück zu bekommen. Das ‚Verwirrspiel‘ um den ‚Sinn‘, um den ‚Lebenssinn‘, um den ‚wahren Sinn‘ wird damit nur schlimmer und furchtbarer. Meist werden ein paar Leute dadurch sehr viel reicher, und viele andere sehr viel ärmer. So etwas sollte immer als ein mögliches Alarmzeichen dienen, um darauf aufmerksam zu machen, dass es bei solchen Veranstaltungen (das müssen nicht nur sogenannte ‚Sekten‘ sein, das kann — wie wir täglich leidvoll dazu lernen — jede Art von sogenannten ‚Beratern‘ sein) nicht um ‚wahren Sinn‘ geht, sondern um simple materielle Vorteile einzelner auf Kosten anderer.

(9) Das Thema ist damit nicht erschöpft (was ja auch die vorausgehenden Eindrücke zusätzlich belegen können), …es ist nur eine ‚Notiz‘ zwischendurch….

LITERATURNACHWEISE

Wittgenstein, L.: Logisch-philosophische Abhandlung, W. Ostwald (Hrsg.), Annalen der Naturphilosophie, Band 14, 1921, S. 185–262

nachlesbar in:

Wittgenstein, L.: Logisch-philosophische Abhandlung, Tractatus logico-philosophicus. Kritische Edition. Suhrkamp, Frankfurt am Main 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

CARTESIANISCHE MEDITATIONEN III, Teil 8

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 26.Dezember 2011
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(114) Den rote Faden der Rationalität, der die ‚universale Philosophie‘ mit den ‚Tatsachenwissenschaften‘ verbindet, formuliert Husserl an einer Stelle auch wie folgt: ‚Alle Rationalität des Faktums liegt ja im Apriori. Apriorische Wissenschaft ist Wissenschaft von dem Prinzipiellen, auf das Tatsachenwissenschaft rekurrieren muss, um letztlich, eben prinzipiell begründet zu werden…‘ (vgl. CM2, S.38, Z28f) Dies klingt auf den ersten Blick so klar. Doch lässt man sich auf die Magie der Worte ein, dann können sich zuvorderst erscheinende Strukturen verschieben, und in der Folge weiteren Nachdenkens können Strukturen sichtbar werden, die einfach anders sind.

(115) Beginnen wir mit den Begriffen ‚Apriorische Wissenschaft‘ und ‚Tatsachenwissenschaft‘. Wie so oft, ist der Begriff der ‚Tatsache‘ nicht wirklich definiert. Aus dem Kontext können wir nur erschließen, dass Husserl jene Gegebenheiten meint, die die empirischen Wissenschaften als ‚gültig‘ beschreiben. Aus Sicht der Phänomenologie sind diese als ‚Tatsachen‘ bezeichneten Gegebenheiten zunächst einmal Phänomene wie alle anderen Phänomene auch. Aus Sicht der Phänomenologie gibt es nur die Menge der Phänomene [Ph], wie sie im Bewusstsein erscheinen unabghängig davon, wie eine bestimme Denkdisziplin eine mögliche Teilmenge von diesen darüber hinaus bezeichnet. Wenn also die empirischen Wissenschaften darüber überein gekommen ist, innerhalb der Menge der Phänomene Ph eine bestimmte Teilmenge auszuzeichnen und dieser Teilmenge den Namen ‚empirische Phänomene [Ph_emp]‘ verleihen, dann kann man dies tun; die Menge der empirischen Phänomene Ph_emp bleibt damit aber dennoch primär eine Menge von Phänomenen Ph, also Ph_emp subset Ph.

(116) Husserl charakterisiert den Übergang vom ’naiven‘ Alltagsbewusstsein zum ’nicht-naiven‘ –sprich ‚kritischen‘– philosophischen (phänomenologischen) Bewusstsein   zuvor durch die Reduktion mittels Epoché, durch die Bewusstwerdung davon, dass alles –insbesondere das Weltliche– nur etwas ist im Bewusstsein, als Gegebenes des transzendentalen ego. (vgl. z.B. CM2, S8f) Damit verschwinden keine Phänomene, auch nicht die, die ‚empirisch‘ genannt werden, es wird nur ihre ‚Interpretation‘ als etwas, das  ein ausserhalb des Bewusstsein Liegendes sei (z.B. der Außenraum, das Andere, die Welt), eingeklammert und aller Sinn beschränkt auf jenen Sinn, der sich aus der Unhintergehbarkeit des ‚Im-Wissen-des-Wissens-um-sich-Selbst-und-seiner-Gegebenheiten‘ (zuvor schon abkürzend transzendentales Subjekt trlS bezeichnet) ergibt.

(117) Folgt man diesem Gedanken, stellt sich nur die Frage, wie ein so transzendental bezogenes Gegebenes jemals wieder als ‚Bote einer anderen Welt‘, und zwar wenigstens hypothetisch, gedacht werden kann? Wie kann ein trlS ‚in sich‘ bzw. ‚aus sich heraus‘ jenes ‚Andere‘ erkennen, das von ihm weg auf etwas anderes verweist, ohne dabei das Gegebensein im trlS zu verlieren? Sofern ein bestimmtes Gegebenes nicht im Kontext von speziellen Eigenschaften W  vorkommt, die das trlS dazu ‚berechtigen‘, auf ein ‚jenseits von ihm selbst‘ (ein Transzendentes) verweisen zu können, wird man die Frage negativ bescheiden müssen. Und die vorausgehenden Reflexionen zum husserlschen transzendentalen ego haben ja gerade zum Konzept des trlS geführt, weil im tiefsten Innern des Transzendentalen, in seinem ‚Kern‘, in seiner ‚Wurzel‘,…. das ‚Andere‘ schon immer da ist. Nur weil das ‚Wissen um sich selbst‘ als dieses  spezielle Wissen das im Wissen als etwas Gegebenes als ‚etwas von dem Wissen Verschiedenes‘, als ein ‚wesentlich Anderes‘ schon immer denknotwendig vorfindet, kann das trlS sowohl den Begriff des Anderen denken wie auch den Begriff des ‚für sich Seins‘ eines Anderen. Da dieses Andere in vielfältigen Eigenschaftskombination sowie in mannigfaltigen dynamischen Abläufen auftritt, zeigt sich das Andere nicht nur mit einem ‚Gesicht‘; es kann sehr viele verschiedene Namen bekommen.

(118) Wenn also in der Epoché die ‚Weltgeltung‘ bestimmter Phänomene innerhalb des Wissens um sich selbst thematisiert wird und damit dieses Wissen sich seiner ‚kritischen Funktion‘ bewusst wird, ermöglicht sich zwar auf der einen Seite ein spezieller reflektierender Umgang mit diesen Phänomenen, durch diesen reflektierenden Umgang wird aber die jeweilige ‚phänomenologische Qualität‘, die jeweilige Mischung von Eigenschaften, die ein Phänomen konstituieren, nicht ausgelöscht; diese Eigenschaften bleiben, wie sie sind. Die grundsätzliche (transzendentale!) Andersartigkeit jeden Phänomens bleibt erhalten und innerhalb dieser unhintergehbaren Andersartigkeit deutet sich in vielen Phänomenen samt ihrem Kontext ein ‚Jenseits‘, eine ‚Transzendenz‘ an, die den Phänomenen und der Art ihres Erscheinens ‚innewohnt‘. In diesem Sinne muss man sagen, dass der transzendentale Charakter des ‚Anderem im für uns sein‘ ergänzt werden muss um die Eigenschaft der ‚Transzendenz‘ als etwas dem Anderen wesentlich Zukommendes.

(119) Das Wissen um sich ‚besitzt‘ das andere ’nicht‘, sondern es ‚empfängt‘ es. Anders gewendet, im kontinuierlichen Empfangen des transzendental Anderen ‚zeigt sich‘ (revelare, revelatio, Offenbarung) etwas ganz anderes als wesentlicher Teil unseres für uns Seins. Und da dieses sich kontinuierlich Zeigen (Offenbaren) aufgrund der Endlichkeit jeden einzelnen Phänomens im Kommen und Gehen und ‚zusammenbindenden Erinnern‘ eine ’nicht abschließbare Endlichkeit‘ ist, eine ‚unendliche Endlichkeit‘, verweist jedes konkrete Phänomen durch diese ‚gewusste Nichtabschließbarkeit‘ auf ein ‚Jenseits‘ des aktuell Gegebenen, manifestiert sich eine ‚Transzendenz‘, die im Wissen um sich und für sich zu einem ‚Faktum‘ wird, dessen kontinuierliche Endlichkeit ein Begreifen, ein ‚Gefasstwerden‘, einen Abschluss, eine Einheit, eine …. herausfordert.

(120) Innerhalb der allgemeinen Menge der Phänomene Ph  eine spezielle Menge der empirischen Phänomene Ph_emp aussondern zu können setzt somit voraus, dass diesen ausgesonderten Phänomenen qua Phänomene etwas zukommt, das diese Aussonderung rechtfertigt. Es ist eine Erfahrungstatsache, dass bis auf jene Menschen, die als ‚psychisch gestört‘ klassifiziert werden, zwischen Menschen immer eine Einigung darüber möglich ist, ob ein bestimmtes Phänomen ein empirisches Phänomen x in Ph_emp ist oder nicht x -in Ph_emp. Diese Praxis ist möglich, weil es vorab zu dieser Praxis als notwendige Eigenschaften der empirischen Phänomene etwas gibt, was sie von anderen abhebt und aufgrund deren Gegebenheit Menschen diese Unterscheidung treffen können. Die empirischen Wissenschaften, die sich auf diese Teilmenge Ph_emp der allgemeinen Phänomene Ph berufen, sind in dieser Berufung noch nicht verschieden von der allgemeinen phänomenologischen Philosophie. Die Phänomene als Phänomene sind reell, sind gegeben, unabhängig davon, wie ich sie darüber hinaus ‚interpretiere‘, ob ’naiv‘ hinnehmend oder ‚kritisch‘ einordnend.

(121) Das übliche Kriterium in den empirischen Wissenschaften, mittels dessen die empirischen Phänomene Ph_emp von der allgemeinen Menge der Phänomene Ph ‚ausgesondert‘ wird, ist das ‚Experiment‘. Ein Experiment ist eine Ereignis- bzw. Handlungsfolge,  deren Kennzeichen ist, dass sie jederzeit von jedem wiederholbar sein müssen und dass bei gleichen Ausgangsbedingungen die gleichen (Mess-)Ereignisse  auftreten. Eine detaillierte phänomenologische Beschreibung wäre etwas umfangreicher. An dieser Stelle sollen nur die Kernaussagen festgehalten werden. Dazu bezeichnen wir alle Phänomene, die im Kontext eines Experimentes auftreten, als Ph_exp. Das Experiment als solches ist nicht notwendig, sondern ‚kontingent‘. Man kann ein Experiment durchführen, aber man muss nicht. Allerdings, wenn man ein Experiment durchführt, dann gilt, dass das das zu messende Phänomen Ph_emp  mit ‚Notwendigkeit‘ immer auftritt. Man kann also sagen, die empirischen Phänomene sind eine Schnittmenge aus den allgemeinen Phänomenen und den experimentellen Phänomenen Ph_emp = Ph cut Ph_exp. Mit all diesen Besonderheiten bleiben sie aber genuine Phänomene und fallen nicht aus dem Bereich einer phänomenologischen Reflexion heraus. Ein phänomenologischer Philosoph kann die experimentellen empirischen Phänomne betrachten wie er alle anderen Phänomene auch betrachtet.

(122) Das einzelne empirische Phänomen als solches besagt aber so gut wie nichts. Es gewinnt einen möglichen ‚Sinn‘ erst durch die zusätzliche Eigenschaft, dass es nicht nur ‚kontingent‘ im Sinne von ‚regellos‘, ‚zufällig‘ ist, sondern dass es im Zusammenhang mit anderen empirischen Phänomenen etwas ‚Nicht-Kontingentes‘, etwas ‚Nicht-Zufälliges‘  erkennen läßt. Diese Beschreibung schließt mit ein, dass man sagen kann, wie genau die Eigenschaft ‚Zufällig-Sein‘ (Kontingent-Sein) definiert wird. Wir setzen an dieser Stelle einfach mal voraus, dass dies geht (was alles andere als ‚trivial‘ ist!). Nicht-Zufälliges kann z.B. auftreten in Form von Zufallsverteilungen oder aber sogar bisweilen in Gestalt eines ‚gesetzmäßigen Zusammenhangs‘, dass immer wenn ein Phänomen p_i auftritt, ein anderes Phänomen p_j zugleich mit auftritt oder dem Phänomen p_i ‚folgt‘. In diesem Sinne gibt es im Bereich der Phänomene ’notwendige Zusammenhänge‘, die das Denken im Anderen  ‚vorfindet‘. Wichtig ist aber, dass es sich hier um Eigenschaften handelt, die den Phänomenen als Phänomenen zukommen, die nicht aus dem phänomenologischen Denken herausfallen. Ja, mehr noch, es geht hier nicht um ‚primäre‘ Eigenschaften der Phänomene, sondern um ‚phänomenübersteigende‘ Eigenschaften, die auf Zusammenhänge verweisen, die nicht dem einzelnen Phänomen als solchen zukommen, sondern sie verweisen auf ‚Formen des dynamischen Erscheinens‘ von Phänomenen.

(123) Diese ‚das einzelne Phänomen übersteigende Eigenschaften‘ setzen eine Erinnerungsfähigkeit voraus, die aktuell Gegebenes (Aktuales) ‚im nächsten Moment‘ nicht vollständig vergisst, sondern in der Lage ist, ‚Vorher Aktuales‘ wieder zu ‚erinnern‘ und es darüber hinaus noch mit dem ‚jetzt Aktualen‘ in Beziehung zu setzen, z.B. in einem ‚Vergleich‘. Diese Fähigkeit des impliziten Erinnerns gehört unserem Denken zu, ist eine dem Denken inhärierende Eigenschaft, ohne die wir keinen einzigen Zusammenhang denken könnten. In diesem Sinne ist das Erinnern und aus der Erinnerung heraus ‚Beziehen‘ können denknotwendig, transzendental.

(124) Durch Experimente kann das phänomenologische Denken allerdings ermitteln, dass das, was erinnert wird  [Ph_mem]  mit dem ‚ursprünglich Wahrgenommenen‘ [Ph_aktual] nicht identisch sein muss und in der Regel auch nicht identisch ist. Also  Ph_mem = Erinnern(Ph_aktual) & Ph_mem != Ph_aktual. D.h. das Erinnern ist keine 1-zu-1 Kopie des vorausgehenden Aktualen sondern –im Normalfall– eine ‚Modifikation des Originals‘. Es ist eine eigene Wissenschaft, zu erforschen, ob und in welchem Umfang diese Modifikationen selbst ‚gesetzmäßig‘ sind. Wichtig an dieser Stelle ist nur, dass man sich bewusst ist, dass das dem Denken transzendental innewohnende Erinnern im Normalfall eine Form von ‚Transformation‘ darstellt, die dem Denken zwar ’neue‘ Eigenschaften des Anderen aufscheinen lässt, aber diese ’neuen‘ Eigenschaften resultieren aus dem Denken selbst. Das ‚Einordnen‘ von Phänomenen in einen ‚gedachten Zusammenhang‘ ist primär ein Akt des Denkens und damit genuin phänomenologisch. Gedachte Zusammenhänge sind aber  als ‚gedachte‘ keine ‚primäre‘  Phänomene sondern ‚abgeleitete‘, ’sekundäre‘ Phänomene. Als ‚gewusste‘ sind sie ‚evident‘, in ihrem möglichen Bezug zu primären Phänomenen können sie ‚divergieren‘, ‚abweichen‘, sich ‚unterscheiden‘.

(125) Das, was sich im Denken zeigt, sind die Phänomene. Sehr verbreitet ist die Redeweise, in der bestimmte Phänomenkomplexe in besonderer Weise als ‚Objekte‘ [Obj] aufgefasst werden. Diese können als Wahrnehmungsobjekte [Obj_perc] auftreten, als  Erinnerungsobjekte [Obj_mem] oder als Denkobjekte [Obj_cog]. In aller Spezifikation bleiben sie Phänomene und gehören zum phänomenologischen Denken. Auch die empirischen Wissenschaften benutzen solche speziellen Objektkonzepte wie ‚Atom‘, ‚chemische Verknüpfungen‘ usw.

(126) Charakteristisch für empirische Theorien ist aber letztlich, dass die gefundenen Zusammenhänge zusätzlich  in einem System von Zeichen (Sprache) so abgebildet werden können, dass sich auf der Basis solcher symbolischer Darstellungen sowohl ein Bezug zu den primären Phänomenen herstellen läßt wie auch, dass sich unter Hinzuziehung eines Folgerungsbegriffs   logische Schlüsse ziehen lassen.

(127) Hierzu müsste man erklären, wie man innerhalb einer phänomenologischen Theorie den Begriff des Zeichens einführen kann.  Dies soll an dieser Stelle nicht geschehen. Husserl selbst lässt diesen zentralen Punkt ganz beiseite. Wir halten hier nur fest, dass an dieser Stelle solch eine Einführung stattfinden müsste; ohne sie wäre das Konzept einer (empirischen) wissenschaftlichen Theorie wesentlich unvollständig.

(128) Blicken wir nochmals zurück. Erinnern wir die Feststellung Husserls ‚Apriorische Wissenschaft ist Wissenschaft von dem Prinzipiellen, auf das Tatsachenwissenschaft rekurrieren muss, um letztlich, eben prinzipiell begründet zu werden…‘ (vgl. CM2, S.38, Z28f)  Die bisherigen Überlegungen haben gezeigt, dass die empirischen Wissenschaften sich zunächst nicht von der phänomenologischen Philosophie unterscheiden. Sie basieren auf den gleichen Phänomenen und sie benutzen das gleiche Denken. Insofern die empirischen Wissenschaften versuchen, im Raum der Phänomene Zusammenhänge aufzuspüren, Regelhaftigkeiten, müssen sie auf allgemeine Eigenschaften des Anderen rekurrieren, indem sie sich dieser Zusammenhänge ‚bewusst werden‘ und diese als ‚denknotwendige Zusammenhänge‘ explizit machen, bewusst machen, und dann konzeptuell und semiotisch benennen. Empirische Wissenschaften tun dies ‚phänomengeleitet‘, aber auch bestimmten Methoden folgend, die ein Minimum an ‚Wissen um‘ Phänomene und allgemeine Eigenschaften des Denkens einschließt.

(129) Eine klare Abgrenzung zu einer phänomenologischen Philosophie dürfte letztendlich schwierig sein, da ja auch ein phänomenologischer Philosoph nie in jedem Augenblick ‚das Ganze‘ denken kann, sondern immer nur schrittweise  Teilaspekte reflektiert, die er dann ebenso schrittweise zu größeren Perspektiven ‚zusammenfügen‘ kann. Mir scheinen vor diesem Hintergrund die eher zur Gegenübersetzung von Philosophie und empirischer Wissenschaft anregenden Formulierungen von Husserl nicht so geeignet zu sein. Stattdessen würde ich eher den ‚inklusiven‘ Charakter betonen. Empirische Wissenschaft ist grundsätzlich ein Denkgeschehen, was ‚innerhalb‘ des phänomenologischen Denkens stattfindet. Empirisches Denken stellt insoweit eine ‚Teilmenge‘ des phänomenologisch-philosophischen Denkens dar, insoweit das empirische wissenschaftliche Denken (i) einmal die Menge der zu betrachtenden Phänomene mittels eines überprüfbaren Kriteriums ‚beschränkt‘ und (ii) bei den reflektierenden Betrachtungen nicht alles reflektiert, was man reflektieren könnte, sondern sich auf jene Aspekte beschränkt, die notwendig sind, um die empirisch motivierten Zusammenhänge angemessen zu denken.  Wie die fortschreitende Entwicklung der empirischen Wissenschaften zeigt, können sich die Grenzen empirisch-wissenschaftlicher Reflexion beständig verschieben in Richtung solcher Inhalte, die traditionellerweise nur in der Philosophie zu finden waren. Dass heutzutage Ingenieure über die Konstruktion eines ‚künstlichen‘ Bewusstseins grübeln, kann sehr wohl geschehen im Einklang einer genuinen phänomenologisch-philosophischen Reflektion aller Gegebenheiten eines transzendentalen Subjekts.

Fortsetzung folgt.

ÜBERSICHT: Eine Übersicht über alle Blog-Beiträge nach Themen findet sich HIER

VEREINIGUNG VON PHILOSOPHIE UND WISSENSCHAFT?

(1) Eine klare Definition von Philosophie gibt es bislang nicht und dürfte es
angesichts der Besonderheit des Gegenstandes vermutlich auch niemals geben.

(2) Viele Autoren, die sich als Philosophen verstehen, sehen den Gegenstand
der Philosophie in der Aufdeckung von Zusammenhängen, die jedem Denken zugehören,
unabhängig von den wechselnden (‚kontingenten‘) ‚Inhalten‘.

(3) Nach Descartes, Kant — und vielen anderen — hat Husserl versucht, einen
allgemeingültigen und ‚festen‘ Grund des Denkens durch Fokussierung auf das
Erleben des eigenen Denkens zu finden.

(4) Husserl unterscheidet zwischen den wechselnden — und vom ihm als ‚kontingent‘
bezeichneten — Inhalten des Erlebens (den ‚Phänomene‘) sowie jenen Momenten des
Erlebens, die allem Erleben ‚innewohnen‘, ‚implizit zugehören‘. Immer, wenn wir
erleben, dann sind diese Momente als solche ‚unterscheidbar‘ von den kontingenten
Phänomenen. In Anlehnung an Kant kann man solche ‚impliziten‘, ‚dem Erleben
innewohnenden‘ Eigenschaften ‚transzendental‘ nennen: sie sind dem Erleben
‚voraus(gesetzt)‘.

(5) Husserl hebt hervor, dass diese Unterscheidungen von kontingenten
Bewusstseinsinhalten und transzendentalen Momenten des Bewusstseins zur
Voraussetzung hat, dass man die ’normale (alltägliche)‘ Erlebniseinstellung verlässt.
Für Letztere ist kennzeichnend, dass ‚erlebte Inhalte‘ nicht als ‚erlebte‘ Inhalte
genommen werden, sondern dass diese ‚automatisch‘ so interpretiert werden, als ob
diese Erlebnisinhalte – sofern sie dem Bereich der Sinneswahrnehmung zugeordnet
werden — ‚Dinge in der realen Welt‘ ‚verkörpern‘. D.h. Unser alltägliches ’naives‘
Erleben unterstellt den Erlebnisinhalten eine ‚ontologische Geltung‘, eine
‚Existenz in der realen Welt‘. Sofern man sich ‚als Philosoph‘ ‚bewusst‘ wird,
dass das ‚Erleben als solches‘ nicht notwendigerweise eine reale Existenz bedingen
muss (Beispiel ‚Träumen‘, ‚Fantasieren‘, ‚Vorstellen‘, ‚Erinnern‘,…), kann man
diese Unterscheidung festhalten und versuchen, sie zu einem methodischen Element
des Welterlebens machen. Husserl nennt die Einstellung, die diese Unterscheidung
konserviert, ‚epochä‘ (aus dem Griechischen), etwa ‚Ausklammerung (oder ‚Einklammerung‘).
Unter Anwendung der epochä werden die ontologischen Unterstellungen für alle
Erlebnisinhalte erst einmal eingeklammert.

(6)Der epochä voraus liegt die grundsätzliche ‚Bewusstwerdung‘ des ‚Erlebens als
solchem‘! Erst unter Voraussetzung des Erlebens als solchem kann ich innerhalb
dieser Bewusstwerdung die zusätzliche Unterscheidung zwischen dem ‚reinen
Erlebnisinhalt‘ und den ‚begleitenden Eigenschaften‘ machen wie z.B. den
ontologischen Unterstellungen oder den transzendentalen Momenten des Erlebens.

(7) Am transzendentalen Erleben kann man im Rahmen der grundsätzlichen
Bewusstwerdung viele unterscheidbare Eigenschaften (informell beschreibbar
als ‚Erinnern‘, ‚Abstrahieren‘, ‚Vergleichen‘,…), identifizieren.

(8) Ein Philosophieren, das die Inhalte des Erlebens zum Gegenstand macht,
hat ein Grundproblem, das bis heute – so scheint es – noch niemand befriedigend
lösen konnte; dies ist dem Umstand geschuldet, dass Philosophieren eine Tätigkeit
ist, zu der die Kommunikation zwischen Menschen dazu gehört. Ohne sprachliche
Kommunikation der Denkinhalte ist das Philosophieren weitgehend wertlos.
Selbst wenn das individuelle Denken über irgendwelche ‚Inhalte‘ verfügen würde
(wovon auszugehen ist), wären diese Inhalte solange ‚unsichtbar‘, solange sie
nicht in einer gemeinsam geteilten Sprache ‚vermittelbar‘ wären. Davon zu
unterscheiden wäre die Frage, was denn ein einzelner Denker überhaupt denken
kann, wenn er nicht über eine Sprache verfügt, die von anderen verstanden wird.
Wieweit bilden die Tiere, die keine elaborierte Sprache ausgebildet haben, ein
Beispiel für sprachfreies Denken? Immerhin sind zu komplexen – auch sozialen –
Handlungen fähig.

(9) Wie viele vor Wittgenstein als ‚Philosophen der Sprache‘ bezeichnet werden
sollten, kann ich momentan nicht klar entscheiden, auf jeden Fall hat Ludwig
Wittgenstein die transzendentale Rolle der Sprache für unser Erleben in einer
Weise beleuchtet und reflektiert, wie niemand zuvor – und bislang vielleicht auch
niemand mehr nach ihm –. Er ist der kreative Totalzerstörer von jeglicher
Bedeutungssicherheit. Er liefert zwar keine neue konstruktive Antworten, aber
er bereitet den Weg durch Zerstörung falscher Sicherheiten. Wittgenstein muss man
‚meditieren‘, und dann kann man versuchen, ‚erneuert‘ zu denken…

(10) Von einer anderen Warte aus – und offensichtlich noch ohne Kenntnis von Wittgenstein –
hat Saussure in seinen Grundlagen zur Sprachwissenschaft (erstmalig in Vorlesungen
1906 – 1911) versucht, einen allgemeinen Begriff des (sprachlichen) Zeichens einzuführen.
Sein Ausgangspunkt ist eine Population von Sprecher-Hörern – eine Population P von
Zeichenbenutzern –, von denen sich ein einzelner Zeichenbenutzer beim Sprachgebrauch
immer in einem sprachlichen Rückkopplungsprozess derart befindet, dass der physikalische
Laut zwischen mindestens zwei Zeichenbenutzern sensorisch aufgenommen, physiologisch
– sprich: neuronal – verarbeitet verarbeitet wird, so dass es zu einem ‚psychischen
Erlebnis‘ kommt, welches das eigentliche Ereignis für den Hörer darstellt. Im ‚Erleben‘
erlebe ich einen Klang als ‚abstraktes Klangereignis‘ und zusätzlich erlebe ich ein
‚abstraktes Dingkonzept‘ (implizit zubereitet durch das verarbeitende Gehirn). Zwischen
einem Dingkonzept O_ph und einem Lautkonzept L_ph kann im Gehirn eine Verbindung
(‚Assoziation‘) hergestellt werden, so dass das Lautkonzept über diese Verbindung auf
das Dingkonzept ‚verweisen‘ kann, und umgekehrt)(ASSOC(L_ph,O_ph)). Das Lautkonzept wird
in solch einer Verbindung zum ‚Bezeichner‘ (’signifiant‘, Signifikanten), und das über
solch eine Verbindung Bezeichnete wird zur ‚Bedeutung‘ (’signifie‘, Signifikat) des
Bezeichners. Beide Momente vereint durch eine Beziehung werden dann zu einem ‚Zeichen‘
(’signe‘). Für Saussure war es wichtig, festzuhalten, dass diese mögliche Beziehung
zwischen einem Bezeichner und einem Bezeichnten ‚arbiträr‘ ist in dem Sinne, dass
ein bestimmtes Bezeichnetes ‚von sich aus‘ keinen bestimmten Bezeichner ‚verlangt‘.
Ob man eine mögliche (!) Unterscheidung im Rahmen der Wahrnehmung von dark und light
nun mit den Bezeichnern ‚dunkel‘ und ‚hell‘ bezeichnen will oder mit irgendwelchen
anderen Lautkombinationen ist völlig der Entscheidung der Sprachgemeinschaft überlassen.
Wenn diese sich einmal entschieden hat, dann wird die einmal getroffene Entscheidung
in den meisten Fällen erst einmal als ‚Verabredung‘ (Konvention) dahingehend wirksam
sein, dass ein Zeichenbenutzer dieser Population im Bedarfsfall erst einmal die
eingeführten Zeichen benutzen wird. Dennoch steht es der Population frei, diese
Zuordnungen wieder zu verändern (was historisch auch immer wieder geschehen ist).

(11) Schon diese minimale Sprachtheorie macht deutlich, dass die Einführung von Zeichen
für Objekte, die nicht ‚zwischen‘ den verschiedenen Zeichenbenutzern existieren
und somit als empirische Objekte wahrgenommen werden können, viel grundsätzliche
Fragen aufwirft. Aber selbst die sprachliche Kommunikation über sogenannte ‚empirische‘
Objekte ist nicht trivial. Nach der Saussurschen Theorie können zwei Zeichenbenutzer
nur dann über ein empirisches Objekt zu einer Einigung kommen, wenn die psychischen
Objekte L_ph und O_ph bei bei beiden Zeichenbenutzern hinreichend ‚ähnlich‘ sind
und darüber hinaus in ihrer ‚Abbildung‘ vom externen Stimulus in ein psychisches
Ereignis hinreichend ‚konstant‘. Würde das ‚gleiche‘ empirische Objekt O_e.i bei
jedem Auftreten anders abgebildet werden (also O_e.i —> {O_ph.i.1, …, O_ph.i.k}),
dann wäre der betreffende Zeichenbenutzer garnicht in der Lage, in diesen
verschiedenen psychischen Ereignissen ein einziges bestimmtes empirisches Objekt
erkennen zu können. Ferner, selbst wenn die Abbildung als solche konstant wäre,
würde es zu Problemen kommen können, wenn die Abbildungen in jedem Zeichenbenutzer
grundsätzlich verschieden wäre (also O_ph.i von Zeichenbenutzer A wäre verschieden
von O_ph.i von Zeichenbenutzer B). Dies bedeutet, schon die ’normale‘ sprachliche
Kommunikation von empirischen Objekten verlangt, dass die internen
Abbildungsmechanismen von Wahrnehmungsereignissen in psychische Objekte sowohl
hinreichen ‚konstant‘ wie auch hinreichend ‚ähnlich‘ zwischen unterschiedlichen
Zeichenbenutzern sind.

(12) Aufgrund der Erkenntnisse verschiedener empirischer Wissenschaften zur
Evolution des Lebens – speziell auch zur Entwicklung genetischer Strukturen,
Körperentwicklung, Gehirn- und Verhaltensentwicklung — wissen wir, dass der
‚Bauplan‘ für den homo sapiens ‚identisch‘ ist und dass trotz Wechselwirkung
mit der Umwelt während der Wachstumsphase die entscheidenden Gehirnstrukturen
tatsächlich hinreichend ähnlich sind. Sinneswahrnehmung, Gedächtnisstrukturen,
Bewegungsprogramme, Spracherwerb, usw. funktionieren bei den einzelnen Zeichenbenutzern
‚vollautomatisch‘ und hinreichend ’strukturähnlich‘.

(13)Ausgestattet mit diesen Erkenntnissen eröffnet sich für die Frage der
sprachlichen Kommunizierbarkeit von bewusstseinsphilosophischen Sachverhalten
der interessante Ansatzpunkt, dass eine bedingte Kommunikation von
nichtempirischen Phänomenen möglich erscheint, wenn diese Phänomene
konditioniert sind von einer allgemeinen Erlebnisstruktur des homo sapiens
(eine der Leitideen der evolutionären Erkenntnistheorie). In diesem Fall
könnte ein Zeichenbenutzer A, der Zahnschmerzen hat, unter bestimmten
Voraussetzungen einem anderen Zeichenbenutzer B, der die Zahnschmerzen des A
nicht ‚wahrnehmen‘ kann, u.U. ‚indirekt‘ verstehen (z.B. durch Hinweise auf
Situationen, in denen er auch ‚Schmerzen‘ hatte oder gar ‚Zahnschmerzen‘).
Eine solche ‚indirekte‘ Bedeutungseinführung verlangt von allen Beteiligten
eine große Disziplin, verlangt möglichst viele gemeinsam geteilte Erfahrungen,
vor allem aber ‚Vertrauen‘ darin, dass der andere nicht ‚täuscht‘, nicht etwas
’simuliert‘, was garnicht da ist. Eine direkte Überprüfbarkeit ist stark
reduziert wenn nicht völlig ausgeschlossen. Trotz dieser Widrigkeiten, das zeigt
der Alltag, gelingt der Aufbau von ‚indirekten Bedeutungsbeziehungen‘ erstaunlich
gut und kann sehr weit ausgreifen. Allerdings erscheinen die ‚Grenzen‘ dieses
Verfahrens ‚fließend‘ zu sein.

(14) Eine Bewusstseinsphilosophie auf der Suche nach transzendentalen Strukturen
wird also letztlich nur soweit kommen können wie einerseits (i) das Erleben als
solches Inhalte verfügbar machen kann und zum anderen (ii) nur insoweit, als
eine gemeinsame Sprache verfügbar ist, die es erlaubt, die verfügbaren
Unterscheidungen im Raum des Erlebens sprachlich zu kodieren.

(15) Husserl selbst blieb in der Struktur seines Erlebens letztlich ‚gefangen‘
und alle seine Bemühungen zur Einordnung von kontingenter Welterfahrung und
transzendental bedingter Metaphysik enden an den Grenzen des puren Erlebens
(inklusive der darin fassbaren allgemeinen Sachverhalte)

(16) In der Philosophie nach Husserl gab es unterschiedliche Strömungen, den
phänomenologischen Ansatz anders zu deuten oder gar weiter zu entwickeln, doch
die schier unüberwindlich erscheinende Gegenübersetzung von kontingenten
Erlebnisinhalten (und den darauf aufbauenden entsprechend angenommenen kontingenten
Einzelwissenschaften) und transzendentalen Sachverhalten paralysierte alle
Nachfolger (einschließlich z.B. Heidegger, Derrida, Lyotard).

(17) Folgt man den Einsichten zum Sprachgebrauch dann kann deutlich werden,
dass die Formulierung abstrakter Modelle (formaler Theorien) sowohl zur
Beschreibung von Regelhaftigkeiten im Kontext von kontingenten Inhalten benutzt
werden kann wie auch zur Beschreibung von transzendentalen Eigenschaften des
Erlebens. Mehr noch, die Entwicklung von empirischen Theorien mit ‚formalen
Kernen‘ hat gezeigt, dass Dasjenige, was den ‚Erkenntnisinhalt‘ solcher
Theorien ausmacht, gerade nicht das kontingente Faktum als solches ist,
sondern jene ‚Regelhaftigkeiten‘, die anläßlich des kontingenten Auftretens
durch ‚Speicherung der Ereignisse‘ ’sichtbar‘ werden und eben als diese
‚Regeln‘ dann in eine formale Strukturbildung Eingang finden. Statt – wie
Husserl dies tut – hier von der ‚Transzendenz‘ der empirischen Bedeutungen zu
sprechen, vom ‚unendlichen Horizont der Bedeutung‘ (was in gewissem Sinne
schon einen ‚Sinn‘ ergibt), wäre es vielleicht hilfreicher, sich klar zu machen,
dass die kontingenten Inhalte als solche dem bewussten Erleben gegenüber
auch ‚transzendental‘ sind, dem Erleben ‚vorausgehend‘, und dass die ‚Extraktion‘
von Regeln in den transzendentalen Inhalten ein Denkprozess ist, der als solcher
transzendental ist. Es ist das ‚transzendentale Denken‘ das sich aus den
transzendentalen Phänomenen jene Eigenschaften extrahiert, die über das
einzelne Phänomen hinausweisen und als allgemein Gedachtes dann zur
‚Voraussetzung‘ des weiteren Denkprozesses wird. Zugleich sind die
erkannten Regeln in ihrer möglichen ontologischen Interpretation ebenfalls
ein ‚transzendentales Etwas‘ für das erkennende Denken.

(18) Findet somit schon über die Dimension des Zeichengebrauchs eine gewisse
Annäherung zischen dem ‚Kontingenten‘ und dem ‚Transzendentalem‘ statt, so haben
uns die modernen empirischen Wissenschaften darüber belehrt, dass die allgemeinen
Strukturen des Erlebens (und darin enthalten Erinnern, Abstrahieren, Denken usw.)
zwar aus der Perspektive des Erlebens selbst als etwas Transzendentales, als
etwas nicht weiter Hintergehbares erscheinen, dass aber mit Hilfe von formalen
Theoriebildungen anhand von kontingenten Fakten klar geworden ist, dass
diese transzendentalen Strukturen letztlich selbst kontingent sind, nämlich
jene Strukturen, die sich im Rahmen der Evolution im Laufe von ca. 3.5 Milliarden
Jahren in Interaktion mit der vorfindlichen Erde entwickelt haben. Und diese
Strukturen sind kein ‚Endpunkt‘, sondern nur eine ‚Zwischenstation‘ in einem
Prozess, dessen Ende noch niemand kennt. Eine Metaphysik auf Basis rein
transzendentaler Sachverhalte im Sinne Husserls – also unter Ausklammerung der
Erkenntnisse aus den kontingenten Inhalten – erscheint von daher sehr fragwürdig,
mehr noch, sie führt – wie es bislang der Fall ist –, zu einer Fülle
unauflöslicher Paradoxien.

(19) Nimmt man die neuen Einsichten auf, dann lässt sich ein interessanter neuer
– und dynamischer – Ansatzpunkt für eine die ganze Welterfahrung umspannende
Metaphysik skizzieren. Den Kern bilden emirische Theorien mit formalen
Theoriekernen, die im Erleben verankert sind. Das Erleben ist aber korreliert
mit den Erkenntnissen über die Strukturentwicklung von Körper und Gehirn.
Dies ist notwendig, da die transzendentalen Voraussetzungen des individuellen
Erlebens innerhalb des individuellen Erlebens zwar einen ‚absoluten‘ Rahmen
bilden, insofern das Individuum aber Teil einer Population ist, die eine
evolutionäre Entwicklung hinter sich hat, ist dieser individuelle transzendentale
Rahmen eine ‚gewordene‘ Struktur, die ihre Wahrheit aus den bisherigen
Interaktionserfolgen mit der vorgegebenen Erde bezieht. Die Erde selbst ist
aber nur ein winziger Teil des Universums, in dem schon alleine die Milchstrasse
als unser Heimatgalaxie mehr als 200 Miliarden Sonnen enthalten soll. Es
wäre also zu klären, worin das ‚Allgemeine‘ in der Struktur liegt, die wir
bislang ‚empfangen‘ haben und inwieweit man dies über die Erde hinaus ausdehnen
kann.

(20) Jede künftige Philosophie ist entweder eine Philosophie des Lebendigen
im Universum unter Einbeziehung aller empirischen Wissenschaften oder sie
degeneriert zu einem bloßen ‚Meinen‘ von einzelnen Personen, bei dem nicht klar
ist, was sie sagen wollen, weil die Beziehung zum Ganzen des Wissens willkürlich
beschnitten wurde.

EMERGENZ DES GEISTES?

Hypothestische Zeitabschnitte A --D anhand von Strukturmerkmalen. Erklräung: Siehe Text
Emergenz des Geistes Hypothestische Zeitabschnitte A –D anhand von Strukturmerkmalen. Erklräung: Siehe Text

(1) Nachdem im Vortrag vom 2.Okt.2011 deutlich wurde, dass der Dualismus von 'Geist' und 'Materie' so nicht mehr aufrecht erhalten werden kann, ja, eigentlich in seiner ursprünglichen Intention zu verabschieden ist, bleibt als Begriffspaar eigentlich nur 'Energie - Materie' übrig: Materie als spezielle Zustandsform von Energie.

 

(2) Zusätzlich zeigte sich aber, dass die Materie im Lichte ihrer atomaren Feinstruktur einer 'Kombinatorik' fähig ist, die -- entgegen dem allgemeinen Gesetz der Entropie -- bei Vorhandensein von 'freier Energie' 'aus sich heraus' zu lokalen Strukturbildungen tendiert, die in Form von Molekülen, Zellen, vielzelligen Organismen usw. sich zu immer 'komplexeren' und immer 'handlungsfähigeren' Strukturen hin entwickeln.

 

(3) Ab einem bestimmten Punkt von Komplexität haben wir 'Menschen' angefangen, solche hochkomplexen agierenden Strukturen mit den Begriffen 'intelligent', 'geistig' zu belegen, bzw. wir unterstellen 'in' diesen Strukturen die Gegenwart von 'Geist', von 'Seele'.

 

(4) Nun sind diejenigen, die dieses 'Urteil' aussprechen selber diejenigen, auf die es zutrifft. D.h. diejenigen Lebewesen auf dieser Erde, die am 'meisten' von dieser agierenden Komplexität besitzen, sind diejenigen, die dieses 'an anderen' und 'an sich selbst' 'haben'. In der Logik nennt man dies 'selbstreferentiell' und selbstreferentielle Definitionen sind eigentlich keine 'wirklichen Definitionen'.

 

(5) Wie auch immer, wir können diese spezielle Eigenschaft einer speziell agierenden Komplexität beobachten, an anderen, an uns selbst, wir können diesen Phänomenen Bezeichnungen zuordnen, wir können versuchen, dies alles zu verstehen.

 

(6) Das Schaubild  zeigt einen ersten Versuch einer sehr groben Skizze der Evolution dieses Phänomens einer sich stetig entfaltenden agierenden Komplexität, die 'aus der Mitte der Materie' erwächst, gleichsam eine 'Ausfaltung' der der Materie (und letztlich der Energie) 'innewohnenden Eigenschaften', die sich in der Ausfaltung zeigen (offenbaren). Statt Ausfaltung könnte man auch von 'Emergenz' sprechen. Zugleich entsteht der Eindruck, dass sich diese Ausfaltung stetig beschleunigt!!!

 

(7) In diesem Schaubild habe ich versucht, grob verschiedene 'Organisationsebenen' in dieser Komplexität zu unterscheiden (sicher noch nicht das letzte Wort). Damit ergibt sich folgende erste Annäherung an einen Prozess einer sich 'auftürmenden' Evolution, die in 'Schichten' organisiert ist: unter Voraussetzung einer Evolution auf Organisationsebene i kann sich die Evolution auf Organisationsebene i+1 noch komplexer entwickeln.

 

(8) A: -13.6 bis - 4.6 Mrd, Atomare Evolution In den ersten 9 Mrd Jahren vom 'Big Bang' bis hin zur Entwicklung erster Galaxien, die sich ungleichmäßig im Universum verteilen, bildeten sich sowohl leichte wie auch 'schwere' Atome. Letztere sind wichtig für bestimmte Moleküle, die anschließend für die chemische und biologische Evolution wichtig wurden.

 

(9) B: -4.6 bis - 3.6 Mrd, Chemische Evolution: Ab Entstehung der Erde hat es ca. 1 Mrd Jahre gedauert, bis sich selbstreproduzierende Zellen entwickelt hatten, die dann nachhaltig die Atmosphäre (Sauerstoff) sowie die gesamte Erdoberfläche (einschließlich Weltmeere) veränderten.

 

(10) C: -3.6 Mrd bis heute, Biologische (= Genetische) Evolution: Mit dem Auftreten von selbstreproduzierenden Zellen begann die biologische Evolution, in der sich -- erst langsam, dann immer schneller -- Pflanzen, Pilze und Tiere entwickelt haben. Insbesondere homo sapiens beginnt sich soweit auszudehnen, dass einige der bekannten Kapazitätsgrenzen der Erde in wenigen Jahrzehnten erreicht zu sein scheinen.

 

(11) D: Ungefähr -550 Mio bis heute, Memetische Evolution: Die memetische Evolution ist eine Weiterentwicklung des Nervensystems innerhalb der biologischen Evolution, die es den biologischen Systemen ermöglicht, mehr und mehr sowohl Erlebtes zu speichern wie auch aktiv wieder zu erinnern, und zwar so, dass sie damit Hinweise für mögliche Handlungen für aktuelle Problemlösungssituationen bekommen.

 

(12) E: Ungefähr -10 Mio bis heute, Semetische Evolution: Die Semetische Evolution ist eine Weiterentwicklung des Nervensystems innerhalb der biologischen Evolution, die es den biologischen Systemen ermöglicht, das Erlebte und Erinnerbare mit Hilfe von Zeichenmaterial in Bedeutungsbeziehungen einzubetten, die aus bloßem Zeichenmaterial (Token, Laute,...) 'Zeichen' machen. Damit entstehen nach und nach Sprachsysteme, mit deren Hilfe sich Menschen, dann später insbesondere Individuen der Art homo sapiens, immer besser koordinieren können.

 

(13) F: Ungefähr -100.000 bis heute, Soziale-ökonomische Evolution: die immer komplexeren Interaktionsmöglichkeiten durch Sprache erlauben immer komplexere Interaktionen im Bereich sozialer Beziehungen, handwerkliche Prozesse, Bauten, Gesetze, wirtschaftliche Beziehungen, Bildung von Institutionen, usw.

 

(14) G: Ungefähr -1000 bis heute, Edukative Evolution: Beginn der systematischen Organisation von Erziehungs- und Ausbildungsprozessen, um das angesammelte Wissen der Population homo sapiens systematisch zu sammeln, zu ordnen, auszuwerten, weiter zu geben, weiter zu entwickeln: Schulen, Hochschulen, Bibliotheken, Forschungseinrichtungen, Zeitschriften, Bücher, ....

 

(15) H: Ungefähr -100 bis heute, Strukturevolution: Homo sapiens gelingt nicht nur die Entwicklung von Informationstechnologien, die das Umgehen mit Informationen, Wissen extrem beschleunigen können, sondern zusätzlich bekommt er Zugriff auf die 'Baupläne' der biologischen Systeme. Im Prinzip kann homo sapien jetzt nicht nur die verschiedenen übergeordneten Evolutionen beschleunigen, sondern auch die biologische Evolution selbst. Dies stellt eine wichtige Herausforderung dar, da die aktuellen 'körperlichen (biologischen)' Strukturen neben ihrer faszinierenden Komplexität und Leistungsfähigkeit deutliche Kapazitätsgrenzen und 'Unangepasstheiten vieler eingebauter genetischer Programme' erkennen lassen.

 

(16) I: Ab wann? Theologisch-, Ethische Evolution: Das unglauliche Anwachsen an Handlungsmöglichkeiten eingebettet in einen sich selbst beständig beschleunigenden Prozess führt unausweichlich zur zentralen Frage, 'wohin' denn dieser Prozess steuert bzw. offensichtlich unter Beteiligung des gesamten Lebens, insbesondere in Gestalt des homo sapiens, steuern soll. Wenn wir jetzt im Prinzip alles (!) verändern können -- letztlich sogar interstellare und galaktische Prozesse -- dann sollten wir irgendwie klären, wo wir hinwollen. Die theologischen Visionen der 'alten' Religionen sind weitgehend 'wertlos' geworden, da sie einfach 'falsch' sind. Die Grundsatzfrage jedoch, woher und wohin das gesamte Universum mit uns als Teilnehmern bleibt, und erscheint einerseits weniger beantwortet denn je, zugleich drängen sich so viele neue 'harte' Fakten ins Blickfeld unseres 'Geistes', so  dass wir nicht länger so tun können, als ob wir 'nichts' wüssten. Faktisch sind wir 'maximal Wissende' eingebettet in sehr endliche Strukturen. Wer weiss warum, wozu, wohin, wie?