RINGEN UM DAS BEWUSSTSEIN. BEISPIEL CHALMERS 1995 – Problem of Consciousness

(Letzte Aktualisierung: Do 28.Juli 2016, 13:06h)

David J.Chalmers, FACING UP THE PROBLEM OF CONSCIOUSNESS, Journal of Consciousness Studies, 2, No. 3, 1995, pp.200-219

KONTEXT

  1. In einem vorausgehenden Blogeintrag mit dem Titel THOMPSON: MIND IN LIFE – Review – Teil 1 hatte ich damit begonnen, eine neue Variante phänomenologischer Forschung zu besprechen, die unter dem Titel Neurophänomenologie begründet worden war. Dieser Ansatz geht zurück auf Varela, der dazu 1996 einen grundlegenden Artikel im JoCS geschrieben hatte, in dem er wiederum auf einen Artikel von Chalmers 1995 geantwortet hatte. Seine Antwort umfasste dann gleich einen kompletten konstruktiven Vorschlag, wie man es anders machen könnte. Bevor der Artikel von Varela hier zur Sprache kommen soll, hier zunächst eine Reflexion auf den Beitrag von Chalmers 1995, der seitdem in zahllosen weiteren Artikeln intensiv diskutiert worden ist. Eine andere Art von Einstimmung könnte das Kap.9 von Nick Lane sein.

OBJEKTIV – SUBJEKTIV

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

  1. Im Kapitel 2 (siehe Bild) startet Chalmers seine Überlegungen zum Bewusstsein mit einer Fallunterscheidung in objektive Aspekte des Problems und in subjektive Aspekte.

  2. Die objektiven Aspekte lassen sich nach Chalmers – im Prinzip – im Rahmen der bekannten wissenschaftlichen Disziplinen relativ einfach aufklären. Als wissenschaftliche Disziplinen führt er nur eine einzige an, nämlich die Kognitionswissenschaft (‚cognitive science‘), innerhalb deren er drei methodische Ansätze unterscheidet: computerhaft (‚computational‘), neurophysiologisch und neuronal (’neural‘).

  3. Als Phänomene, die er für die Methoden der Kognitionswissenschaft im Prinzip als einfach (‚easy‘) erklärbar einstuft, zählt er auf: Umgebungsreize, verbale Äußerungen, Aufmerksamkeit, Verhaltenskontrolle, Wachheit und Schlaf, Verhaltenskontrolle und diverse interne Zustände.

  4. Daneben erkennt er aber auch noch eine subjektive Dimension im Wirklichkeitszugang. Diese erschließt sich im Darin sein (‚to be in them‘) in inneren, mentalen Zuständen. Hier trifft man auf Phänomene, Qualia, befindet man sich im Raum des Bewusstseins, im Bewusstsein.

  5. Die subjektive Dimension befindet sich außerhalb des Zugriffs der objektiven Methoden. Insofern nennt er die Fragen des Bewusstseins, die sich im subjektivne Zugang erschließen, als harte (‚hard‘) Fragen. Er spricht hier vom harten Problem (‚hard problem‘) des Bewusstseins.

FUNKTIONALE ERKLÄRUNG MIT GRENZEN

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

  1. Das 3.Kapitel läuft auf die These von der begrifflichen Kluft (‚explanatory gap‘) zwischen funktionaler Erklärung objektiver Phänomene einerseits und der korrelierenden Existenz des subjektiven Phänomens des Bewusstseins hinaus (vgl. Bild 2).

  2. Dies setzt voraus, dass die Wissenschaften, die objektive Phänomene im Umfeld des Bewusstseins erklären, dies mit Hilfe von funktionalen Erklärungen tun können. In einer funktionalen Erklärung F werden die beobachtbaren (zu erklärenden) Phänomene X in Beziehung gesetzt zu anderen beobachtbaren Phänomenen Y, und zwar so, dass der Zusammenhang einen Mechanismus (‚mechanism‘) erkennen lässt, aufgrund dessen das Auftreten von X in Abhängigkeit von Y akzeptiert werden kann. Entsprechend den zuvor angeführten Methoden der Kognitionswissenschaft(en) sieht Chalmers drei Arten von möglichen Mechanismen: (i) Computermodelle, (ii) kognitive Modelle und (iii) neuronale Modelle.

  3. Chalmers sieht keine Möglichkeit, das korrelierende Auftreten einer Bewusstseinserfahrung B im Kontext von beobachtbaren Phänomenen X und Y ebenfalls durch eine funktionale Erklärung G so zu erklären, dass sich zwischen X und Y einerseits und B andererseits ein Mechanismus angeben lässt, der als Erklärung akzeptierbar sei.

  4. Diese Unmöglichkeit der Angabe einer weiteren funktionalen Erklärung versteht Chalmers als Erklärungslücke (‚explanatory gap‘).

BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.4)

Chalmers 1995 kap.4 illustrierende Beispiele

Chalmers 1995 kap.4 illustrierende Beispiele

  1. Im Kap.4 stellt Chalmers verschiedene Autoren vor, mittels deren er seine zuvor eingeführte Klassifikation illustrieren möchte. (vgl. Bild 3)

  2. Diese Beispiele sind aber so karg beschrieben, dass man sie kaum verwerten kann. Als Beleg soll das Zitat von Edelman dienen. Im Buch von Edelman (1989) wird ein sehr ausführliches Bild von den Forschungen zum Bewusstsein vermittelt. Das Stichwort vom ’neuronalen Darwinismus‘ greift hier viel zu kurz (das Buch Edelmans von 1992 Bright Air, Brilliant Fire: On the Matter of thre Mind, das noch umfassender ist, wird erst gar nicht erwähnt)(Anmerkung: In seinem Buch The Conscious Mind (1996) ist Chalmers hier genauer und hilfreicher. Die Bemerkungen hier im Artikel erscheinen da eher nutzlos).

  3. Die Stichworte zu Koch/ Crick und Baars lassen noch am ehesten deren Ideen erkennen. Nach Koch/Crick sind es synchronisierende Oszillationen im Gehirn (Bindungstheorie), die unterschiedliche Aktivitäten bündeln und so komplexe Zustände möglich machen, die eventuell als Korrelate des Bewusstseins (‚correlates of experience‘) angesehen werden können. Ähnlich und doch weitergehender (spekulativer) argumentiert Baars. Er sieht einen Zusammenhang zwischen den Inhalten des Bewusstseins (‚contens of consciousness‘) und dem, was er den globalen Arbeitsbereich (‚global workspace‘) des Gehirns nennt: dies soll jener Bereich sein, in den viele andere Bereiche des Gehirns wichtige Informationen abbilden, über die alle spezialisierten Bereiche kommunizieren. Er nennt dies ein gemeinsames schwarzes Brett (‚communal blackboard‘).

  4. Was immer such die einzelnen Beispiele im einzelnen – nach Chalmers – sagen bzw. sagen wollen, für Chalmers bietet keines der Beispiele (also: keiner der Autoren) eine wirkliche Antwort auf die Frage, warum (‚why‘) es das Phänomen des Bewusstseins parallel zu diesen vielen Prozessen gibt und wie (‚how‘) der Zusammenhang zwischen den physiologischen und den phänomenalen Phänomenen genau zu denken ist.

WEITERE BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.5)

  1. In Kap.5 wir die kursorische Aufzählung weiterer Beispiele fortgesetzt, in der Erklärungsansätze genannt werden, die mit dem Phänomen des Bewusstseins Berührungen aufweisen, aber nichts wirklich erklären sollen.

  2. So wird wird das Konzept nicht-algorithmischer Prozesse von Penrose (1989, 1994) erwähnt. Ein Zusammenhang mit dem Phänomen des Bewusstseins sieht Chalmers nicht.(p.207)

  3. Ähnlich stellt Chalmers auch einen Erklärungszusammenhang zwischen chaotischen und nichtlinearen Prozessen ebenso wenig mit quantentheoretischen Modellen (Hameroff 1994) in Frage. Was erklären diese? (vgl. p.207f)

  4. Chalmers wiederholt hier sein Axiom, dass jede Art von Erklärung physikalischer Prozesse alleine nicht ausreichend sein kann, das Phänomen des Bewusstseins als solches zu erklären. Die Emergenz von Bewusstseinserfahrung entzieht sich einer rein physikalischen Erklärung. Phänomene des Bewusstseins können sich im Kontext von physikalischen Prozessen zeigen, sie müssen es aber nicht.(p.208)

NEUE FUNDAMENTALE ENTITÄTEN

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

  1. Nachdem Chalmers – aus seiner Sicht – herausgearbeitet hat, dass eine Erklärung der Phänomene des Bewusstseins mittels physikalischer Gesetze nicht möglich erscheint, folgt er der Strategie der Physik aus der Vergangenheit, indem man für nicht-reduzierbare Phänomene dann postuliert, dass sie fundamentale Phänomene seien, die ihre eigenen Gesetze benötigen.(vgl. Bild 5)

  2. Insofern diese neuen fundamentale Phänomene nicht isoliert von den physikalischen Phänomenen auftreten, nennt er sie emergente Phänomene, deren korrelierendes Auftreten im Kontext physikalischer Phänomene sich gegebenenfalls mit zusätzlichen überbrückenden Prinzipien (Brückenprinzipien, ‚bridging principles‘) beschreiben lassen.

  3. Die Betrachtung von Phänomenen führt meist auch zur Frage von damit zusammenhängenden möglichen Existenzen (Ontologien, ‚ontologies‘).

  4. Fall sich mit den Phänomenen des Bewusstseins Existenzen ganz eigener Art verknüpfen würden, dann läge eine neue Art von Dualismus (im Stile von Descartes und anderen) vor. Soweit will Chalmers aber nicht gehen. Obwohl es sich bei den Phänomenen des Bewusstseins um nicht-reduzierbare, und damit fundamentale Phänomene handelt, will er sie nicht gänzlich von der natürlichen Ontologie getrennt sehen, wie sie von der Physik beschrieben wird.

  5. Interessanterweise sieht Chalmers eine Theorie des Bewusstseins näher bei der Physik als bei der Biologie, der er jegliche fundamentale Prinzipien im Sinne des Bewusstseins abspricht.(p.211)

AUSBLICK AUF EINE THEORIE DES BEWUSSTSEINS

Chalmers 1995 - Elemente einer neuen Theorie des Bewusstseins

Chalmers 1995 – Elemente einer neuen Theorie des Bewusstseins

  1. Unabhängig davon, was Chalmers über andere Autoren gesagt hat (treffend oder nicht treffend), hat er seine eigene Meinung zu einer möglichen Theorie des Bewusstseins.

  2. Zu Beginn des Kap.7 skizziert er einige grundlegende Annahmen, auf deren Basis er dann weiter voranschreitet.

  3. Wie in Bild 7 angedeutet, soll eine mögliche Theorie des Bewusstseins einfach und kohärent sein und soll Aussagen über reproduzierbare Fakten möglich machen.

  4. Als Basis für die Theorie gibt es einerseits die Eigenschaften der bewusstseinsbasierten Erfahrung, zu denen jeder einzeln, für sich einen direkten Zugang hat, und andererseits empirische Phänomene, wie Umwelt, Körper und Gehirn, speziell auch sprachliche Äußerungen, über die man indirekt auf Eigenschaften des Bewusstseins schließen kann.

  5. Ferner postuliert Chalmers spezielle psycho-physische Brückenprinzipien, die einen Zusammenhang zwischen korrelierenden physikalischen und bewusstseinsbezogenen Phänomenen herstellen.

PRINZIP DER STRUKTURELLEN KOHÄRENZ

  1. Als eine mögliche Richtschnur für die Formulierung der Inhalte einer möglichen Theorie des Bewusstseins beschreibt Chalmers das Prinzip der strukturellen Kohärenz.

  2. Diese Kohärenz sieht er gegeben zwischen dem empirischen Phänomen der Aufmerksamkeit (‚attention‘) und den den subjektiven Phänomenen des Bewusstseins.

  3. Der Begriff der ‚Aufmerksamkeit‘ wird definiert über empirische Phänomene und deren funktionalen Beziehungen.

  4. Ohne eine weitere Analyse der subjektiven Phänomene vorgelegt zu haben behauptet Chalmers nun, dass die Phänomene im Kontext der empirischen Aufmerksamkeit eine bestimmte Struktur erkennen lassen, die sich auch im Bereich der subjektiven Phänomene finde. Er geht sogar soweit, die Ähnlichkeit zwischen beiden Strukturen (Struktur der Aufmerksamkeit, Struktur des Bewusstseins) als isomorph zu bezeichnen (p.213).

  5. Zugleich schränkt er diese Ähnlichkeit dahingehend ein, dass subjektive Phänomene Eigenschaften haben, die sich nicht in der strukturellen Ähnlichkeit erschöpfen. Die kohärente Strukturen beschränken das beobachtbare Verhalten subjektiver Phänomene, aber erschöpfen sie nicht. (vgl.p.213)

  6. Sofern man solch eine strukturelle Kohärenz feststellen kann, macht es nach Chalmers Sinn, die empirischen Phänomene der Aufmerksamkeit als Korrelate bewusster Erfahrung zu bezeichnen.

PRINZIP DER ORGANISATORISCHEN INVARIANZ

  1. Chalmers formulierte noch ein weiteres Prinzip, das von der organisatorischen Invarianz. Es ist kein mathematisches Prinzip, sondern eher ein Postulat über empirische Strukturen.

  2. Ausgangspunkt sind zwei Systeme S1 und S2. Beide haben eine funktionale Organisation, d.h. Es gibt jeweils irgendwelche Mengen von Elementen M1 und M2 und jeweils irgendwelche Funktionen F1 und F2, die über den Mengen M1 und M2 definiert sind, also S1(x) iff x=<M1,F1> bzw. S2(x) iff x=<M2,F2>.

  3. Chalmers postuliert nun, dass, wenn beide Systeme S1 und S2 die gleiche funktionale Organisation haben (‚functional organization‘), dass sie (?) dann auch die qualitativ gleiche Erfahrung (‚qualitatively identical experience‘) haben.

  4. Diese Formulierung wirft einige Fragen auf.

  5. Nimmt man an, dass er mit Erfahrung wie zuvor im Text immer die Erfahrung des Bewusstseins meint, dann stellt sich die Frage, in welchem Sinne ein System S1 oder S2 eine bewusste Erfahrung haben sollen? Nach allem zuvor Gesagtem haben empirische Systeme nicht notwendigerweise eine bewusste Erfahrung.

  6. Wenn Chalmers aber meint, dass die Systeme S1 und S2 für empirische Systeme stehen, die Korrelate von bewussten Erfahrungen sind, dann würde das Prinzip besagen wollen, dass zwei verschiedene empirische Systeme S1 und S2, die Korrelate von jeweils einem Bewusstsein B1 bzw. B2 sind, diesen korrelierenden Bewusstseinen B1 und B2 jeweils identische Erfahrungen übermitteln.

  7. Direkt beweisbar ist dieses Prinzip nicht, da der direkte Zugriff auf bewusste Erfahrungen von den beiden Bewusstseinen fehlt, aber es ist eine sehr plausible Arbeitshypothese. (vgl. p.215) Diese Arbeitshypothese würde es zumindest ansatzweise verständlich machen, warum zwei verschiedene Menschen ansatzweise über ähnliche Erfahrungen verfügen können.

DIE THEORIE DES DOPPELTEN ASPEKTS DER INFORMATION

  1. Chalmers klassifiziert die beiden vorausgehenden Prinzipien als nicht basale Prinzipien. Nichts desto Trotz sind sie für ihn hilfreiche Beschränkungen (‚constraints‘).

  2. Jetzt will er ein erstes basales Prinzip mit Hilfe des Begriffs der Information einführen.

  3. Bei dieser Einführung des Begriffs Information bezieht er sich zwar ausdrücklich auf Shannon (1948), ersetzt aber die Begrifflichkeit von Shannon sogleich durch die Begrifflichkeit von Bateson (1972), indem er die einzelnen physikalischen Informationen als Differenzen bezeichnet, die eine Differenz konstituieren (Originalzitat Bateson: A „bit“ of information is definable as a difference which makes a difference. Such a difference, as it travels and undergoes successive transformation in a circuit, is an elementary idea. (Bateson 1972, p.335)

  4. Dann überträgt er diese Begrifflichkeit auf die empirischen und auf die subjektiven Phänomene, indem er für die Menge der korrelierenden empirischen Phänomene einen Informationsraum Ie postuliert und für die Menge der subjektiven Phänomene auch einen Informationsraum Is. Ferner postuliert er, dass die Elemente in jedem dieser Räume durch eine Menge von Differenzen charakterisiert werden – also <Ie,De> sowie <Is, Ds> –, dass jedem dieser Räume mit diesen Differenzen dann eine Struktur Ste(x) iff x= <Ie,De> sowie Sts(x) iff x=<Is, Ds> zukomme, die sich direkt korrespondieren (‚directly correspond‘), also CORR(STe, Sts).

  5. Aus den Postulaten werden dann sogleich Behauptungen der Art, dass man sowohl in den empirischen Prozessen wie auch in den subjektiven Erfahrungen die gleichen abstrakten Informationsräume finde.

  6. Nachdem Chalmers die Begriffe Information und Differenz für die theoretische Beschreibung eingeführt hat (niemand hat ihn dazu gezwungen!), folgert er dann aus seinen eigenen Annahmen, als Hypothese, dass Information zwei Aspekte habe: einen physikalischen und einen phänomenalen (:= subjektiven).

  7. Nach diesen begrifflichen Verschiebungen erklärt er dann diese letzte Hypothese zu einem basalen Prinzip, aus dem hervorgehe, dass sich immer dann Erfahrung eines Bewusstseins vorfindet, wenn ein entsprechender physikalischer Prozessraum gegeben ist.(vgl. p.216)

DISKURS

KEINE DOPPEL-ASPEKT THEORIE DER INFORMATION

  1. Chalmers selbst klassifiziert seine Doppel-Aspekt Überlegungen als eher eine Idee denn eine Theorie (vgl. p.217) bzw. weiter vorne als extrem spekulativ und unterbestimmt.

  2. Dies würde ich hier unterschreiben. Denn die Verwendung des Wortes Information durch Chalmers erscheint sehr fragwürdig.

  3. Der Informationsbegriff bei Shannon (1948) setzt einen sehr speziellen Kontext voraus, auf den Shannon klar und deutlich hinweist. Es geht bei der Verwendung des Begriffs der Information bei Shannon NICHT um den Begriff von Information, wie er im Alltag oder bei wichtigen biologischen Kontexten vorkommt, wo unterschiedliche bedeutungsvolle/ semantische Kontexte eine Rolle spielen, sondern AUSSCHLIESSLICH um die jeweiligen Signalereignisse und deren Wahrscheinlichkeiten. Diese Signalereignisse als solche haben weder irgendeinen Informationswert noch eine irgendwie geartete Bedeutung. Es sind einfach Eigenschaften aus einem Eigenschaftsraum, die sich natürlich qua Eigenschaften durch Unterschiede/ Differenzen indirekt charakterisieren lassen. Aber der Begriff der Differenz setzt ein X und Y voraus, die minimale Eigenschaften Px und Py besitzen, aufgrund deren sie sich unterscheiden lassen. Nur unter Voraussetzung von solchen Elementen samt Eigenschaften lässt sich eine Differenz definieren. Ein System von Differenzrelationen setzt mathematisch eine Menge von Elementen voraus, aufgrund deren sich die Relationen definieren lassen.

  4. Der Sprachgebrauch von Bateson (1972) mit seinen Differenzen mag irgendwie interessant klingen, ist aber mathematisch irreführend. Eine Differenz ist abgeleitet von dem X, das sich von anderem Nicht-X unterscheiden lässt. Die Unterscheidbarkeit von Ereignissen X in der Wahrnehmung ist biologisch natürlich bedeutsam, aber das Ereignis als solches keinesfalls, nur die Relationen zu einem Y, das sich biologisch als ‚relevant‘ erweist.

  5. Streichen wir also den Begriff der Differenz im Kontext von Information, da redundant, bleibt der Informationsbegriff, angeblich nach Shannon.

  6. Bei Shannon aber ging es nur um Signalereignisse und deren wahrscheinliches Auftreten, ohne jeglichen Bedeutungsbezug.

  7. Natürlich kann man sowohl die empirischen wie auch die subjektiven Phänomene abstrakt als Ereignisse betrachten, die mit gewissen Wahrscheinlichkeiten auftreten. Das würde aber genau jene Qualitäten an diesen Ereignissen verdecken, die sie für ein biologisches System interessant machen. Biologisch interessant sind ausschließlich Ereignisse, sofern sie Bezug haben zum Überleben generell und innerhalb dessen zu speziellen Kontexten des Überleben. Es sind gerade diese Kontexte, die sich mit Ereignissen assoziieren lassen, durch die Ereignisse mit Bedeutung aufgeladen werden, sodass diese Ereignisse im biologischen Sinn informativ sind.

  8. Dieser fundamentale Aspekt von Information wurde von Shannon ganz bewusst ausgeklammert, da er dies für seinen Anwendungsfall nicht benötigt hat. Bateson und Chalmers brauchen es eigentlich, folgen hier aber – blindlings? – Shannon, obgleich dieser sogar ein großes Warnschild gleich zu Beginn seines Textes aufgestellt hat. DIES IST NICHT INFORMATION IM ÜBLICHEN SINNE!!!

STRUKTURELLE KOHÄRENZ VON WAS?

  1. Nach dieser Entmystifizierung des Differenz- und Informationsbegriffs bleibt von der Doppel-Aspekt Theorie der Information nur noch das übrig, was Chalmers schon zuvor mit dem nicht-basalen Prinzip der strukturalen Kohärenz ausgedrückt hat, dass nämlich die korrelierenden empirischen Phänomene und die subjektiven Phänomene strukturell ähnlich seien. Chalmers bleibt eine Definition jener Strukturen schuldig, die er als gegeben voraussetzt, von denen er immerhin sagt, dass sie isomorph seien, und doch wiederum nicht so, dass alle subjektiven Phänomene durch die empirischen Phänomene dadurch voll bestimmt wären. Eigentlich impliziert Isomorphie eine 1-zu-1 Abbildung; aber dann doch nicht ganz? Was meint er dann?

  2. Wenn man von einer Strukturähnlichkeit zwischen zwei Strukturen S1 und S2 spricht, geht man normalerweise davon aus, dass die beiden Strukturen S1 und S2 nicht nur einfach gegeben sind, sondern auch in ihrer Beschaffenheit genau beschrieben/ definiert sind. Kann man das von den subjektiven Phänomenen des Bewusstseins sagen? Außer von Husserl sind mir keine ausführlichen Untersuchungen zu den Phänomenen des Bewusstseins bekannt, und von Husserls Untersuchungen kann man weder sagen, sie seien vollständig noch liegen sie in einer Form vor, die man als formal befriedigend bezeichnen könnte (obwohl Husserl von der Ausbildung her auch Mathematiker war und von daher das Rüstzeug haben konnte). Diskutabel wäre hier vielleicht Carnaps logischer Stufenbau (1928), der der Struktur von Husserl – soweit bekannt – sehr eng folgen soll. Wovon also spricht Chalmers, wenn er die Strukturähnlichkeit zwischen empirischen und subjektiven Phänomenen behauptet?

WAS BLEIBT VON CHALMERS KRITIK?

NICHTREDUZIERBARKEIT

  1. Der zentrale Punkt von Chalmers Kritik dürfte wohl die Nichtreduzierbarkeit des Subjektiven auf Empirisches sein. Im subjektiv zugänglichen Erfahrungsraum des Bewusstseins erschließen sich Phänomene, die über die rein objektiv-empirischen Phänomene hinausgehen.

  2. In seiner ablehnenden Kritik empirischer Ansätze kommt immer wieder auch der Begriff der Funktion vor; funktionale-empirische Erklärungsansätze sollen nicht reichen. Diese Formulierung kann missverständlich sein. Denn der Versuch, den Raum der subjektiven Phänomene als Phänomene sui generis zu beschreiben, wird – wie auch im Fall empirischer Phänomene – Elementarereignisse einführen, über diese Elementarereignisse diverse Relationen und Funktionen,  und damit letztendlich eine Struktur des subjektiven Phänomenraumes definieren, mittels der man dann möglicherweise Vergleiche, Abbildungen auf andere Strukturen vornehmen kann, z.B. auch, wie von Chalmers praktiziert, auf die Struktur der mit dem Bewusstsein korrelierenden empirischen Phänomene.

  3. Hier stellt sich allerdings das spezielle Problem einer simultanen Abhängigkeit von korrelierenden empirischen und subjektiven Phänomenen: man kann ja nur in dem Maße davon sprechen, dass ein empirisches Phänomen Pe mit einem subjektiven Phänomen Ps korreliert, wenn es ein subjektives Phänomen Ps gibt, das als Ausgangspunkt dient! Ein empirisches Phänomen Pe als solches lässt keinerlei Rückschluss auf ein irgendwie geartetes subjektives Phänomen Ps zu. Die Brückenprinzipien, von denen Chalmers in seinem Artikel spricht, sind induktiv simultan zu definieren. Sie sind nicht einfach da. Es sind nicht die Brückenprinzipien, mittels deren man aus den empirischen Phänomenen Pe die subjektiven Phänomene Ps ableitet, sondern es sind die subjektiven Phänomenen Ps, die sich mit empirischen Phänomenen Pe korrelieren lassen, und aufgrund solcher realisierten Korrelationen kann man vielleicht Brückenprinzipien definieren.

  4. Dies gilt insbesondere auch am Beispiel der sprachlichen Äußerungen, die Chalmers explizit als Indikatoren möglicher subjektiver Erfahrung nennt. Der Sprachschall als solcher bildet ein empirisches Phänomen Pe, dem möglicherweise subjektive Bedeutungsinhalte Ps korrelieren können. Ob dies der Fall ist, kann nur der Sprechende selbst entscheiden, sofern er einen direkten Zugang zu seinen subjektiven Phänomenen hat und von daher weiß, ob sich mit einem bestimmten Sprachschall tatsächlich ein bestimmter subjektiver Sachverhalt verknüpft. Von daher sind sprachliche Äußerungen niemals ein Ersatz für die damit hypothetisch unterstellten subjektiven Phänomene.

Einen Überblick über alle Beiträge von Autor cagent  nach Titeln findet sich HIER.

FOLGT AUS DER ANNAHME VON EMERGENZ DIE FUNKTION-IN-MATERIE HYPOTHESE? Anmerkungen zu Monod, Dawkins, Wilson und speziell Kauffman

Here You can find an audio-version in English, which is not a direct translation of the German text below. Rather it is
an unplugged version of the ideas without a given English Text.
Please excuse my bad English. I did it as a special tribute for Stuart Kauffman, who did such a great Job with his ‚Reinventing the Sacred‚.

  1. Die letzten beiden Blogeinträge standen unter dem Eindruck des evolutionär ungeheuerlichen Phänomens der neuen Geistigkeit eines homo sapiens  (hs, Mensch), der in der Lage ist, die Gegenwart eines Jetzt zu überwinden, indem er über Gedächtnis, Abstraktion, Vergleich, Schlussfolgern und weiteren kognitiven Eigenschaften verfügt, die es ihm ermöglichen, das jeweilige Jetzt einzureihen in eine Folge von Jetzten, in Veränderungen, in Prozesse, in darin waltenden Beziehungen/ Relationen/ Regeln (die Grundlagen dazu wurden auch schon HIER diskutiert)..
  2. Diese Beobachtungen sind nicht singulär. Angeregt durch Gespräche mit meinem Freund MaFa wurde ich ausdrücklich aufmerksam auf jene soziobiologische Diskussion, die sich im Kontext von Personen wie Jacques Monod, Richard Dawkins und Edward O.Wilson findet.
Monod-Dawkins-Wilson

Monod-Dawkins-Wilson

  1. Das Leitthema von Monod, Dawkins und Wilson lässt sich vielleicht zusammenfassen in der These, dass die beobachtbaren Phänotypen und Verhaltensweisen von biologischen Systemen grundlegend und primär von ihren Genen bestimmt wird. Was immer die verschiedenen biologischen Systeme tun (einschließlich des hss), sie folgen in ihrem Tun den grundlegenden Interessen der Gene.
  2. Diese Gedanken sind primär stimuliert durch die Erkenntnisse der modernen Evolutionsbiologie, Molekulabiologie und Genetik. Ein Blick in die mikrobiologischen chemischen Prozesse von Selbstreproduktion lässt wenig Raum für andere Gedanken. Was wir dort sehen sind Moleküle, die miteinander wechselwirken und in diesen Wechselwirkungen neue Moleküle, ganze Zellen generieren, die wieder das Gleiche tun. In dieser Perspektive ist kein Raum für irgend etwas anderes.
  3. Schon stark abstrahierend könnte man die Struktur des DNA-Moleküls (das von anderen Molekülen als Informationsträger interpretiert wird) als Speicher vergangener Erfolgsrezepte deuten und die nicht voraussagbare Variabilität innerhalb des Reproduktionsprozesses als zufälliges Geschehen, das keinerlei außen geleitete Beeinflussungen (Monod) erkennen lässt.
  4. Auffällig ist, dass alle Autoren, insbesondere aber Monod und Dawkins, diese Beobachtungen und Überlegungen zum Anlass nehmen, neben den biologischen Sachverhalten noch kulturelle Interpretationsmuster und -praktiken zu kritisieren, die sich als Religionen darstellen und die das Wort Gott dazu benutzt haben/ benutzen, um dem grundlegend biologischen Geschehen eine spezielle religiöse Deutung unter zu legen: diese beobachtbaren biologischen Prozesse seien letztlich in einem größeren Kontext zu sehen, nämlich dass es einen umfassenden schaffenden Gott gibt (Creator, Schöpfer), der dies alles angestoßen hat und ermöglicht.
Stuart Kauffman - Benutze Texte

Stuart Kauffman – Benutze Texte

  1. Stuart Kauffman, der sich Jahrzehnte mit den physikalischen, biochemischen und molekularbiologischen Grundlagen des Lebens auseinander gesetzt hat, der aber zugleich komplexe mathematische Modellbildungen und Simulationen einbezogen hat, kommt bei den Themen der vorgenannten Autoren zu anderen Schlussfolgerungen.
Abrahamitiche Religionen nd moderner Reduktionismus

Abrahamitiche Religionen nd moderner Reduktionismus

  1. Zunächst einmal macht er darauf aufmerksam, dass in der Tat historisch die abrahamitischen Religionen (Judentum, Christentum, Islam) das Wort Gott sowohl für die letzten umfassenden Erklärungen benutzt haben (Gott als Schöpfer) wie auch als letzte Quelle jeglicher Moralität. Und es war die moderne empirische Wissenschaft, die mit ihrem neuen methodischen Zugang zur Erforschung der Welt zwar neue, starke, belastbare Fakten geschaffen hat, aber keinen Raum mehr lässt für Werte oder spirituelles Erleben. Mit der Kritik an einer problematischen Verwendung des Wortes Gott wurden gleich viele einschlägige Phänomene mit beerdigt. Der modernen Gesellschaft mangelt es daher an jeglicher Basis, um solche Wertsysteme zu schaffen, die jede moderne – und globale – Gesellschaft benötigt, um zu funktionieren.
  2. Kauffman sieht hier eine Art Überreaktion der modernen Wissenschaft, die vor lauter Bemühen, unberechtigte Deutungsansprüche seitens der etablierten Religionen abzuwehren, dabei auch Aspekte ausklammert, die eigentlich zum legitimen Phänomenbereich der Wissenschaften gehören sollten. Diese Überreaktion macht sich fest an einer Denkhaltung, die er Reduktionismus nennt.
  3. Die Diskussion über Reduktionismus ist nicht neu und hat schon zu vielen theoretischen Diskursen vor Kauffman Anlass gegeben. Kauffman greift diese Debatte aber wieder auf und macht anhand zahlreicher Beispiele deutlich, dass die Rückführung komplexer Phänomene auf einfache Bestandteile vielfach zu absurden Rekonstruktionen führt, die im Endeffekt das auslösende komplexe Phänomen praktisch zum Verschwinden bringen, nicht aber wirklich erklären.
  4. Anders gesagt, sei KP ein komplexes Phänomen mit Verhaltenseigenschaft f_kp, das man in Beziehung setzt zu einfacheren Bestandteilen E={e1, …, en}. Dann müsste man Gesetzmäßigkeiten f_e für die Bestandteile E finden, die so sind, dass sich ihre Funktionalität f_e direkt parallelisieren lässt mit der komplexen Funktionalität f_kp. Also ein Zustand S1_e mit Elementen E geht mittels f_e über in einen anderen Zustand S2_e, und parallel, synchron geht ein Zustand S1_kp über in einen anderen Zustand S2-Kp mittels der Funktion f_kp.
  5. Beispiel: ich tippe (komplexes Phänomen KP) bei meinem Computer die Taste ‚A‘ und auf dem Bildschirm erscheint ein ‚A‘. Tief unten im Computer, sagen wir auf der Ebene der logischen Gattern (elementare Bestandteile ) , realisiert in der Hardware, gibt es tausende, hunderttausende oder mehr elektrische Potentiale, wild verteilt im Mehr von vielen Milliarden elektrischen Potentialen, die ihren Zustand ändern, ohne dass man an den vielen logischen Gattern irgend eine Eigenschaft erkennen könnte, warum gerade diese nun ihr Potential ändern und nicht andere. Eine Beschreibung von Potentialänderungen auf der Gatterebene ist zwar möglich, wäre aber wenig hilfreich, um die vielen hunderttausend unterschiedlichen Phänomene auf der Nutzerebene zu unterscheiden. Dies wäre noch schwieriger, würde man noch tiefer steigen und auf die Ebene der Atome zurückgehen, die letztlich jedem logischen Gatter in der Hardware zugrunde liegen. Damit würde jeder Versuch einer systematischen Zuordnung zu komplexen Phänomenen sinnlos.
  6. Analog wäre dies, wenn man die Vielfalt biologischer Phänotypen auf das Verhalten zugrunde liegender Atome zurückführen würde. Man würde alle jene Phänomene verlieren, die gerade das Besondere ausmachen.
  7. Damit stellt sich die Frage, wie man denn komplexe Phänomene anders betrachten kann als im Stil eines Phänomen-vernichtenden Reduktionismus ohne dabei Wissenschaftlichkeit einzubüßen?

EMERGENZ

Emergenz - Enige Thesen von Kauffman

Emergenz – Enige Thesen von Kauffman

  1. Kauffman bringt an dieser Stelle den Begriff Emergenz ins Spiel und erklärt ihn in dem Sinne, dass er sagt, dass erkenntnistheoretisch (epistemologisch) die Rückführung eines Komplexen auf seine Bestandteile dann sinnlos wird, wenn man von den Bestandteilen selbst aus das Komplexe nicht konstruieren könnte. In diesem Fall kommt dem Phänomen eine ontologische Geltung zu, d.h. das Phänomen ist empirisch real, existierend und damit ein mögliches Objekt der empirischen Wissenschaft. Statt es also weg zu interpretieren durch einen sachfremden Reduktionismus muss man stattdessen nach neuen wissenschaftlichen Erklärungen suchen, die dem Phänomen gerecht werden.
  2. So sind es ja auch nicht die Gene selbst, die dem Selektionsprinzip der Natur unterworfen werden, sondern nur jene emergenten Eigenschaften der Phänotypen (Körper), die als reale Phänomene in der empirischen Welt real wechselwirken und darin entweder Leben erhalten oder Leben verlieren können. Die Gene profitieren nur indirekt von diesem Geschehen, insofern sie Teile eines größeren Ganzen sind, das als dieses Ganze eine funktionale Rolle spielt und nur insofern das Ganze überlebt dann auch mit überleben. Die Gene als solche sind nicht überlebensfähig, wohl aber als Teil eines Ganzen, das mehr ist als seine Teile!
  3. Insofern müsste man sagen, dass emergente Phänomene solche sind, die als Ganzes eine Funktionalität, ein Verhalten zeigen, das möglich ist in dieser umfassenden Konstellation. Die Rückführung auf die einzelnen Teile des komplexen Phänomens würde dieser komplexen Verhaltensweise die materielle Basis nehmen. (Etwas Ähnliches haben wir ja auch bei vielen physikalischen Phänomenen. So ist das Phänomen der Gravitation zwar als Wirkung (Verhalten, Funktionalität) zwischen Körpern beobachtbar, aber bei Betrachtung eines einzelnen Körpers alleine wäre sie nicht vorhanden.)
  4. Dies führt – über Kauffman hinausgehend – zu der Überlegung, dass komplexe (emergente) Phänomene nur möglich sind, weil ihre Funktionalität (Verhaltensweise) grundsätzlich in den beteiligten materiellen Komponenten angelegt ist. Diese Verhaltensweisen können sich aber nur zeigen, wenn eine entsprechende Anordnung/ Konstellation der beteiligten materiellen Komponenten vorliegt. Ich nenne dies die Funktion-in-Materie Hypothese. D.h. das, was wir Materie nennen, das ist ein Material, das implizit potentiell nahezu unendlich viele Funktionalitäten (Verhaltensweisen) erlaubt, je nachdem , wie man das Material anordnet.
  5. So wissen wir aus der Chemie, dass sich mit den bekannten Atomen als Bausteinen je nach Kontext nahezu unendlich viele Atomkombinationen (Moleküle) erzeugen lassen, die jeweils ganz andere Verhaltensweisen (Funktionalitäten) zeigen. Diese Funktionalitäten sind real, sie sind nicht zufällig, sondern sie sind die realen Manifestationen von realen Eigenschaften der beteiligten materiellen Komponenten. Sie müssen nicht erfunden werden, sondern sie sind implizit schon immer fester Bestandteil der materiellen Komponenten.
  6. So ist auch die Frage nach dem Ursprung des biologischen Lebens, die sich erst seit kurzem einer möglichen Antwort nähert, letztlich keine Frage nach einem unerklärbaren Wunder, sondern nur die Frage nach jener Konstellation von Materie (Atomen, Molekülen, Kontextbedingungen), durch die genau jene Funktionalitäten zum Zuge kommen konnten, die einerseits implizit zur Verfügung sehen, die sich aber andererseits erst bei entsprechender (auch komplexer) Anordnung zeigt.

BEWUSSTSEIN

  1. Dies lässt möglicherweise auch das Phänomen des (menschlichen) Bewusstseins bzw. die Phänomene des Geistigen in einem neuen Licht erscheinen. Für viele (auch für mich) ist das Phänomen des menschlichen Bewusstseins auf jeden Fall ein emergentes Phänomen im vollen Sinne (nicht erklärbar durch seine Teile, sprich hier die neuronale Zellen).
  2. Für manche (Kauffman, Edelman, …) impliziert die Besonderheit dieses Bewusstseins u.a., dass es von der physikalischen Kausalität seiner Bestandteile abgekoppelt ist, und man versucht diese spezielle Autonomie des Denkens und Wollens durch Rückgriff auf quantenphysikalische Überlegungen zu erklären. Möglicherweise sind diese akrobatischen Denküberlegungen nicht notwendig.
  3. Einmal gibt es seit der Einführung des philosophisch-mathematischen Konzepts der Turingmaschine den logisch-mathematischen Beweis, dass selbst das Verhalten einer voll deterministischen endlichen Turingmaschine, deren Beschaffenheit vollständig bekannt ist, prinzipiell nicht in allen Fällen vorausgesagt werden kan; es ist nicht entscheidbar,  was diese Machine im nächsten Schritt tun wird (das berühmte Halteproblem). Wäre also unser Gehirn formal einer Turingmaschine äquivalent (was manche bezweifeln, weil sie glauben, das Gehirn sei komplexer als eine Turingmaschine), dann wäre das Verhalten des Gehirns nicht in allen Fällen voraussagbar. Wäre das Gehirn noch komplexer, würde sich jede Aussage über ein mögliches Verhalten erübrigen; wir wüssten nicht einmal, wie wir die Frage formulieren sollten.
  4. Zum anderen impliziert ja der Begriff der Emergenz, dass sich das komplexe Phänomen gerade nicht aus seinen Bestandteilen ableiten lässt, sonst hätten wir gar kein emergentes Phänomen. Genauso wenig, wie man aus den logischen Gattern eines Computers irgendeine der komplexen Verhaltensweisen ableiten könnte, die die Programmierung für die Benutzer zur Verfügung stellen, genauso (und noch viel weniger) kann man aus den Neuronen des Gehirns seine erfahrbare komplexe Funktionalität ableiten. Es ist eben so, dass bei einem emergenten Phänomen die simultane Koexistenz der Bestandteile eine Funktionalität sichtbar und möglich macht, die originär ist, nicht herleitbar und erklärbar aus seinen Bestandteilen. Die vielen Diskussionen um Willensfreiheit und deren Infragestellung durch Messungen elektrischer Potentiale einzelner Neuronen ist in diesem Kontext theoretisch absurd und lächerlich.
  5. Dieses hier unterstellte Verständnis von Emergenz wirft allerdings ein neues Licht auf die ganze Frage von Bewusstsein und Geist im philosophischen Sinne.
  6. Generell ist es zwar schwierig, überhaupt über Geist zu reden, da die vielen philosophischen Texte mit so unterschiedlichen Begriffen, Methoden und Blickweisen operieren, aber jeder kann ja sein eigenes Bewusstsein betrachten, seine eigene Geistigkeit, und an dieser ablesen, dass alle unsere Vorstellungs- und Denkinhalte so sind, dass man von diesen in keiner Weise auf die Art ihrer Hervorbringung, nämlich durch eine komplexe neuronale Maschinerie, schließen kann. Das Bewusstsein bildet ein geschlossenes System von Phänomenen, die einer eigenen Logik folgen, die sich zwar eines Körpers und einer unterstellten Außenwelt bedienen kann, aber zugleich in einer speziellen Weise autonom ist: prinzipiell kann alles gedacht werden, alles kann abgeändert werden, alles kann gewollt werden. Im Bewusstsein, im menschlichen Geist, erscheint alles beliebig klein oder groß, alles erscheint möglich. Man kann sogar die ermöglichende materielle Welt als solche untersuchen, beschreiben, neu denken, abändern. Jeder Versuch, diese Phänomene des Bewusstseins, des menschlichen Geistes, auf die ermöglichenden materiellen Bestandteile, zu reduzieren, ist vollständig unsinnig, geradezu absurd.

AGENCY, WERTE

  1. Es ist vor diesem Hintergrund nicht verwunderlich, dass Kauffman in all den emergenten Phänomenen des Lebens – beginnend bei der einfachsten Zelle – eine neue Qualität von Realität am Werke sieht, die er Agentenschaft (‚agency‘) nennt, eine Struktur des autonomen Handelns, die sich in diesem Handeln in keiner Weise mit physikalischen Gesetzen voraussagen lässt. Im Lichte dieser neuen universellen biologischen Agentenschaft werden die bloßen Fakten eingebettet in Verhaltensdynamiken, die nicht mehr nur und alleine von den beschreibbaren Fakten bestimmt/ determiniert sind, sondern die aufgrund ihrer jeweiligen Autonomie neue Zusammenhänge, neue Bewertungen der Fakten sichtbar machen, die die Bedeutung von Fakten für mögliche Lebensprozesse generieren, die als Anhaltspunkte für eine universelle Bewertung von Leben auf der Erde bzw. im ganzen Universum dienen können. Diese neue Form von Bewertungen jenseits bloßer Fakten kann man Werte nennen.
  2. In der bekannten Kulturgeschichte des hss finden sich immer und überall unterschiedliche Bewertungen (Werte) von Verhaltensweisen. Zum Teil kann man ihre Verwurzelung in konkreten Lebensabläufen nach vollziehen, z.T wurden sie aber daraus losgelöst und mit speziellen Autoritäten (oft mit den Namen von Göttern) verknüpft, um ihnen eine über die momentane Situation hinausgehende Geltung zu verschaffen. So verständlich diese Überhöhung von Geltungen für manche Interessengruppen sein mag, auf lange Sicht sind sie lebensfeindlich, da sie die konkreten Bedingungen ihrer Geltung verwischen und sie damit einer notwendigen Transparenz und Kritisierbarkeit entziehen. Emergente Lebensprozesse brauchen Erkenntnisse über lebensfördernde oder lebensfeindliche Wirkungen von Verhalten. Entzieht man diese Erkenntnisse der direkten Kontrolle (durch unhinterfragbare Autoritäten), dann macht man emergente Lebensprozesse blind. Alle bekannten Religionen haben sich dieser Werteverschleierung schuldig gemacht. Alle bekannten Diktaturen benutzen die Methode der Werteverschleierung, um ihren speziellen, letztlich lebensfeindlichen, Prozesse zu begründen. Leider muss man die Wissenschaft, sofern sie reduktiv argumentiert, hier einbeziehen. Durch reduktive Denkstrategien werden nahezu alle lebenswichtigen emergente Phänomene verbal, denkerisch (zum Glück nicht ontologisch) vernichtet.

HEILIGER STUART KAUFFMAN 🙂

  1. Wenn man bedenkt, welch harten Denkweg Start Kauffman von der Physik, Molekularbiologie, Komplexitätstheorie – um nur die wichtigsten Felder zu nennen – hin zu den emergenten Phänomenen zurückgelegt hat, und dann sieht, wie er viele wichtigen emergenten Phänomene (auch Bewusstsein, auch Spiritualität) dem wissenschaftlichen Denken wieder zugeführt hat, dann kommt ihm – aus meiner Sicht – eine große Ehrung zu. Es dürfte nicht all zu viele geben, die ihm in dieser Rolle, in diesem umfassend komplexen Denken mit Offenheit für die emergenten Phänomene, gleich tun. Das eben gehört zum Wunder von Agency, von lebensbasierter Spiritualität, von Emergenz, von menschlicher Geistigkeit.

Eine Übersicht über alle Blogeinträge von cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Epilog

1. Es gibt nur wenige Bücher, denen ich so viel Zeit für eine Diskussion gewidmet habe (was nicht heißt, dass es nicht auch andere Bücher gibt, die großartig sind oder denen man viel Zeit widmen sollte). Und, diesen Blog mit ‚Epilog‘ zu überschreiben gibt nicht die ganze Wahrheit wieder. Das Wort ‚Epilog‘ könnte den Eindruck erwecken als ob die Sache damit ‚abgeschlossen‘ sei, etwas, das ‚hinter‘ uns liegt. Dem ist aber nicht so, in keiner Weise. Die Gedanken, die Kauffman in seinem Buch aufblitzen läßt sind eher wie ‚Blitze‘, die in einer großen Dunkelheit für einen kurzen Moment in der Nacht Dinge sichtbar werden lassen, an die man ’normalerweise‘ so nicht denkt.
2. Gewiss kann man an seinem Buch auch viel Kritik üben: streckenweise sehr langatmig, viele Formulierungen wiederholen sich immer wieder, die Quellen sind oft nicht klar, es fehlt eine strenge Systematik, die alle Teile erfasst, sehr Wissenschaftliches paart sich teilweise mit sehr Spekulativem, usw. Alles dies ist richtig. Aber betrachtet man alles zusammen, nimmt man alle Aussagen als Teile eines großen Akkords, dann blitzt in all den Fragmenten eine Gesamtsicht auf, die – nach allem, was ich kenne, weiß und verstehe – sehr ungewöhnlich ist, originell, wissenschaftlich sehr begründet und – vor allem – Dinge zusammen bringt, die für gewöhnlich getrennt sind.

EIN AUßERGEWÖHNLICHES BUCH

3. Insofern würde ich sagen, ja, es ist ein sehr außergewöhnliches Buch.

KRITIK AN EINER ZU ENGEN WISSENSCHAFTLICHEN WELTSICHT

4. Es gibt immer wieder Wissenschaftler die ihre eigene Disziplin kritisieren. Aber es ist selten. Meist sind es Nobelpreisträger, die keine Angst mehr haben müssen, dass die eigene Zunft Sie danach sozial ausgrenzt. Kauffman ist kein Nobelpreisträger, und doch hat er den Mut, dies zu tun. Dies liegt nach meiner Einschätzung vor allem darin begründet, dass er nicht nur innerhalb einer einzigen Disziplin geforscht hat, sondern in verschiedenen Disziplinen, mehr noch, er hat sich nicht nur ‚innerhalb‘ der Paradigmen bewegt, sondern er hat sich mit Phänomenen beschäftigt, die es verlangt haben, auch immer ‚über‘ die anzuwendenden Methoden nachzudenken. Dadurch sind ihm natürlich die Schwachstellen des Vorgehens aufgefallen, dadurch hat er begonnen, über alternative Sichten nachzudenken.
5. Eine der zentralen Schwachstelle trägt den Namen ‚Physikalischer Reduktionismus‘. Damit verbindet sich die Auffassung, dass es zur Erklärung der Phänomene in dieser Welt ausreiche, diese in eine kausale Beziehung zu setzen zu den ‚zugrunde liegenden elementaren Bestandteilen‘; als solche elementaren Bestandteile gelten Moleküle, Atome, und subatomaren Partikel. Diese Art von ‚wissenschaftlicher (reduzierender) Erklärung‘ macht aus der Gesamtheit aller Phänomene ein Wirkungsfeld von elementaren (letzlich physikalischen) Teilchen und elementaren Kräften.
6. Kauffman hat durch seine vielfältigen Arbeiten aber den Eindruck gewonnen, dass bei dieser Erklärungsweise sehr viele Besonderheiten der Phänomene oberhalb der Atome (ab einem bestimmten Komplexitätsgrad vielleicht sogar alle Besonderheiten) auf der Strecke bleiben. Sie werden epistemisch ‚unsichtbar‘. Für einfache Gemüter ist dies OK. Für differenzierter denkende Menschen, wie Kauffman einer ist, stellen sich hier aber Fragen. Und es ist genau hier wo sich die besondere Qualität von Kauffman zeigt: er stellt sehr viele Fragen, er geht ihnen auf vielfältige Weise nach, und kommt dann zum Ergebnis, dass eine reduktionistische Sicht letztlich genau die interessanten Phänomene zerstört. Nicht das Zurückfragen nach möglichen elementaren Bestandteilen ist der Fehler, sondern der Verzicht auf eine Beschäftigung mit der Makroebene selbst, mit der Komplexität, die sich gerade in den Makrophänomenen manifestiert.

NICHTVORAUSSAGBARKEIT

7. In für den Leser z.T. sehr mühevollen, aber von der Sache her sehr wohl berechtigten, Analysen unterschiedlichster Phänomenbereiche (grob: Biologie, Wirtschaft, Physik) gelingt es Kauffman immer wieder aufzuzeigen, dass eine reduzierende Betrachtungsweise genau das verfehlt, übersieht, was dieses Phänomen ausmacht. Und in all seinen vielfältigen Beispielen ist es u.a. die ‚Nichtvoraussagbarkeit‘, die man überall feststellen kann. Es beginnt bei der generellen ‚Nichtergodizität‘ des Universums als Ganzem, es setzt sich fort im Bereich der Molekülbildungen, der Zellentstehung, der Herausbildung von Lebensformen, in der generellen Nichtvoraussagbarkeit von Gehirnaktivitäten, die wechselseitigen Beeinflussungen von Naturprozessen im allgemeinen und biologischen Formen als Besonderem (Evolution, Ko-Evolution), die Wechselwirkungen unter biologischen Akteuren, die Wechselwirkungen eines wirtschaftlichen Verhaltens, die ihrer Natur nach in keiner Weise mehr voraussagbar sind, und vieles mehr. Wer die Sehweise von Kauffman übernimmt für den wird die Welt sehr vielfältig, sehr besonderes, sehr dynamisch, grundsätzlich nicht voraussagbar.

QUANTENPHYSIK

8. Kauffman macht sich die Mühe, die Eigenschaft der Nichtvoraussagbarkeit auf sehr vielen Ebenen aufzuzeigen. Letztlich wurzelt sie aber schon in der Grundlage von allem, im ‚Medium‘ von aller erfahrbaren Wirklichkeit, die die Wissenschaft als ‚Quantenwelt‘ enttarnt hat. Die aus dem menschlichen Alltag bekannte Raum-Zeit-Welt mit ihren Makroeigenschaften ist ein Artefakt unseres Körpers und des darin eingebetteten Gehirns, das uns mit Erkenntnissen über diese Welt versorgt. ‚Hinter‘ den alltäglichen Phänomenen existiert nach den heutigen wissenschaftlichen Erkenntnissen aber eine Welt von Quanten, deren mathematische Beschreibung uns darüber belehrt, dass es sich hier nur noch um Wahrscheinlichkeitsfelder handelt: Was zu einem bestimmten Zeitpunkt an einem bestimmten Ort an Eigenschaften gegeben sein soll lässt sich grundsätzlich nur als ein Wert in einer Wahrscheinlichkeitsverteilung angeben. Zusätzlich enthüllt diese Quantenwelt Eigenschaften von Wechselwirkungen zwischen den Quanten, die mit der Alltagserfahrung nicht kompatibel sind (so können z.B. Quanten in einer Geschwindigkeit und über Entfernungen interagieren, die in der Alltagswelt unmöglich sind).
9. Nimmt man die quantenphysikalische Sicht ernst, dann hat man ein großes Problem, nämlich die ‚Koexistenz‘ von Quantenwelt und physikalischer Makrowelt zu erklären. Die Konkretheit der alltäglichen Makrowelt bildet quantenphysikalisch eine ‚Dekohärenz‘, die zu erklären bislang schwerfällt. Dazu kommt, dass diese Dekohärenz aus Sicht des Alltags ‚andauert‘, dass aber zugleich die Kohärenz der Quantenwelt nicht aufgehoben wird. Hier herrscht bislang ein großes Schweigen der Physik.
10. Kauffman vermutet vor dem Hintergrund der Quantenwelt, dass wir viele Eigenschaften des Gehirns möglicherweise nur durch Rückgriff auf diese Quantenwelt wirklich verstehen können; Genaues kann er nicht sagen, obgleich er Autoren zitiert, die (ähnlich wie Descartes mit seiner Zirbeldrüse) versuchen, konkrete Strukturen in der Biochemie der neuronalen Maschinerie zu identifizieren, die für die ‚Übersetzung der Quanteneffekte‘ in die Makrowelt eines Gehirns verantwortlich sind. Man kann sich über diese Erklärungsversuche lustig machen, zeigen sie aber doch auch, dass selbst die besten Denker unserer Zeit bislang hier vor mehr Rätseln stehen als Antworten.

KREATIVITÄT, HEILIGES, GOTT

11. Eine Kehrseite von Nichtvoraussagbarkeit ist die ‚Kreativität‘. Denn um immer wieder neue Ereignisse, Ereignisketten, Strukturen, komplexe Wechselwirkungen hervorbringen zu können, benötigt man Verhaltensweisen, Rahmenbedingungen, die das ermöglichen. Kauffman meint in der Vielfalt dieser nicht voraussagbaren Prozessen eine ‚Kreativität‘ ‚am Werke‘ zu sehen, die sich vom physikalischen Anfang des Universums, über Materiebildung, Sternenbildungen, Galaxien, Sonnensystem, Leben auf der Erde usw. in gleicher Weise manifestiert. Eine Kreativität, die geradezu eine ‚innere Eigenschaft‘ unseres Universums zu sein scheint. Und dass es genau diese Kreativität ist, die das eigentlich zu erklärende Phänomen bildet, das, an dem sich alle Wissenschaften zu messen haben. Es überrascht dann nicht, wenn Kauffman für diese Zentraleigenschaft des Universums den Begriff ‚Heiliges‘ (’sacred‘) vorschlägt, und im zweiten Schritt (oder im ersten, das lässt sich hier nicht genau sagen), den Begriff ‚Gott‘ (‚god‘).

KRITIK WEGEN GOTT?

12. Speziell an dieser Stelle könnte man Kritik laut werden lassen. Schließlich haben genau die Begriffe ‚Gott‘ und ‚Heiliges‘ in der menschlichen Geschichte in nahezu allen Kulturen seit mindestens 2000 – 3000 Jahren eine lange und vielschichtige Tradition. Die Kritik bestände darin, Kauffman vorzuwerfen, dass er sich nicht genügend um die Vermittlung zwischen seiner Verwendungsweise der Begriffe ‚Gott‘ und ‚Heiliges‘ und der vielfältigen Verwendungsweisen dieser Begriffe in der bisherigen kulturellen Geschichte gekümmert habe. Dies sei eigentlich eines Wissenschaftlers unwürdig.
13. Einerseits würde ich diese Kritik auch erheben. Andererseits muss man aber auch klar sehen, dass die Aufgabe eines konstruktiven Dialoges zwischen dem Erklärungsansatz von Kauffman und den bisherigen Verwendungsweisen des Begriffs ‚Gott‘ und ‚Heiliges‘ (z.B. in der jüdischen, dann in der jüdisch-christlichen, und dann noch in der jüdisch-christlich-islamischen Tradition) eine gewaltige Aufgabe ist, die kaum ein Mensch alleine leisten kann, sondern vermutlich sehr vieler Menschen bedarf, die zudem vermutlich über mehrere Generationen hinweg solch einen Reflexionsprozess leisten müssten.
14. Ich persönlich sehe zwischen dem Kern eines jüdisch-christlichen (vermutlich auch jüdisch-christlichen-islamischen) Gottesbegriffs und dem Ansatz von Kauffman keinerlei Gegensatz. Aber ich bin Theologe, Philosoph und Wissenschaftler und habe mich mehrere Jahrzehnte mit diesen Fragen beschäftigt. Für jemanden, der diese Gelegenheit nicht hatte, ist diese Fragestellung möglicherweise eher ‚undurchdringlich‘ und von daher kaum entscheidbar.

UND SONST

15. Diese wenigen Gedanken können die Breite und Tiefe, die Vielfalt der Gedanken von Kauffman in seinem Buch nicht einmal annähernd wiedergeben. Wer sich also von den hier angeschnittenen Themen angesprochen fühlt, sollte dieses Buch unbedingt selber lesen. Allerdings sage ich ganz offen: das Buch ist hart zu lesen, z.T. wegen des spezifischen Inhalts, z.T. wegen einer nicht ganz straffen Systematik, z.T. wegen vieler Wiederholungen bestimmter Gedanken. Aber ich halte es trotz dieser Schwächen für eine sehr, sehr wichtiges Buch. Mir persönlich hat es eine Menge an Klärungen gebracht.

SYNOPSYS DER EINTRÄGE ZU KAUFFMAN

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil1. Zusammenstellung vieler Phänomene und Erkenntnisse, die die Position eines physikalischen Reduktionismus in Frage stellen. Dann Verlagerung zu den grundlegenden Mechanismen des Biologischen und Vorstellen des autokatalytischen Modells zur Modellierung biologischer Emergenz.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil2. Es werden dann wichtige Konzepte vorgestellt und diskutiert: Agentenschaft, Arbeit und Information. Information ist zu wenig, Arbeit ist mehr als Wärme, Agentenschaft impliziert Werte.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 3. Anhand der Begriffe ‚Adaption‘. ‚Präadaption‘ sowie ‚Ko-Evolution‘ versucht er die Behauptung von der Nichtvoraussagbarkeit des Universums zu motivieren. Dazu das sehr starke Argument von der ‚Nichtergodizität‘ des Universums. Erste Einführung des Begriffs ‚Kreativität‘.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 4. Zitiert prominente Modelle, die den Anspruch erheben, das wirtschaftliche Geschehen zu beschreiben. Diskutiert die Grenzen dieser Modelle. Stellt seine autokatalytischen Modellierungsversuche vor. Zeigt die prinzipiellen Grenzen auf, die eine Beschreibung wirtschaftlicher Vorgänge unmöglich macht.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 5. Es folgen einige allgemeine Einschätzungen zu ‚Seele‘, ‚Geist‘ und ‚Wissenschaften‘, die nicht klar einordenbar sind. Längere Diskussion zur Algorithmisierung und Nichtalgorithisierung von Geist, Geirn als physikalischem Prozess, kognitiven Modellen und deren Grenzen, Geist und Bedeutung.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 6. Zunächst einmal Warnung, da das Folgende sehr spekulativ sei. Ordnet die Neurowissenschaften der klassischen Sicht der Physik zu. Ein quantenphysikalischer Ansatz wäre besser. Erinnerung an Positionen der Phiilosophie und deren eigene Fragwürdigkeit. Erwähnt die Position der sogenannten ’starken KI‘. Quantenphysik, ‚Geist‘, ‚Selbstbewusstsein‘, Möglichkeiten und Grenzen. Emergenz statt Reduktionismus. Drei harte Argumente gegen den Geist ‚Epiphänomenalismus‘, ‚Qualia‘ und ‚freier Wille‘. ‚Geist‘ als Phänomen der ‚Natur‘. Eigener Gottesbegriff.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 7. Zusammenfassung der bisherien Erkenntnisse und wiederholt Einführung eines eigenen Gotesbegriffs (kritische Anmerkung dazu). Prinzipielle Unabgeschlossenheit allen Wissens. Wissenschaft und Nicht-Wissenschaft: ‘Kunst’ als Form der Kreativität gehört letztlich zum inneren Prinzip des kreativ-evolutionären Geschehens. Nochmals ‚Gott‘ (und kritische Anmerkugen). Faktum des Bösen. Begriff der ‚Agentenschaft‘ führt zu ‚Bedeutung‘ und ‚Werten‘, Ethik. Kritisiert den ‘Deontologismus’ und den ‘Konsequentialismus’ innerhalb der Ethik. Werte als ‚Pareto-Optimum‘. Globale Ethik. Nochmals ‚Gott‘ und ‚Heiligkeit‘

Ein Überblick zu allen bisherigen Einträgen des Blogs nach Titeln findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST

  1. In dem anregenden Buch von Kaufmann ‚Reinventing the Sacred‘ (dessen Besprechung in diesem Blog noch immer nicht beendet ist….) wird sehr oft und in vielfältiger Weise über solche Phänomene der beobachtbaren Welt gesprochen, die ‚da‘ sind, die ‚auftreten‘, die aber in ihrer erfahrbaren Form nicht aus den bekannten Eigenschaften ihrer ‚Bestandteile‘ erklärbar sind. Für solche Phänomene hat sich der Begriff ‚emergente‘ Phänomene eingebürgert.
  2. Insgesamt gesehen ist das Reden über emergente Phänomene nichts Neues. Möglicherweise kann man sogar das Reden über das Phänomen ‚Geist‘ hier subsumieren (sieht man mal von der generellen Problematik ab, dass die Wortmarke ‚Geist‘ allein schon im europäischen Kulturkreis mindestens seit den Griechen und Semiten (nous, pneuma, psyche, ruach, ruh,…) in so vielfältiger Weise auftritt, dass eine klare Bedeutungszuordnung ausgeschlossen erscheint): der Mensch kann an sich und am ‚anderen‘ Menschen so viele Phänomene des ‚Ausdrucks‘, der ‚Mitteilung‘, des ‚absichtsvollen Handelns‘ usw. erfahren, die allesamt nicht ‚erklärbar‘ sind, versucht man sie auf die beteiligten Bestandteile wie körperliche Organe, Muskeln, Knochen, Gehirnzellen usw. zurück zu führen. Jeglicher Reduktionismus in der Art einer solchen ‚Rückführung‘ ist im Ansatz schon so lächerlich, dass es verwundern kann, warum dann — im Umkehrschluss — heute nicht viel mehr selbstreflektierende Wissenschaftler die erkenntnismäßige Provokation solcher ‚emergenter‘ Phänomene konstatieren.
  3. In meinen letzten drei öffentlichen Vorträgen (YPO Nov.12, Salon Slalom Nov.12, Interdisz.Arbeitsgruppe der Universität Unicamp (Campinas, Brasilien) Febr.13) habe ich auf diese Problematik am Beispiel des Selbstreproduktionsmechanismusses der biologischen Zellen hingewiesen. Vereinfachend: ein Molekül (Ribosom) bekommt als Input andere Moleküle (mRNA, tRNA), die von einem weiteren Molekül (DNA) ‚gesteuert‘ werden, und dieser Input wird vom Ribosom-Molekül ‚abgebildet‘ auf eine Menge anderer Moleküle (Proteine). Dieser hochkomplexe Abbildungsprozess lässt sich nicht durch Rekurs auf die beteiligten Moleküle und deren physikalische Eigenschaften erklären (was schon viele andere festgestellt haben).
  4. Ich versuche das Problem immer so zu erklären: nahezu jeder benutzt heute Computer (mindestens in der Form eines Smartphones). Jeder weiß, dass die möglichen ‚Verhaltensweisen‘ seines Computers von der ‚Software‘ abhängt, die die Hardware steuert (und natürlich auch von der Hardware selbst insoweit diese festlegt, was durch eine Software alles gesteuert werden kann). Mit einer geeigneten ‚App‘ (= Stück Software) kann ich ein Android Smartphone in einen ‚Kompass‘ verwandeln, kann eine Klanganalyse machen lassen, um Instrumente zu stimmen, kann eine ‚Wasserwaage‘ simulieren, ein Musikinstrument, usw. Würde man jetzt jemanden die Aufgabe stellen, zu analysieren, warum ein Computer solche bestimmten (‚emergenten‘!) Verhaltensweise zeigt und dieser ‚Beobachter‘ dürfte nur die erzeugende Hardware anhand ihrer physikalischen Eigenschaften untersuchen, er wäre nicht in der Lage, die verursachenden komplexen Funktionen zu entdecken. Denn das, was wir die ‚Software‘ nennen, ist für uns zwar als ein ‚Text‘ vorstellbar, aber die Software, die im Computer wirksam ist, existiert im Computer nur in Form von tausenden, Millionen, Milliarden usw. von Ladungszuständen, die über die Chips verteilt sind. Ohne Kenntnis der logischen Architektur dieser Hardware ist eine Rekonstruktion dieser komplexen Funktionen ‚in der Hardware‘ nur aufgrund der physikalischen Eigenschaften grundsätzlich unmöglich (Laut Turing ist diese Kenntnis sogar unmöglich, wenn man alle logischen Informationen über die Struktur hätte; Halteproblem). Das lernt jeder Informatikstudent in den ersten Semestern. Dennoch glauben wir, dass wir im Falle komplexer (= ‚emergenter‘?) Phänome in der materiellen Struktur der uns umgebenden Welt alle ‚wichtigen‘ Eigenschaften erkennen könnten nur durch Beschränkung auf die physikalischen Eigenschaften der beteiligten ‚materiellen Komponenten‘.
  5. Eine philosophische Konsequenz aus diesem Sachverhalt ist, dass wir unsere Rolle als ‚Beobachter der Natur‘ kritisch überdenken müssen (Heisenberg war einer von vielen, die dies schon zu seinen Zeiten angesichts der neuen Erkenntnisse der Physik laut gedacht hatte). Im Analogieschluss von der Unmöglichkeit des Erkennens einer komplexen Funktion, die sich zu ihrer Ausführung tausender, Milliarden usw. materieller Einzelzustände ‚bedient‘ müssten wir bereit sein, die Arbeitshypothese zu bilden, dass das Erkennen von sogenannten ‚emergenten‘ Phänomenen unter Umständen von uns genau dies verlangt: die Annahme von komplexen Funktionen, die ‚hinter‘ den vielen materiellen ‚Einzelteilen‘ ‚operieren‘. Dies wirft natürlich die frage nach dem ‚Medium‘ auf, in dem sie operieren. Im Falle der Computerhardware wissen wir, dass es Eigenschaften der Hardware selbst sind, die die ‚Umsetzung, Realisierung‘ der ‚inhärenten‘ komplexen Funktionen erlaubt. Warum also nicht als Arbeitshypothese annehmen, dass die uns — allzuwenig — bekannte Materie möglicherweise inhärente Eigenschaften besitzt, die erst im Zusammenwirken vieler Komponenten ’sichtbar‘ werden.
  6. Natürlich wirkt solch eine Annahme auf so manche im ersten Moment ‚erschreckend‘, da damit die von sehr vielen (den meisten?) als ziemlich ‚tod‘ erklärte Materie mit einem Mal zum Ort ungeahnter komplexer Eigenschaften wird, von denen die komplexen biologischen Phänomene möglicherweise nur eine kleine Kostprobe sind. Das Faszinosum ‚Geist‘ wäre dann möglicherweise auch nichts Besonderes mehr, wäre es doch nur das ‚Aufscheinen‘ der inhärenten funktionalen Eigenschaften der Materie.
  7. Sollten diese Spekulationen zutreffen, dann würde die Physik nahtlos in die Philosophie (und möglicherweise sogar Theologie) übergehen, und umgekehrt. Die schon immer äußerst bizarre Aufsplitterung der einen Welt in eine Vielzahl von miteinander unvermittelten Kategorien wäre dann als ein reiner Artefakt unseres unbeholfenen Denkens diagnostiziert.
  8. Bleibt die eher psychologische (oder gar ’spirituelle‘) Frage, warum wir Menschen so dauerhaft krampfhaft an unsinnigen Konzepten festzuhalten versuchen, wenn die Phänomene selbst unser Denken doch so ‚alt‘ aussehen lassen…-:)?

Eine fortsetzung zu diesem Beitrag findet sich HIER

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER

REDUKTIONISMUS, ERMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 1

ZUSAMMENHANG MIT DEM BLOG

Letzte Korrekturen: 23.März 2013

(1)Der Zusammenhang mit dem Blog besteht darin, dass im Blog der klassische Widerspruch zwischen ‚Geist‘ auf der einen Seite und ‚Materie‘ auf der anderen von vielen Seiten neu reflektiert wird. Dabei zeigte sich u.a. dass durch die Einbeziehung der neueren Erkenntnisse über das Biologische und seiner Entstehung die Phänomene des Biologischen zu einer neuen Sicht der Materie und der Energie führen können, zu einer Sicht, die deutlich macht, dass die klassische Sicht der Physik sich immer mehr als unbefriedigend erweist. Ergänzt wurden diese Reflexionen durch frühere Einträge im Blog, in denen auch die Sicht des ‚Geistes‘ aus Sicht der Philosophie dahingehend ‚aufgebrochen‘ worden sind, dass auch die klassische Philosophie im Lichte der neueren Erkenntnisse zum Leben ihre eigenen Erkenntnisvoraussetzungen neu bedenken kann und auch muss (dies wurde spätestens seit dem Vortrag in Bremerhaven offenbar!). Zwar bedeutet die Einbeziehung naturwissenschaftlicher Erkenntnisse eine ‚Verletzung‘ des klassischen philosophischen – und insbesondere des phänomenologischen – Paradigmas, aber es bedeutet keine vollständige Auflösung noch gar eine ‚Zerstörung‘ der Philosophie, sondern – möglicherweise – eine notwendige ‚Erneuerung‘, die schließlich dazu führen kann, die unselige Trennung zwischen Geistes- und Naturwissenschaften aufzuheben. Diese Trennung erscheint im neuen Denken als ein ‚Artefakt‘ des klassischen Denkens aufgrund falscher Voraussetzungen.
(2) Diese veränderte Sicht auf das Verhältnis zwischen ‚Geist‘ und ‚Materie/ Energie‘ wirkt sich auch aus auf eine veränderte Sicht zum Glauben an das mit ‚Gott‘ Gemeinte, zur Rolle der Religionen und Kirchen (siehe z.B. den Blog zum 24.Dez.2012 und seinen Teil 2).
(3)In diesem Zusammenhang bin ich auf das Buch von Stuart Alan Kauffman gestossen „Reinventing The Sacred. A new View of Science, Reason, and Religion.“ (etwa: Die Wiederentdeckung des Heiligen. Eine neue Sicht der Wissenschaft, des Verstandes und der Religion). Veröffentlicht 2008 (siehe weitere Angaben zu Kauffman unten).

EINSTIEG IN DAS BUCH

(4) Die Einleitung und das erste Kapitel sind ein wenig ’schleppend‘ und ich war schon fast versucht, es wieder weg zu legen, aber dann ab S.10 nimmt das Bucht deutlich Fahrt auf. Und ich habe den Eindruck, dieses Buch kann helfen, die neue Sicht insbesondere im Bereich Physik und Biologie weiter zu differenzieren. Außerdem hat das Buch die unangenehme Eigenschaft, dass Kauffman praktisch nirgends richtig zitiert. Es gibt zwar im Anhang verschiedene Quellenangaben, aber im Text werden die Namen von Autoren oder deren Aussagen zwar erwähnt, aber es gibt keine klare Quellenangaben. Das ist schade, ärgerlich und erschwert das Nachlesen (in diesem Blog mache ich das zwar auch sehr oft, aber es ist auch ein Blog und keine offizielle Veröffentlichung).
(5) Das große Thema des Buches ist nach Kauffman die Unzulänglichkeit einer Physik (bzw. der ganzen Naturwissenschaft), sofern sie sich ‚reduktionistisch‘ versteht, d.h. die Wirklichkeit ausschließlich interpretiert als Rückführung aller Phänomene auf eine Ansammlung von Teilchen. Dieser Denkweise hält er Fakten entgegen, die aus seiner Sicht etwas anderes repräsentieren: die ‚Emergenz‘ des Biologischen, das sich von der Molekülebene aus bis hin zu den komplexen gesellschaftlichen Ausprägungen als eine Form des ‚Zusammenwirken‘ zeigt, die sich nicht aus den physikalischen Gesetzen ableiten lässt, aber dennoch ‚real‘ ist. D.h. es gibt Realität, die uns alle bestimmt, die sich nicht physikalisch (bzw. allgemeiner ’naturwissenschaftlich‘) erklären lässt.
(6) In diesem ‚irreduziblen‘ Phänomen des ‚Biologischen‘ sieht Kauffman eine ‚Kreativität‘ am Werk, die typisch ist für diese Phänomene und er möchte den Begriff ‚Gott‘ für diese das ganze Universum durchwaltende ‚Kreativität‘ benutzen, sozusagen das mit ‚Gott‘ Gemeinte als das sich überall ‚kreativ‘ Zeigende und darin sich Manifestierende (vgl. z.B. S.XI). In diesem Verständnis sieht er einen Anknüpfungspunkt an den weltweiten Glauben an einen Schöpfergott (‚creator god‘), speziell natürlich in der jüdisch-christlichen Tradition (vgl. S.XII). Damit wird das Göttliche stückweise ‚empirisch‘, was neue Ansatzpunkte liefert für ein in der Welt lokalisierte ‚Spiritualität (’spirituality‘), für eine Wiederentdeckung des ‚Heiligen‘ (’sacred‘).(vgl. S.XII)
(7) Den ‚Reduktionismus‘ sieht er schon in den Anfängen der Wissenschaft (Galilei, Descartes, Newton, Laplace) gegeben (vgl. S.2), er kulminiert in der modernen Sicht, dass die Physik letztlich annimmt, dass wir ‚am Grunde‘ der Materie nur ‚Partikel oder Strings haben, die sich in Bewegung befinden‘ (vgl. S.3). Aber mit dieser Basis lässt sich die Vielfalt der biologischen Phänomene nicht beschreiben, auf keinen Fall ‚voraussagen‘. (vgl. S.3ff) Und von daher kann er sagen, dass diese (biologischen) Phänomene (dazu gehören auch die gesellschaftlichen Ausprägungen, insbesondere die Wirtschaft) jenseits der bisherigen Naturgesetze liegen. (Vgl. S.5)
(8) Für Kauffman charakteristisch am Biologischen ist neben seiner vollständigen Nicht-Voraussagbarkeit dass es sich trotz nicht vorhandener Gesetze quasi von selbst organisiert, eine große Vielfalt entwickelt, dabei aber kohärent bleibt.(vgl. S.6) Eine Besonderheit des Biologischen in ihrem selbstorganisatorischen Auftreten ist auch die Eigenschaft der ‚Agentenschaft‘ (‚agency‘), die einhergeht mit Fragen von ‚Werten‘ (‚values‘) und des ‚Tuns‘ (‚doings‘). Biologische Systeme sind nicht ’neutral‘, sondern sie sehen in allem ‚Werte‘. (vgl. SS.6-9)
(9) Und in diesem Kontext der sich überall zeigenden Kreativität wiederholt er seinen Vorschlag aus dem Vorwort, dass das mit ‚Gott‘ Gemeinte zu sehen ist als dasjenige, was sich in all dem manifestiert. Dazu gehört auch eine entsprechende ‚Mystik‘.(vgl. S.6,9)

REDUKTIONISMUS (VERSUCH DER ZURÜCKFÜHRUNG ALLER PHÄNOMENE AUF EINFACHSTE ELEMENTE)

(10)Der Punkt ohne Wiederkehr der Reduktionisten sind die einfachsten, kleinsten Elemente/ Teilchen/ Strings mit ihrer ‚Selbstbewegung‘, hinter und neben denen nichts mehr geht. Kauffman zitiert hier u.a. das Diktum des (großen?) Physikers Weinberg „Je mehr wir das Universum verstehen, umso bedeutungsloser wird es.“(vgl. S.10)
(11)Diese Art des reduktionistischen Denkens weist vielerlei Schwachstellen und Ungereimtheiten auf. Ungereimtheiten, die nah betrachtet eigentlich schon eher eklatante Denkfehler sind, bei denen man sich nur wundern kann, dass Nobelpreisträger sie nicht wahrhaben wollen. Doch zunächst wiederholt Kaufffman einige dieser Ungereimtheiten auf den SS.10-18. Mit der Fixierung des Blicks auf letzte kleinste Elemente gibt es keine ‚Handelnde‘ (‚agency‘) mehr, damit keine ‚Werte‘ und keine ‚Bedeutung‘. Eine ‚teleologische Sprache‘ ist verpönt. Newtons Gesetze induzieren einen umfassenden Determinismus (allerdings noch mit einer umkehrbaren Zeit!). Theistische Gottesauffassungen tendieren nun zu ‚Deistischen‘ (Gott als ‚Uhrmacher‘-Typ…); Gott interveniert nicht mehr. (vgl.S.15) Ein ‚freier Wille‘ wird fragwürdig. Wie soll der Geist mit einem mechanistischen Körper interagieren? Descartes kreiert den expliziten Dualismus.(vgl. S.15)

ARGUMENTE GEGEN EINEN NAIVEN REDUKTIONISMUS

(12)Kauffman zitiert auf den SS.19-21 den Physiker und Nobelpreisträger Philip W.Anderson, der in einer Arbeit 1972 darauf aufmerksam gemacht hat, dass es mit steigender Komplexität in der Anordnung der Atome in Moleküle ‚Symmetriebrüche‘ dahingehend gibt, dass die Lokalisierung der Atome in diesen Verbindungen ab einem bestimmten Punkt nicht mehr in alle mögliche Richtungen stattfindet, sondern nur noch in bestimmte (man spricht von ‚Chiralität‘ im Sinne von ‚Rechts-‚ oder ‚Linkshändigkeit‘). Dies bedeutet, dass auf einer ‚höheren‘ Organisationsebene ‚Phänomene‘ ‚real‘ werden, die sich nicht aus den einzelnen ‚Bestandteilen‘ ‚ableiten‘ lassen. Ein Reduktionismus würde hier nicht nur nichts erklären, sondern würde – im Gegenteil – reale Phänomene ‚leugnen‘.
(13)Kauffman zitiert auf den SS.22f nochmals Anderson mit einer Überlegung zur Berechenbarkeit und dass dieser Berechenbarkeitsbegriff nicht auf physikalischen Eigenschaften beruht. Hier gehen nach meinem Verständnis aber verschiedene Dinge durcheinander. (i) Die Vermischung des Konzepts ‚Turingmaschine‘ von Turing mit dem Rechnerarchitekturkonzept von von Neumann: Turing hatte keine Rechnerarchitektur beschrieben sondern ein logisch-mathematisches Konzept für Berechenbarkeit formuliert, das keinerlei Annahmen bzgl. einer bestimmten Architektur trifft (im Gegensatz zu von Neumann); (ii) die Anführung der Unentscheidbarkeits- und Unvollständigkeitsbeweise von Goedel und Turing an dieser Stelle wirken ein wenig ‚Beziehungslos‘; man weiß nicht so richtig, was sie hier sollen; (iii) die Beweise mit Hilfe der Turingmaschine sind nicht an konkrete physikalische Eigenschaften geknüpft: dies benutzt Anderson/ Kauffman als Argumente gegen den Reduktionismus. Hier zeigen sich Eigenschaften auf einer ‚höheren Ebene‘, die sich nicht auf einzelne Bestandteil zurückführen lassen.
(14)Kauffman erwähnt auf SS.23f das philosophische Konzept der ’supervenience‘ (von vielen einzelnen Aussagen auf einer ‚tieferen‘ Ebene auf eine Aussage auf einer ‚höheren‘ Ebene schließen, wobei die ‚höhere‘ Ebene ‚types‘ (Typen, Klassen) verkörpert und die tiefere (Realisierungs-)Ebene ‚token‘ (Instanzen, Elemente der Klassen). Diese Einlassung bleibt allerdings zu vage, um ihre Tragweite beurteilen zu können.
(15)Kauffman zitiert dann einen anderen Nobelpreisträger, den Physiker Robert Laughlin (SS.24f). Am Beispiel von Gasen und festen Körpern macht Laughlin darauf aufmerksam, dass viele reale Eigenschaften von solchen großen Aggregaten nur messbar und definierbar sind auf der Ebene der Gesamtaggregate; eine Rückführung auf die einzelnen Bestandteile macht keinen Sinn.
(16)Kauffman zitiert ferner (S.25) den Physiker Leo Kadanoff (kein Nobelpreisträger, aber lange Jahre Präsident der amerikanischen Gesellschaft der Physiker (‚American Physical Society (APS)‘). Er konnte aufzeigen, dass die Navier-Stokes Gleichungen für das Verhalten von Flüssigkeiten, die nicht quantenmechanisch abgeleitet werden können, von einem idealisierten (mathematischen) Modell abgeleitet werden können. Auch diese Eigenschaften hängen also nicht ab von den zugrunde liegenden Elementen/ Teilchen/ Strings.
(17)Auf den SS.25-27 erwähnt Kauffman das Beispiel der klassischen Thermodynamik von Sadi Carnot, nach dem (2.Hauptsatz der Thermodynamik) die Entropie in einem geschlossenen System nur zunehmen kann. Dies bedeutet, dass die Zeit nur eine Richtung kennt. Damit entsteht ein Widerspruch zur klassischen Mechanik von Newton, in der die Zeit sowohl ‚vorwärts‘ wie auch ‚rückwärts‘ laufen konnte. Boltzman, Gibbs und andere haben zwar versucht, diesen Widerspruch durch Einführung der statistischen Mechanik zu lösen (alle Elemente streben dem Zustand einer ‚höheren Wahrscheinlichkeit‘ zu), aber diese Begründung erfolgt nicht aus den Elementen selbst, sondern aufgrund von Zusammenhängen, die über die einzelnen Elemente hinausgehen (Kauffman zitiert stattdessen ein anderes Argument, das mich nicht überzeugt).
(18)Auf den SS.27f diskutiert Kauffman das Problem der Naturkonstanten. Das Standard-Modell der Physik vereint mit der allgemeinen Relativitätstheorie können das bekannte Universum nur erklären, wenn sie 23 spezielle Naturkonstanten annehmen. Die konkreten Werte dieser Konstanten lassen sich nicht irgend woher aus einem Modell generisch ableiten, sondern müssen speziell, von Hand, bestimmt werden. Verändert man einzelne Werte auch nur geringfügig, dann hätten wir ein vollständig anderes Universum. Nach dem Physiker Lee Smolin würde schon eine Abweichung in der Größenordnung von (1/10)^27 das Universum ‚lebensunfreundlich‘ machen. (Vgl.S.28). Diese speziellen Makroeigenschaften lassen sich in keiner Weise aus den bekannten Eigenschaften der einzelnen Elemente/ Teilchen/ Strings ableiten. Sie zeigen sich nur im Zusammenhang.
(19)Mögliche Antworten (vgl. S.28f) sind das starke und das schwache anthropische Prinzip: (i) Im starken anthropischen Prinzip wird ein Schöpfer-Gott angenommen, der die Welt genauso geschaffen hat, wie sie nun mal für ‚Leben‘ günstig ist. Dies ist aber keine überzeugende Antwort. (ii) Im schwachen anthropischen Prinzip nimmt man eine Vielzahl von Welten an. Einige von diesen haben die Parameter so, wie sie für das Leben ‚günstig‘ sind; unser Universum ist eines davon.
(20)Die Annahme einer Vielzahl möglicher Universen hat bislang die meisten Argumente für sich. Die Position des klassischen Reduktionismus wirkt in diesem Kontext mehrfach unglaubwürdig und letztlich argumentativ schwach.

DIE NICHTREDUZIERBARKEIT DER BIOLOGIE AUF DIE PHYSIK

(21)Auf den Seiten 31-43 entwickelt Kauffman zusätzliche Argumente, warum der klassische Reduktionismus nicht funktioniert, indem er die Besonderheiten der Biologie thematisiert. Allerdings springt er nach meinem Verständnis bisweilen zwischen verschiedenen Argumenten im Text hin und her, was die Argumentation erschwert.
(22)So ist der anfängliche Hinweis des Einflusses von Malthus auf Darwin wenig geeignet, die Besonderheit des Phänomens des Biologischen heraus zu stellen. Dies ist schon eher gegeben mit der Einsicht Darwins, dass zwischen der Elterngeneration und der Kindgeneration Veränderungen stattfinden können, die je nach Kontext mehr oder weniger ‚erfolgreich‘ sein können. Dies führte einerseits zum Aufsprengen des statischen Klassifikationssystems von Carl Linnaeus (vgl. S.32) und erlaubte eine zunehmende ‚logische‘ Interpretation der geologischen Befunde. (vgl.S.33) In den 1930igern vereinigte sich das evolutionäre Konzept Darwins mit der modernen Genetik (Mayer, Dobzhansky u.a.), weiter intensiviert durch die Erkenntnisse der Molekularbiologie ab den 1950igern (Watson, Crick u.a.).(vgl. S.33) Das Feststellen von Eigenschaften auf höherer Ebene der Komplexität, die sich nicht aus den zugrunde liegenden Elementen direkt ableiten lassen, nennt Kauffman dann ‚epistemologische Emergenz‘ (also etwa ‚Emergenz aus erkenntnistheoretischer Sicht‘), und die reale Gegebenheit von biologischen Strukturen höherer Komplexität bezeichnet er als ‚ontologische Emergenz‘. (vgl. S.34)
(23)Die Entstehung der vielen, immer komplexeren Arten, dazu stark variierend, lässt sich nach Kauffman nicht allein aus den beteiligten Elementen ableiten. Dies ist allein schon deshalb schwierig, weil viele wichtige beteiligten Faktoren ‚zufälliger‘ Natur sind. (vgl. S.37f) Dazu kommt aber noch ein ganz anderer Umstand. Nimmt man – mit den meisten Physikern – an, dass die Raum-Zeit kontinuierlich ist [Anmerkung: was nicht zwingend der Fall sein muss], dann hat Georg Cantor (1845 – 1918) aufgezeigt, dass die reellen Zahlen eine überabzählbar große Menge darstellen. Dies bedeutet, man kann sie nicht aufzählen. Dies wiederum bedeutet, dass es keinen Computer geben kann, diese Menge zu simulieren. Dies gilt dann auch für ein Universum mit einer kontinuierlichen Raum-Zeit.(vgl. S.39f)
(24)Dieses letzte Argument von Kauffman mit der Nichtaufzählbarkeit empfinde ich als wenig zwingend (wenngleich die Nichtaufzählbarkeit als solche natürlich Fakt ist). Wichtiger sind vielmehr jene Argumente, die auf zentrale Eigenschaften des Biologischen abheben, die sich nicht aus den Bestandteilen alleine ableiten lassen. In diesem Sinne verweist Kauffman auf den Umstand, dass der Mechanismus der Selbstreproduktion nicht an ein bestimmtes Material gebunden ist und sich von daher im gesamten Universum ‚irgendwo‘ ereignen könnte. (vgl. S.40f) In diesen Zusammenhang gehört das Astrobiologie-Programm und die Entwicklung einer ‚Allgemeinen Biologie‘, die über die Bedingungen des Lebens auch jenseits der Bedingungen auf der Erde nachdenkt.
(25)Kauffman spekuliert dann auch darüber, dass die Entdeckung des evolutionären Prinzips durch Darwin nicht nach dem Muster der ‚Induktion‘ entstanden sei, also viele einzelne Beispiele und dann eine verallgemeinernde Idee, sondern dass Darwins Überlegungen auf einer komplexeren Ebene abgelaufen seien, auf der er seine Konzepte definiert habe. (vgl.41-43) Diese Überlegungen erscheinen mir sehr spekulativ und wenig hilfreich. Entscheidend ist, ob wir empirische Phänomene einer Art P haben, die sich nicht aus den Eigenschaften P‘ vermuteter ‚einfacherer‘ Bestandteile direkt ableiten lassen. Wenn nicht, dann haben wir mit den Phänomenen P ‚genuine‘ empirische Phänomene, die erst auf einer höheren Organisationsstufe ’sichtbar‘ werden. Ob diese Einsichten ‚induktiv‘ oder ‚deduktiv‘ gewonnen wurden, spielt keine Rolle.
(26)Als solche ‚genuinen‘ Eigenschaften der Biologie nennt Kauffman Eigenschaften wie sie mit den Begriffen ‚Leben‘, ‚Handelnder‘, ‚Wert‘, ‚Bedeutung‘, ‚Bewusstsein‘ bezeichnet werden.

URSPRUNG DES LEBENS

(27)Auf den SS.44-71 versucht Kauffman, den Ursprung des Lebens mit den Augen einer Allgemeinen Biologie zu bestimmen, die als Disziplin nicht nur völlig eigenständig gegenüber einer Physik ist, sondern darüber hinaus diese sogar beeinflussen und herausfordern kann. [ANMERKUNG: in einem Gespräch mit meinem Freund, dem Physiker MW (nicht zu verwechseln mit dem Physiker vom Cafe Siesmayer, das war der Freund und Physiker MK), hatten wir letztlich den Punkt der Disziplingrenzen diskutiert. Er meinte, dass es keine klaren Grenzen gäbe, wo die Physik anfängt oder aufhört. Letztlich hat die Physik einen ganz allgemeinen Erklärungsanspruch bzgl. der erfahrbaren Natur. Wenn sie das Biologische als eigenständiges Naturphänomen akzeptieren würde – woran sie niemand hindern kann außer sie sich selbst – dann gäbe es keine Abgrenzung hin zur Biologie).
(28) Die Ideen zur Entstehung des Lebens konzentrieren sich letztlich um die Frage eines geeigneten Modells, die Entstehung einer biologischen Zelle zu erklären. Eine Zelle wird dabei als ein ‚offenes System‘ angenommen, das sich nicht in einem Gleichgewichtszustand‘ befindet und zur Erhaltung dieses Nicht-Gleichgewichts beständig Energie zuführen muss. Zusätzlich besitzt sie die besondere Eigenschaft, sich selbst vollständig zu Duplizieren. (vgl.S.46f) Da eine ’normale‘ Zelle schon sehr komplex ist, wird nach ‚einfacheren Vorläuferstufen‘ gefragt, aus denen sich dann das komplexere Modell herleiten lässt.
(29)Nach Kauffman versteht die Wissenchaft bis heute nicht genau, wie die Verdopplungsfähigkeit genau funktioniert. Er will daher zunächst der Frage nachgehen wie sich Moleküle in einfachen Systemen reduplizieren können.(vgl.S.47)
(30)Kauffman diskutiert dann mehrere Theorieansätze (vgl. SS.47-54), bis er den Theorieansatz vorstellt, den er ‚kollektive Autokatalyse‘ nennt. Damit ist gemeint, dass die Molküle einer Menge sich zwar nicht selbst reproduzieren können, aber sie dienen sich wechselseitig als Katalysatoren, dass andere Moleküle dies tun können.(vgl. S.55) In diesem Sinne sind z.B. die Zellen in unserem Körper ‚autokatalytische‘ Zellen: die einzelnen Moleküle in der Zelle können sich selbst nicht vermehren, aber die Zelle als ganze wirkt als Katalysator dafür, dass die vielen Moleküle im Innern der Zelle dies können.(vgl.S.56) Dies bedeutet, dass das Gesamtverhalten ein wesentlicher Faktor darstellt, damit zwischen den Elementen bestimmten Reaktionen möglich sind.(vgl. S.58f)
(31)Für die Theorie der autokatalytischen Mengen benutzt Kauffman das Konzept des ‚Zufallsgraphen‘ (random graphs) von Paul Erdös und Alfréd Rényi (1959), der dann zum Konzept des ‚chemisch-Reaktionsgraphen‘ erweitert wird. Die verschiedenen chemischen Reaktionen werden dann in Form unterschiedlicher verbindender Kanten/ Pfeile repräsentiert. (vgl.SS.61ff) Mit Hilfe dieses Graphenkonzeptes lässt sich einfach ein ‚aktueller‘ Zustand definieren und ein ‚Nachfolgezustand‘, durch den die Menge der ‚möglichen neuen Nachbarn‘ (‚the adjacent possible‘) definierbar wird.(vgl.S.64) Im Übergang zu den neuen Nachbarn wird ein neuer aktueller Zustand zusammen mit den soeben neuen Nachbarn definiert, der wieder neue Nachbarn erlaubt, usw. Mit Hilfe dieses ‚Ausbreitungskonzeptes‘ will Kauffman auch ‚Kreativität‘ definieren, die Kreativität des Universums. (vgl. S.64) Simulation einfacher Modelle solcher autokatalytischer Mengen haben nun gezeigt, dass ab einer bestimmten Anzahl von Elementen die ‚Reaktionsdichte‘ natürlicherweise zunimmt, was dann sehr schnell zu großen ‚Clustern‘ führt.(vgl.S.65f)
(32)Andere haben diese Modelle dahingehend weiterentwickelt, dass sie sich ‚vererben‘ können und bei dieser Vererbung Veränderungen erlauben.(vgl. S.67f) Weitere Eigenschaften (Quellen von freier Energie, Metabolismus) lassen sich in dieses Modell integrieren. (vgl.SS.68-70) Noch ist offen, ob sich dieses mathematische Modell voll lauf reale Molekülmengen anwenden lässt. Klar ist allerdings, dass sich die Eigenschaften des Gesamtsystems nicht aus den Bestandteilen alleine herleiten lässt. Ein klassischer Reduktionismus wäre also ausgeschlossen.
(33)Fortsetzung folgt … kritische Auseinandersetzung am Schluss…

Fortsetzung von TEIL 2

Quellen:

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Über S.A.Kauffman in der Englischen Wikipedia: http://en.wikipedia.org/wiki/Stuart_Kauffman (Zuletzt besucht 5.Jan.2013)

Interessante Vorlesungen von Kauffman als Videos: http://csb.cs.tut.fi/stu_news.php (Zuletzt besucht 5.Jan.2013)

Eine Übersicht über alle bisherige Blogeinträge nach Themen findet sich HIER