REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 4

Vorausgehender Teil 3

NICHTVORAUSSAGBARKEIT DER WIRTSCHAFT

1. Im Kapitel ‚The Evolution of the Economy‘ (‚Die Evolution der Wirtschaft‘) (SS.150-176) beschreibt Kauffman, wie sich die bislang aufgefundenen Eigenschaften der Nichtergodizität und der Präadaptation auch im Bereich der Wirtschaft – bei ihm in Anlehnung an die ‚biosphere‘ ‚ecosphere‘ genannt – wiederfinden, mit allerlei Konsequenzen. Z.B. folgt aus der Annahme der Gültigkeit seiner Modellvorstellungen, dass eine Wirtschaft – in der Theorie – am besten gedeihen kann, wenn es eine möglichst große Vielfalt gibt. Denn dann ist die Chance zur Bildung neuer, innovativer – koevolutionärer – Lösungen am höchsten. Das System stimuliert sich dann quasi ’selbst‘, immer mehr. Zugleich folgt aus seinem Modell die prinzipielle Nichtvoraussagbarkeit der diversen Entwicklungen. (vgl.S.150f)
2. Als ein Beispiel für die Schwierigkeit der Voraussagbarkeit des wirtschaftlichen Geschehens und der Nichtreduzierbarkeit dieser Vorgänge auf die Physik führt Kauffman das berühmte Arrow-Debreu Modell des kompetitiven Gleichgewichts an (heute ein Kern der General equilibrium theory). Das Arrow-Debreu Modell wird bisweilen auch Arrow-Debreu-McKenzie Modell genannt, da neben Kenneth Arrow und Gérard Debreu später Lionel W.McKenzie einige Verbesserungen in das Modell eingebracht hatte.
3. Die Nichtreduzierbarkeit auf die Physik sieht Kauffman dadurch gegeben, dass die teilnehmenden Markt-Akteure u.a. auch mit ‚Werten‘ operieren, die sie den verschiedenen handelbaren Gütern zuordnen. Da nach Kauffman physikalische Modelle nur über reale Ereignisse in der realen Welt operieren können, folgt für ihn aus dieser Annahme die Nichtanwendbarkeit der Physik. (vgl. S.155) [Anmerkung: Wie schon früher angemerkt, hängt diese Schlussfolgerung an einer bestimmten Definition von Physik. Wenn man davon ausgeht, dass die Physik sich prinzipiell mit der ‚ganzen‘ Natur beschäftigt, dann würde sich die Physik – mit wachsenden Einsichten in die Besonderheiten der Welt – konzeptuell beständig weiter ausdehnen! Vom Selbstverständnis einer Physik her wären dann auch Akteure mit Werturteilen nicht notwendigerweise aus einer physikalischen Theoriebildung ausgeschlossen. Dann aber wären alle heute bekannten wissenschaftlichen Disziplinen nur ‚Spielarten‘ der einen Disziplin Physik. Das wirkt auch nicht sehr überzeugend. Hier stellt sich die wissenschaftstheoretische Frage nach der Abgrenzbarkeit der verschiedenen Disziplinen voneinander bzw. nach ihrer möglichen inhaltlichen Beziehung. Ich habe nicht den Eindruck, dass diese Frage bislang irgendwo nennenswert diskutiert wird. Aus ökonomischen und politischen Überlebensinteressen heraus erscheint eine erfolgreiche Abgrenzung meist erfolgversprechender als eine diffuse Vereinigung.]
4. Die Nichtanwendbarkeit der ökonomischen Modelle – und damit die Unmöglichkeit einer seriösen Voraussagbarkeit – sieht Kauffman sowohl in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt tatsächlich vorhandenen Güter gegeben wie auch in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt neu erfundenen Güter.(vgl. S.155) Der tiefere Grund scheint in der Unmöglichkeit zu liegen, den ökonomischen Entwicklungsprozess selbst zu modellieren.(vgl. S.156).
5. Kauffman erwähnt auch die Theorien game theory (‚Spieltheorie‘) und rational expectations (‚Rationale Erwartungen‘). In beiden Fällen sieht er eine Nichtanwendbarkeit in der Realität, da diese Theorien – wie schon im Falle der zuvor erwähnten Gleichgewichtstheorie – die zugrunde liegenden nicht voraussagbaren Entwicklungsprozesse weder beschreiben noch in Rechnung stellen können. (vgl. SS.156-158)
6. [Anmk: In der grundsätzlichen Kritik würde ich Kauffman zwar folgen, aber die Frage ist, ob man damit diesen verschiedenen Theoriebildungen gerecht wird. Insofern die genannten Theorien einen ‚totalen‘ Erklärungsanspruch erheben, muss man sie sicher kritisieren, da sonst falsche Erwartungen geweckt werden. Aber der Wert dieser Theorien liegt in der Praxis meist darin, dass die beteiligten Wissenschaftler mit Hilfe solcher Theorien (= Modellen) versuchen, ihr Verständnis der wirtschaftlichen Vorgänge zu klären und zu schärfen. Ohne solche Modelle gäbe es nur ein Grau-in-Grau von Datenfluten ohne erkennbare Strukturen. Mit solchen Modellen zeigen sich mögliche interessante Strukturen, die Anlass geben können, weiter zu denken. Und in allen drei Fällen kann man beobachten, wie diese Modellbildungen eine anhaltende Diskussion erzeugt haben und erzeugen, die zu immer weiteren Klärungen voranschreitet, einschließlich massiver Kritik, warum das Modell als Ganzes oder Teile davon nicht anwendbar sind. ]

WIRTSCHAFT UND AUTOKATALYSE

7. Nachdem Kauffman drei sehr prominente Modelle ökonomischen Geschehens in dem Punkt kritisiert hat, dass sie den allem Geschehen zugrunde liegende Prozess der Entwicklung nicht beschreiben, stellt er selbst ein Modell für solch einen Entwicklungsprozess vor. Dazu benutzt er wieder sein schon mehrfach zitiertes ‚autokatalytisches Modell‘. Die Kernidee ist ja, dass es zu einem bestimmten Zeitpunkt eine bestimmte Menge von Gütern und Akteuren gibt. Zu einem Gut gibt es entweder ein ‚komplimentäres‘ Gut (ein Auto benötigt Reifen, eine Innenausstattung, usw.) oder ein ’substituierendes‘ Gut (z.B. statt Dampfantrieb ein Elektroantrieb). Diese komplimentären und ersetzenden Möglichkeiten stehen ferner in Wechselwirkungen mit einem an Akteure gebundenen Bedarf, der seiner Natur nach in keiner Weise umfassend und erschöpfend beschrieben noch vorweg genommen werden. Man kann leicht sehen, wie diese wechselseitigen ‚Stimulationen‘ umso vielfältiger und intensiver sein können, als die aktuelle Menge an verfügbaren Gütern und erwartenden Akteuren größer und vielfältiger ist. Kauffman spricht hier von Ko-Konstruktionen bzw. Ko-Evolution. Und, so wenig dieser gesamte Prozess des sich wechselseitigen Stimulierens und Hervorbringens in irgend einer Weise voraussagbar ist, so wenig ist auch das erfinderische Verhalten der beteiligten Akteure, der Menschen, als solches voraussagbar. (SS.158-163)
8. Auf den Seiten 163-172 stellt Kauffman dann konkrete Simulationen vor, die mit Computerversionen des Modells gerechnet worden sind. Die Details spielen hier keine Rolle. Allerdings zeigt sich in diesen Simulationen, dass verschiedene Phänomene in diesem Modell einem ‚Potenzgesetz‘ (‚power law‘) folgen. Damit stellt er eine Verbindung her zum Modell der ’selbstorganisierenden Kritikalität‘ Self-organized criticality (SOC), das in der Physik entdeckt worden war zur Beschreibung komplexer Phänomene in der Natur. Er selbst konnte in Experimenten nachweisen, wie sich die Verteilung der Lebenszeit von Individuen oder die Verteilung von Aussterbensereignisse mit solch einem Modell beschreiben lassen.(vgl. S.172f) Das Modell der selbsorganisierenden Kritikalität lies sich auch anhand der Daten der Lebenszeit von Firmen nachweisen. (vgl.S.174)

GRENZEN VON COMPUTERMODELLEN ZUR VORAUSSAGE WIRTSCHAFTLICHER PROZESSE

9. Abschliessend zweifelt er daran, dass man mittels Computersimulationen wirtschaftliche Prozesse so simulieren könne, dass man daraus belastbare Vorhersagen für die Zukunft gewinnen könnte.(vgl.S.174) Nochmals zitiert er Gödel mit seinem Unvollständigkeitsbeweis und stellt mit Blick auf die ökonomischen Modelle fest, dass die Ergebnisse von Gödel im Falle der Ökonomie auf jeden Fall auch zutreffen.
10. [Anmk: Eine detaillierte Diskussion der verschiedenen von Kauffman zitierten Modelle und Theorien ist in dem hier gesetzten Rahmen einer ersten Besprechung nicht geeignet. In anderen Kontexten werde ich verschiedene dieser Modelle noch genauer untersuchen und dann bei Gelegenheit im Blog darüber berichten. Die grundsätzliche Stossrichtung der Argumentation erscheint mir aber plausibel und wichtig. In der Tat ist es die innere Logik des Prozesses selbst, die interessant ist und die daraus sich ergebende Nichtvoraussagbarkeit der nächsten Prozesschritte. Dennoch geschieht das Ganze nicht vollständig ‚planlos‘, was sich aus verschiedenen Voraussetzungen ergibt. Hier zeigt sich eine interessante Paradoxie, die weiter zu ergründen ist.]

Zur Fortsetzung siehe Teil 5

Eine Übersicht über alle bisherigen Einträge in den Blog nach Titeln findet sich HIER.

REDUKTIONISMUS, ERMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 1

ZUSAMMENHANG MIT DEM BLOG

Letzte Korrekturen: 23.März 2013

(1)Der Zusammenhang mit dem Blog besteht darin, dass im Blog der klassische Widerspruch zwischen ‚Geist‘ auf der einen Seite und ‚Materie‘ auf der anderen von vielen Seiten neu reflektiert wird. Dabei zeigte sich u.a. dass durch die Einbeziehung der neueren Erkenntnisse über das Biologische und seiner Entstehung die Phänomene des Biologischen zu einer neuen Sicht der Materie und der Energie führen können, zu einer Sicht, die deutlich macht, dass die klassische Sicht der Physik sich immer mehr als unbefriedigend erweist. Ergänzt wurden diese Reflexionen durch frühere Einträge im Blog, in denen auch die Sicht des ‚Geistes‘ aus Sicht der Philosophie dahingehend ‚aufgebrochen‘ worden sind, dass auch die klassische Philosophie im Lichte der neueren Erkenntnisse zum Leben ihre eigenen Erkenntnisvoraussetzungen neu bedenken kann und auch muss (dies wurde spätestens seit dem Vortrag in Bremerhaven offenbar!). Zwar bedeutet die Einbeziehung naturwissenschaftlicher Erkenntnisse eine ‚Verletzung‘ des klassischen philosophischen – und insbesondere des phänomenologischen – Paradigmas, aber es bedeutet keine vollständige Auflösung noch gar eine ‚Zerstörung‘ der Philosophie, sondern – möglicherweise – eine notwendige ‚Erneuerung‘, die schließlich dazu führen kann, die unselige Trennung zwischen Geistes- und Naturwissenschaften aufzuheben. Diese Trennung erscheint im neuen Denken als ein ‚Artefakt‘ des klassischen Denkens aufgrund falscher Voraussetzungen.
(2) Diese veränderte Sicht auf das Verhältnis zwischen ‚Geist‘ und ‚Materie/ Energie‘ wirkt sich auch aus auf eine veränderte Sicht zum Glauben an das mit ‚Gott‘ Gemeinte, zur Rolle der Religionen und Kirchen (siehe z.B. den Blog zum 24.Dez.2012 und seinen Teil 2).
(3)In diesem Zusammenhang bin ich auf das Buch von Stuart Alan Kauffman gestossen „Reinventing The Sacred. A new View of Science, Reason, and Religion.“ (etwa: Die Wiederentdeckung des Heiligen. Eine neue Sicht der Wissenschaft, des Verstandes und der Religion). Veröffentlicht 2008 (siehe weitere Angaben zu Kauffman unten).

EINSTIEG IN DAS BUCH

(4) Die Einleitung und das erste Kapitel sind ein wenig ’schleppend‘ und ich war schon fast versucht, es wieder weg zu legen, aber dann ab S.10 nimmt das Bucht deutlich Fahrt auf. Und ich habe den Eindruck, dieses Buch kann helfen, die neue Sicht insbesondere im Bereich Physik und Biologie weiter zu differenzieren. Außerdem hat das Buch die unangenehme Eigenschaft, dass Kauffman praktisch nirgends richtig zitiert. Es gibt zwar im Anhang verschiedene Quellenangaben, aber im Text werden die Namen von Autoren oder deren Aussagen zwar erwähnt, aber es gibt keine klare Quellenangaben. Das ist schade, ärgerlich und erschwert das Nachlesen (in diesem Blog mache ich das zwar auch sehr oft, aber es ist auch ein Blog und keine offizielle Veröffentlichung).
(5) Das große Thema des Buches ist nach Kauffman die Unzulänglichkeit einer Physik (bzw. der ganzen Naturwissenschaft), sofern sie sich ‚reduktionistisch‘ versteht, d.h. die Wirklichkeit ausschließlich interpretiert als Rückführung aller Phänomene auf eine Ansammlung von Teilchen. Dieser Denkweise hält er Fakten entgegen, die aus seiner Sicht etwas anderes repräsentieren: die ‚Emergenz‘ des Biologischen, das sich von der Molekülebene aus bis hin zu den komplexen gesellschaftlichen Ausprägungen als eine Form des ‚Zusammenwirken‘ zeigt, die sich nicht aus den physikalischen Gesetzen ableiten lässt, aber dennoch ‚real‘ ist. D.h. es gibt Realität, die uns alle bestimmt, die sich nicht physikalisch (bzw. allgemeiner ’naturwissenschaftlich‘) erklären lässt.
(6) In diesem ‚irreduziblen‘ Phänomen des ‚Biologischen‘ sieht Kauffman eine ‚Kreativität‘ am Werk, die typisch ist für diese Phänomene und er möchte den Begriff ‚Gott‘ für diese das ganze Universum durchwaltende ‚Kreativität‘ benutzen, sozusagen das mit ‚Gott‘ Gemeinte als das sich überall ‚kreativ‘ Zeigende und darin sich Manifestierende (vgl. z.B. S.XI). In diesem Verständnis sieht er einen Anknüpfungspunkt an den weltweiten Glauben an einen Schöpfergott (‚creator god‘), speziell natürlich in der jüdisch-christlichen Tradition (vgl. S.XII). Damit wird das Göttliche stückweise ‚empirisch‘, was neue Ansatzpunkte liefert für ein in der Welt lokalisierte ‚Spiritualität (’spirituality‘), für eine Wiederentdeckung des ‚Heiligen‘ (’sacred‘).(vgl. S.XII)
(7) Den ‚Reduktionismus‘ sieht er schon in den Anfängen der Wissenschaft (Galilei, Descartes, Newton, Laplace) gegeben (vgl. S.2), er kulminiert in der modernen Sicht, dass die Physik letztlich annimmt, dass wir ‚am Grunde‘ der Materie nur ‚Partikel oder Strings haben, die sich in Bewegung befinden‘ (vgl. S.3). Aber mit dieser Basis lässt sich die Vielfalt der biologischen Phänomene nicht beschreiben, auf keinen Fall ‚voraussagen‘. (vgl. S.3ff) Und von daher kann er sagen, dass diese (biologischen) Phänomene (dazu gehören auch die gesellschaftlichen Ausprägungen, insbesondere die Wirtschaft) jenseits der bisherigen Naturgesetze liegen. (Vgl. S.5)
(8) Für Kauffman charakteristisch am Biologischen ist neben seiner vollständigen Nicht-Voraussagbarkeit dass es sich trotz nicht vorhandener Gesetze quasi von selbst organisiert, eine große Vielfalt entwickelt, dabei aber kohärent bleibt.(vgl. S.6) Eine Besonderheit des Biologischen in ihrem selbstorganisatorischen Auftreten ist auch die Eigenschaft der ‚Agentenschaft‘ (‚agency‘), die einhergeht mit Fragen von ‚Werten‘ (‚values‘) und des ‚Tuns‘ (‚doings‘). Biologische Systeme sind nicht ’neutral‘, sondern sie sehen in allem ‚Werte‘. (vgl. SS.6-9)
(9) Und in diesem Kontext der sich überall zeigenden Kreativität wiederholt er seinen Vorschlag aus dem Vorwort, dass das mit ‚Gott‘ Gemeinte zu sehen ist als dasjenige, was sich in all dem manifestiert. Dazu gehört auch eine entsprechende ‚Mystik‘.(vgl. S.6,9)

REDUKTIONISMUS (VERSUCH DER ZURÜCKFÜHRUNG ALLER PHÄNOMENE AUF EINFACHSTE ELEMENTE)

(10)Der Punkt ohne Wiederkehr der Reduktionisten sind die einfachsten, kleinsten Elemente/ Teilchen/ Strings mit ihrer ‚Selbstbewegung‘, hinter und neben denen nichts mehr geht. Kauffman zitiert hier u.a. das Diktum des (großen?) Physikers Weinberg „Je mehr wir das Universum verstehen, umso bedeutungsloser wird es.“(vgl. S.10)
(11)Diese Art des reduktionistischen Denkens weist vielerlei Schwachstellen und Ungereimtheiten auf. Ungereimtheiten, die nah betrachtet eigentlich schon eher eklatante Denkfehler sind, bei denen man sich nur wundern kann, dass Nobelpreisträger sie nicht wahrhaben wollen. Doch zunächst wiederholt Kaufffman einige dieser Ungereimtheiten auf den SS.10-18. Mit der Fixierung des Blicks auf letzte kleinste Elemente gibt es keine ‚Handelnde‘ (‚agency‘) mehr, damit keine ‚Werte‘ und keine ‚Bedeutung‘. Eine ‚teleologische Sprache‘ ist verpönt. Newtons Gesetze induzieren einen umfassenden Determinismus (allerdings noch mit einer umkehrbaren Zeit!). Theistische Gottesauffassungen tendieren nun zu ‚Deistischen‘ (Gott als ‚Uhrmacher‘-Typ…); Gott interveniert nicht mehr. (vgl.S.15) Ein ‚freier Wille‘ wird fragwürdig. Wie soll der Geist mit einem mechanistischen Körper interagieren? Descartes kreiert den expliziten Dualismus.(vgl. S.15)

ARGUMENTE GEGEN EINEN NAIVEN REDUKTIONISMUS

(12)Kauffman zitiert auf den SS.19-21 den Physiker und Nobelpreisträger Philip W.Anderson, der in einer Arbeit 1972 darauf aufmerksam gemacht hat, dass es mit steigender Komplexität in der Anordnung der Atome in Moleküle ‚Symmetriebrüche‘ dahingehend gibt, dass die Lokalisierung der Atome in diesen Verbindungen ab einem bestimmten Punkt nicht mehr in alle mögliche Richtungen stattfindet, sondern nur noch in bestimmte (man spricht von ‚Chiralität‘ im Sinne von ‚Rechts-‚ oder ‚Linkshändigkeit‘). Dies bedeutet, dass auf einer ‚höheren‘ Organisationsebene ‚Phänomene‘ ‚real‘ werden, die sich nicht aus den einzelnen ‚Bestandteilen‘ ‚ableiten‘ lassen. Ein Reduktionismus würde hier nicht nur nichts erklären, sondern würde – im Gegenteil – reale Phänomene ‚leugnen‘.
(13)Kauffman zitiert auf den SS.22f nochmals Anderson mit einer Überlegung zur Berechenbarkeit und dass dieser Berechenbarkeitsbegriff nicht auf physikalischen Eigenschaften beruht. Hier gehen nach meinem Verständnis aber verschiedene Dinge durcheinander. (i) Die Vermischung des Konzepts ‚Turingmaschine‘ von Turing mit dem Rechnerarchitekturkonzept von von Neumann: Turing hatte keine Rechnerarchitektur beschrieben sondern ein logisch-mathematisches Konzept für Berechenbarkeit formuliert, das keinerlei Annahmen bzgl. einer bestimmten Architektur trifft (im Gegensatz zu von Neumann); (ii) die Anführung der Unentscheidbarkeits- und Unvollständigkeitsbeweise von Goedel und Turing an dieser Stelle wirken ein wenig ‚Beziehungslos‘; man weiß nicht so richtig, was sie hier sollen; (iii) die Beweise mit Hilfe der Turingmaschine sind nicht an konkrete physikalische Eigenschaften geknüpft: dies benutzt Anderson/ Kauffman als Argumente gegen den Reduktionismus. Hier zeigen sich Eigenschaften auf einer ‚höheren Ebene‘, die sich nicht auf einzelne Bestandteil zurückführen lassen.
(14)Kauffman erwähnt auf SS.23f das philosophische Konzept der ’supervenience‘ (von vielen einzelnen Aussagen auf einer ‚tieferen‘ Ebene auf eine Aussage auf einer ‚höheren‘ Ebene schließen, wobei die ‚höhere‘ Ebene ‚types‘ (Typen, Klassen) verkörpert und die tiefere (Realisierungs-)Ebene ‚token‘ (Instanzen, Elemente der Klassen). Diese Einlassung bleibt allerdings zu vage, um ihre Tragweite beurteilen zu können.
(15)Kauffman zitiert dann einen anderen Nobelpreisträger, den Physiker Robert Laughlin (SS.24f). Am Beispiel von Gasen und festen Körpern macht Laughlin darauf aufmerksam, dass viele reale Eigenschaften von solchen großen Aggregaten nur messbar und definierbar sind auf der Ebene der Gesamtaggregate; eine Rückführung auf die einzelnen Bestandteile macht keinen Sinn.
(16)Kauffman zitiert ferner (S.25) den Physiker Leo Kadanoff (kein Nobelpreisträger, aber lange Jahre Präsident der amerikanischen Gesellschaft der Physiker (‚American Physical Society (APS)‘). Er konnte aufzeigen, dass die Navier-Stokes Gleichungen für das Verhalten von Flüssigkeiten, die nicht quantenmechanisch abgeleitet werden können, von einem idealisierten (mathematischen) Modell abgeleitet werden können. Auch diese Eigenschaften hängen also nicht ab von den zugrunde liegenden Elementen/ Teilchen/ Strings.
(17)Auf den SS.25-27 erwähnt Kauffman das Beispiel der klassischen Thermodynamik von Sadi Carnot, nach dem (2.Hauptsatz der Thermodynamik) die Entropie in einem geschlossenen System nur zunehmen kann. Dies bedeutet, dass die Zeit nur eine Richtung kennt. Damit entsteht ein Widerspruch zur klassischen Mechanik von Newton, in der die Zeit sowohl ‚vorwärts‘ wie auch ‚rückwärts‘ laufen konnte. Boltzman, Gibbs und andere haben zwar versucht, diesen Widerspruch durch Einführung der statistischen Mechanik zu lösen (alle Elemente streben dem Zustand einer ‚höheren Wahrscheinlichkeit‘ zu), aber diese Begründung erfolgt nicht aus den Elementen selbst, sondern aufgrund von Zusammenhängen, die über die einzelnen Elemente hinausgehen (Kauffman zitiert stattdessen ein anderes Argument, das mich nicht überzeugt).
(18)Auf den SS.27f diskutiert Kauffman das Problem der Naturkonstanten. Das Standard-Modell der Physik vereint mit der allgemeinen Relativitätstheorie können das bekannte Universum nur erklären, wenn sie 23 spezielle Naturkonstanten annehmen. Die konkreten Werte dieser Konstanten lassen sich nicht irgend woher aus einem Modell generisch ableiten, sondern müssen speziell, von Hand, bestimmt werden. Verändert man einzelne Werte auch nur geringfügig, dann hätten wir ein vollständig anderes Universum. Nach dem Physiker Lee Smolin würde schon eine Abweichung in der Größenordnung von (1/10)^27 das Universum ‚lebensunfreundlich‘ machen. (Vgl.S.28). Diese speziellen Makroeigenschaften lassen sich in keiner Weise aus den bekannten Eigenschaften der einzelnen Elemente/ Teilchen/ Strings ableiten. Sie zeigen sich nur im Zusammenhang.
(19)Mögliche Antworten (vgl. S.28f) sind das starke und das schwache anthropische Prinzip: (i) Im starken anthropischen Prinzip wird ein Schöpfer-Gott angenommen, der die Welt genauso geschaffen hat, wie sie nun mal für ‚Leben‘ günstig ist. Dies ist aber keine überzeugende Antwort. (ii) Im schwachen anthropischen Prinzip nimmt man eine Vielzahl von Welten an. Einige von diesen haben die Parameter so, wie sie für das Leben ‚günstig‘ sind; unser Universum ist eines davon.
(20)Die Annahme einer Vielzahl möglicher Universen hat bislang die meisten Argumente für sich. Die Position des klassischen Reduktionismus wirkt in diesem Kontext mehrfach unglaubwürdig und letztlich argumentativ schwach.

DIE NICHTREDUZIERBARKEIT DER BIOLOGIE AUF DIE PHYSIK

(21)Auf den Seiten 31-43 entwickelt Kauffman zusätzliche Argumente, warum der klassische Reduktionismus nicht funktioniert, indem er die Besonderheiten der Biologie thematisiert. Allerdings springt er nach meinem Verständnis bisweilen zwischen verschiedenen Argumenten im Text hin und her, was die Argumentation erschwert.
(22)So ist der anfängliche Hinweis des Einflusses von Malthus auf Darwin wenig geeignet, die Besonderheit des Phänomens des Biologischen heraus zu stellen. Dies ist schon eher gegeben mit der Einsicht Darwins, dass zwischen der Elterngeneration und der Kindgeneration Veränderungen stattfinden können, die je nach Kontext mehr oder weniger ‚erfolgreich‘ sein können. Dies führte einerseits zum Aufsprengen des statischen Klassifikationssystems von Carl Linnaeus (vgl. S.32) und erlaubte eine zunehmende ‚logische‘ Interpretation der geologischen Befunde. (vgl.S.33) In den 1930igern vereinigte sich das evolutionäre Konzept Darwins mit der modernen Genetik (Mayer, Dobzhansky u.a.), weiter intensiviert durch die Erkenntnisse der Molekularbiologie ab den 1950igern (Watson, Crick u.a.).(vgl. S.33) Das Feststellen von Eigenschaften auf höherer Ebene der Komplexität, die sich nicht aus den zugrunde liegenden Elementen direkt ableiten lassen, nennt Kauffman dann ‚epistemologische Emergenz‘ (also etwa ‚Emergenz aus erkenntnistheoretischer Sicht‘), und die reale Gegebenheit von biologischen Strukturen höherer Komplexität bezeichnet er als ‚ontologische Emergenz‘. (vgl. S.34)
(23)Die Entstehung der vielen, immer komplexeren Arten, dazu stark variierend, lässt sich nach Kauffman nicht allein aus den beteiligten Elementen ableiten. Dies ist allein schon deshalb schwierig, weil viele wichtige beteiligten Faktoren ‚zufälliger‘ Natur sind. (vgl. S.37f) Dazu kommt aber noch ein ganz anderer Umstand. Nimmt man – mit den meisten Physikern – an, dass die Raum-Zeit kontinuierlich ist [Anmerkung: was nicht zwingend der Fall sein muss], dann hat Georg Cantor (1845 – 1918) aufgezeigt, dass die reellen Zahlen eine überabzählbar große Menge darstellen. Dies bedeutet, man kann sie nicht aufzählen. Dies wiederum bedeutet, dass es keinen Computer geben kann, diese Menge zu simulieren. Dies gilt dann auch für ein Universum mit einer kontinuierlichen Raum-Zeit.(vgl. S.39f)
(24)Dieses letzte Argument von Kauffman mit der Nichtaufzählbarkeit empfinde ich als wenig zwingend (wenngleich die Nichtaufzählbarkeit als solche natürlich Fakt ist). Wichtiger sind vielmehr jene Argumente, die auf zentrale Eigenschaften des Biologischen abheben, die sich nicht aus den Bestandteilen alleine ableiten lassen. In diesem Sinne verweist Kauffman auf den Umstand, dass der Mechanismus der Selbstreproduktion nicht an ein bestimmtes Material gebunden ist und sich von daher im gesamten Universum ‚irgendwo‘ ereignen könnte. (vgl. S.40f) In diesen Zusammenhang gehört das Astrobiologie-Programm und die Entwicklung einer ‚Allgemeinen Biologie‘, die über die Bedingungen des Lebens auch jenseits der Bedingungen auf der Erde nachdenkt.
(25)Kauffman spekuliert dann auch darüber, dass die Entdeckung des evolutionären Prinzips durch Darwin nicht nach dem Muster der ‚Induktion‘ entstanden sei, also viele einzelne Beispiele und dann eine verallgemeinernde Idee, sondern dass Darwins Überlegungen auf einer komplexeren Ebene abgelaufen seien, auf der er seine Konzepte definiert habe. (vgl.41-43) Diese Überlegungen erscheinen mir sehr spekulativ und wenig hilfreich. Entscheidend ist, ob wir empirische Phänomene einer Art P haben, die sich nicht aus den Eigenschaften P‘ vermuteter ‚einfacherer‘ Bestandteile direkt ableiten lassen. Wenn nicht, dann haben wir mit den Phänomenen P ‚genuine‘ empirische Phänomene, die erst auf einer höheren Organisationsstufe ’sichtbar‘ werden. Ob diese Einsichten ‚induktiv‘ oder ‚deduktiv‘ gewonnen wurden, spielt keine Rolle.
(26)Als solche ‚genuinen‘ Eigenschaften der Biologie nennt Kauffman Eigenschaften wie sie mit den Begriffen ‚Leben‘, ‚Handelnder‘, ‚Wert‘, ‚Bedeutung‘, ‚Bewusstsein‘ bezeichnet werden.

URSPRUNG DES LEBENS

(27)Auf den SS.44-71 versucht Kauffman, den Ursprung des Lebens mit den Augen einer Allgemeinen Biologie zu bestimmen, die als Disziplin nicht nur völlig eigenständig gegenüber einer Physik ist, sondern darüber hinaus diese sogar beeinflussen und herausfordern kann. [ANMERKUNG: in einem Gespräch mit meinem Freund, dem Physiker MW (nicht zu verwechseln mit dem Physiker vom Cafe Siesmayer, das war der Freund und Physiker MK), hatten wir letztlich den Punkt der Disziplingrenzen diskutiert. Er meinte, dass es keine klaren Grenzen gäbe, wo die Physik anfängt oder aufhört. Letztlich hat die Physik einen ganz allgemeinen Erklärungsanspruch bzgl. der erfahrbaren Natur. Wenn sie das Biologische als eigenständiges Naturphänomen akzeptieren würde – woran sie niemand hindern kann außer sie sich selbst – dann gäbe es keine Abgrenzung hin zur Biologie).
(28) Die Ideen zur Entstehung des Lebens konzentrieren sich letztlich um die Frage eines geeigneten Modells, die Entstehung einer biologischen Zelle zu erklären. Eine Zelle wird dabei als ein ‚offenes System‘ angenommen, das sich nicht in einem Gleichgewichtszustand‘ befindet und zur Erhaltung dieses Nicht-Gleichgewichts beständig Energie zuführen muss. Zusätzlich besitzt sie die besondere Eigenschaft, sich selbst vollständig zu Duplizieren. (vgl.S.46f) Da eine ’normale‘ Zelle schon sehr komplex ist, wird nach ‚einfacheren Vorläuferstufen‘ gefragt, aus denen sich dann das komplexere Modell herleiten lässt.
(29)Nach Kauffman versteht die Wissenchaft bis heute nicht genau, wie die Verdopplungsfähigkeit genau funktioniert. Er will daher zunächst der Frage nachgehen wie sich Moleküle in einfachen Systemen reduplizieren können.(vgl.S.47)
(30)Kauffman diskutiert dann mehrere Theorieansätze (vgl. SS.47-54), bis er den Theorieansatz vorstellt, den er ‚kollektive Autokatalyse‘ nennt. Damit ist gemeint, dass die Molküle einer Menge sich zwar nicht selbst reproduzieren können, aber sie dienen sich wechselseitig als Katalysatoren, dass andere Moleküle dies tun können.(vgl. S.55) In diesem Sinne sind z.B. die Zellen in unserem Körper ‚autokatalytische‘ Zellen: die einzelnen Moleküle in der Zelle können sich selbst nicht vermehren, aber die Zelle als ganze wirkt als Katalysator dafür, dass die vielen Moleküle im Innern der Zelle dies können.(vgl.S.56) Dies bedeutet, dass das Gesamtverhalten ein wesentlicher Faktor darstellt, damit zwischen den Elementen bestimmten Reaktionen möglich sind.(vgl. S.58f)
(31)Für die Theorie der autokatalytischen Mengen benutzt Kauffman das Konzept des ‚Zufallsgraphen‘ (random graphs) von Paul Erdös und Alfréd Rényi (1959), der dann zum Konzept des ‚chemisch-Reaktionsgraphen‘ erweitert wird. Die verschiedenen chemischen Reaktionen werden dann in Form unterschiedlicher verbindender Kanten/ Pfeile repräsentiert. (vgl.SS.61ff) Mit Hilfe dieses Graphenkonzeptes lässt sich einfach ein ‚aktueller‘ Zustand definieren und ein ‚Nachfolgezustand‘, durch den die Menge der ‚möglichen neuen Nachbarn‘ (‚the adjacent possible‘) definierbar wird.(vgl.S.64) Im Übergang zu den neuen Nachbarn wird ein neuer aktueller Zustand zusammen mit den soeben neuen Nachbarn definiert, der wieder neue Nachbarn erlaubt, usw. Mit Hilfe dieses ‚Ausbreitungskonzeptes‘ will Kauffman auch ‚Kreativität‘ definieren, die Kreativität des Universums. (vgl. S.64) Simulation einfacher Modelle solcher autokatalytischer Mengen haben nun gezeigt, dass ab einer bestimmten Anzahl von Elementen die ‚Reaktionsdichte‘ natürlicherweise zunimmt, was dann sehr schnell zu großen ‚Clustern‘ führt.(vgl.S.65f)
(32)Andere haben diese Modelle dahingehend weiterentwickelt, dass sie sich ‚vererben‘ können und bei dieser Vererbung Veränderungen erlauben.(vgl. S.67f) Weitere Eigenschaften (Quellen von freier Energie, Metabolismus) lassen sich in dieses Modell integrieren. (vgl.SS.68-70) Noch ist offen, ob sich dieses mathematische Modell voll lauf reale Molekülmengen anwenden lässt. Klar ist allerdings, dass sich die Eigenschaften des Gesamtsystems nicht aus den Bestandteilen alleine herleiten lässt. Ein klassischer Reduktionismus wäre also ausgeschlossen.
(33)Fortsetzung folgt … kritische Auseinandersetzung am Schluss…

Fortsetzung von TEIL 2

Quellen:

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Über S.A.Kauffman in der Englischen Wikipedia: http://en.wikipedia.org/wiki/Stuart_Kauffman (Zuletzt besucht 5.Jan.2013)

Interessante Vorlesungen von Kauffman als Videos: http://csb.cs.tut.fi/stu_news.php (Zuletzt besucht 5.Jan.2013)

Eine Übersicht über alle bisherige Blogeinträge nach Themen findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Teil 3 (Superbugs, Steinefresser)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

Start: 3.Sept.2012

Letzte Fortsetzung: 4.Sept.2012

Fortsetzung von Teil 2

 

  1. Die Entdeckung, dass RNA-Moleküle ähnliche Eigenschaften haben wie DNA-Moleküle und sie bis zu einem gewissen Grade auch als Enzyme fungieren können, die chemische Prozesse unterstützen (was sonst Proteine tun), führte zur Hypothese von der RNA-Welt, die der DNA-Welt vorausgeht. Experimente von Spiegelmann zeigten z.B., dass RNA-Genome in einer entsprechenden Lösung mit Enzymen sich reproduzieren können, allerdings mit der Tendenz, sich immer mehr zu vereinfachen (74.ter Durchlauf, 84% abgestoßen [Spiegelmann S.217]). Die Entkopplung von realen Lebensprozessen führt offensichtlich zu einer ‚Sinnentleerung‘ dergestalt, dass die Basen ihre ‚Bedeutung‘ verlieren und damit ihre ‚Notwendigkeit‘! Das vereinfachte Endprodukt bekam den Namen ‚Spiegelmanns Monster‘. (123-127) Genau gegenläufig war ein Experiment von Manfred Eigen und Peter Schuster (1967), die mit RNA-Bausteinen begannen und herausfanden, dass diese sich ‚aus sich heraus‘ zu immer komplexeren Einheiten zusammenfügten, sich reproduzierten, und den ‚Monstern von Spiegelmann‘ ähnelten. (127f) Allerdings benutze Eigen und Schuster für ihre Experimente spezialisierte Enzyme, die aus einer Zelle gewonnen waren. Die Existenz solcher Enzyme in der frühen Zeit der Entstehung gilt aber nicht als gesichert. (128f) Überlegungen zu möglichen Szenarien der frühen Koevolution von RNA-Molekülen und Proteinen gibt es, aber keine wirklichen ‚Beweise‘. (129f) Alle bisherigen Experimente haben nur gezeigt, dass die Synthese längerer RNA-Moleküle ohne spezielle Unterstützung zu fragil ist; sie funktioniert nicht. Dazu gehört auch das Detail der Chiralität: bei ‚freier‘ Erzeugung zeigen die Moleküle sowohl Links- als auch Rechtshändigkeit; die biologischen Moleküle sind aber alle linkshändig. (130f) Stammbaumanalysen zeigen ferner, dass RNA-Replikation eine spätere Entwicklung ist; die frühesten Vorläufer hatten sie so nicht. (131f) Ferner ist völlig unklar, wie sich frühere Replikatoren entwickeln konnten. (132)

  2. Aufgrund dieser Schwierigkeiten gibt es alternative Versuche, anzunehmen, dass vielleicht die Proteine zuerst da waren. Rheza Ghadiri entdeckte, dass sich Peptidketten selbst vermehren können, was auch am Beispiel der Rinderseuche BSE bestätigt wurde (133). Freeman Dyson nahm an, dass die Proteine und die replikationsfähigen Moleküle sich parallel entwickelt haben und dann erst fusionierten.(133f) Die zentrale Annahme bei Dyson ist, dass Moleküle die Produktion und Veränderung anderer Moleküle bewirken können. Damit können dann ‚Ordnungen‘ dergestalt entstehen, dass sich präferierte chemische Zyklen bilden, die verklumpen, anschwellen und sich spalten. Schon auf dieser Ebene sollte begrenzter ‚Wettbewerb‘ möglich sein, der zu einer begrenzten ‚Evolution‘ führt. (134) Solche Prozesse könnten dann von von Nukleinsäuren durchdrungen werden, die sich diese Prozesse zunutze machen. (134f) Als möglicher Ort für solche Prozesse könnte der Boden der Ozeane fungieren. Russell entwickelte ein Modell von semipermeablen- Membranen, die sich dort bilden können. (135f) Cairns-Smith generalisierte die Idee der Informationsspeicherung und entwickelte die Hypothese, dass zu Beginn Tonkristalle die Funktion von RNA und DNA gespielt haben könnten. Allerdings gibt es bislang keine experimentelle Bestätigung hierfür. (136f)

  3. Alle diese Überlegungen liefern bislang keine vollständig überzeugenden Lösungen. Klar ist nur, dass die biologische Evolution Vorläuferprozesse haben musste, denen ein Minimum an Komplexität zukommt und zwar eine ‚organisierte Komplexität‘. (137f) Unter dem Titel ‚Selbstorganisation‘ fand Prigogine Beispiele, wie sich durch Zufluss freier Energie geordnete Strukturen aus einer ‚chaotischen‘ Situation heraus bilden konnten.(138f) Kaufmann entwickelte die Idee ‚autokatalytischer‘ Prozesse, in denen ein Molekül M auf andere Moleküle als Katalysator so wirkt, dass sie Prozesse eingehen, die letztlich zur Produktion von M führen. Dies verstärkt diese Prozesse immer mehr. (139f) Allerdings fehlen auch für diese Hypothesen empirische und experimentelle Belege. (140f) Davies weist auch darauf hin, dass selbstorganisierende Prozesse in allen wesentlichen Eigenschaften von den Umgebungsbedingungen bestimmt werden; biologische Reproduktion ist aber wesentlich ‚intrinsisch‘ bestimmt durch die Informationen der DNA/ RNA-Moleküle. Alle die Modelle zur Selbstorganisation liefern keine wirklichen Hinweise, wie es zu den selbstbestimmten Formen der Reproduktion kommen konnte, zur Herausbildung der Software [zur Dekodierung?]. (141) Dabei erinnert Davies nochmals an den Aspekt der ’nicht-zufälligen‘ Ordnung, d.h. alle jene Muster, die regelmäßige Anteile enthalten (wie in den Beispielen von Autokatalyse und Selbstorganisation), sind nicht die Formen von zufälliger Informationsspeicherung, wie man sie im Falle von DNA bzw. RNA-Molekülen findet.(142)

  4. [Anmerkung: So gibt es bislang also Einsichten in das Prinzip der biologischen Selbstreproduktion, aber überzeugende Hinweise auf chemische Prozesse, wie es zur Ausbildung solcher komplexer Prozesse komme konnte, fehlen noch. ]

  5. Im Kapitel 6 ‚The Cosmic Connection‘ (SS.143 – 162) wird aufgezeigt, dass die irdische Chemie nicht losgelöst ist von der allgemeinen Chemie des Universums. Fünf chemische Elemente spielen in der erdgebundenen Biologie eine zentrale Rolle: Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘), Stickstoff (’nitrogen‘), und Phosphor (‚phosphorus‘). Dies sind zugleich die häufigsten Elemente im ganzen Universum. (143) Kohlenstoff hat die außerordentliche Fähigkeit, praktisch unendlich lange Ketten zu bilden (Nukleinsäuren und Proteine sind Beispiele dafür). (143)

  6. Kohlenstoff entsteht durch die Kernfusion in Sternen von Wasserstoff zu Helium zu Kohlenstoff.(146) Buchstäblich aus der ‚Asche‘ erloschener Sterne konnten sich dann Planeten wie die Erde bilden.(144) Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘) und Stickstoff (’nitrogen‘) werden seit Bestehen der Erde beständig in der Atmosphäre, in der Erdkruste, bei allen Verwesungsprozessen ‚recycled‘. Danach enthält jeder Körper Kohlenstoffatome von anderen Körpern, die 1000 und mehr Jahre älter sind.(146f) Mehr als hundert chemische Verbindungen konnten bislang im Universum nachgewiesen werden, viele davon organischer Natur. (147f) Nach den ersten hundert Millionen Jahren war die Oberfläche der Erde immer noch sehr heiß, die Ozeane viel tiefer, die Atmosphäre drückend (‚crushing‘), intensiver Vulkanismus, der Mond näher, die Gezeiten viel höher, die Erdumdrehung viel schneller, und vor allem andauernde Bombardements aus dem Weltall. (152) Eine ausführlichere Schilderung zeigt die vielfältigen Einwirkungen aus dem Weltall auf die Erde. Generell kann hier allerlei (auch organisches) Material auf die Erde gekommen sein. Allerdings sind die Umstände eines Eindringens und Aufprallens normalerweise eher zerstörerischer Natur was biologische Strukturen betrifft. (153-158) Das heftige Bombardement aus dem Weltall mit den verheerenden Folgen macht es schwer, abzuschätzen, wann Leben wirklich begann. Grundsätzlich ist weder auszuschließen, dass Leben mehrfach erfunden wurde noch, dass es Unterstützung aus dem Weltall bekommen haben kann. Andererseits war der ’sicherste‘ Ort irgendwo in einer Tiefe, die von dem Bombardement kaum bis gar nicht beeinträchtigt wurde. (158-161)

  7. Kapitel 7 ‚Superbugs‘ (163-186). Die weltweit auftretende Zerstörung von unterirdischen Kanalleitungen aus Metall (später 1920iger) führte zur Entdeckung eines Mikroorganismus, der ausschließlich in einer säuerlichen Umgebung lebt, Schwefel (’sulfur‘) frißt und eine schweflige Säure erzeugt, die sogar Metall zerstören kann.(163f) Man entdeckte mittlerweile viele verschiedene Mikroorganismusarten, die in Extremsituationen leben: stark salzhaltig, sehr kalt, starke radioaktive Strahlung, hoher Druck, extremes Vakuum, hohe Temperaturen. (164f) Diese Mikroorganismen scheinen darüber hinaus sehr alt zu sein. (165) Am erstaunlichsten von allen sind aber die wärmeliebenden Mikroorganismen (‚thermophiles‘, ‚hyperthermophiles‘), die bislang bis zu Temperaturen von 113C^o gefunden wurden. Von den mittlerweile mehr als Tausend entdeckten Arten sind ein großer Teil Archäen, die als die ältesten bekannten Lebensformen gelten. (166f) Noch mehr, diese thermophilen und hyperthermophylen Mikroorganismen sind – wie Pflanzen allgemein – ‚autotroph‘ in dem Sinne, dass sie kein organisches Material für ihre Versorgung voraussetzen, sondern anorganisches Material. Man nennt die unterseeischen Mikroorganismen abgrenzend von den autotrophen ‚Chemotrophs‘, da sie kein Sonnenlicht (also keine Photosynthese) benutzen, sondern einen eigenen Energiegewinnungsprozess entwickelt haben. (167f) Es dauerte etwa von 1920 bis etwa Mitte der 90iger Jahre des 20.Jahrhunderts bis der Verdacht und einzelne Funde sich zu einem Gesamtbild verdichteten, dass Mikroorganismen überall in der Erdoberfläche bis in Tiefen von mehr als 4000 m vorkommen, mit einer Dichte von bis zu 10 Mio Mikroorganismen pro Gramm, und einer Artenvielfalt von mittlerweile mehreren Tausend. (168-171) Bohrungen in den Meeresgrund erbrachten weitere Evidenz dass auch 750m unter dem Meeresboden überall Mikroorganismen zu finden sind (zwischen 1 Mrd pro cm^3 bis zu 10 Mio). Es spricht nichts dagegen, dass Mikroorganismen bis zu 7km unter dem Meeresboden leben können. (171-173) All diese Erkenntnisse unterstützen die Hypothese, dass die ersten Lebensformen eher unterseeisch und unterirdisch entstanden sind, geschützt vor der Unwirtlichkeit kosmischer Einschläge, ultravioletter Strahlung und Vulkanausbrüchen. Außerdem waren alle notwendigen Elemente wie z.B. Wasserstoff, Methan, Ammoniak, Wasserstoff-Sulfid im Überfluss vorhanden. (173f) Untersuchungen zur Energiebilanz zeigen, dass in der Umgebung von heißen unterirdischen Quellen speziell im Bereich 100-150 C^o sehr günstig ist.(174f) Zusätzlich deuten genetische Untersuchungen zur Abstammung darauf hin, dass gerade die Archäen-Mikroorganismen zu den ältesten bekannten Lebensformen gehören, die sich z.T. nur sehr wenig entwickelt haben. Nach all dem wären es dann diese hyperthermophilen Mikroorganismen , die den Ursprung aller biologischen Lebensformen markieren. Immer mehr Entdeckungen zeigen eine wachsende Vielfalt von Mikroorganismen die ohne Licht, in großer Tiefe, bei hohen Temperaturen anorganische Materialien in Biomasse umformen. (175-183)

  8. Wie Leben wirklich begann lässt sich bislang trotz all dieser Erkenntnisse nicht wirklich klären. Alle bisherigen Fakten sprechen für den Beginn mit den Archäen, die sich horizontal in den Ozeanen und in der Erdkruste in einem Temperaturbereich nicht höher als etwa 120 C^o (oder höher?) ausbreiten konnten. Irgendwann muss es dann einen Entwicklungssprung in die Richtung Photosynthese gegeben haben, der ein Leben an der Oberfläche ermöglichte. (183-186)

  9. Kap.8 ‚Mars: Red and Dead‘ (SS.187-220). Diskussion, ob es Leben auf dem Mars gab bzw. noch gibt. Gehe weiter darauf nicht ein, da es für die Diskussion zur Struktur und Entstehung des Lebens keinen wesentlichen Beitrag liefert.

  10. Kap.9 ‚Panspermia‘ (SS.221-243). Diskussion, inwieweit das Leben irgendwo im Weltall entstanden sein kann und von dort das Leben auf die Erde kam. Aber auch hier gilt, neben der Unwahrscheinlichkeit einer solchen Lösung würde es die Grundsatzfragen nicht lösen. (siehe auch Davies S.243))

  11. Kap.10 ‚A Bio-Friendly Universe‘ (SS.245-273). Angesichts der ungeheuren molekularen Komplexität , deren Zusammenspiel und deren Koevolution steht die Annahme einer rein zufälligen Entwicklung relativ schwach da. Die Annahme, dass die Komplexität durch die impliziten Gesetzmäßigkeiten aller beteiligten Bestandteile ‚unterstützt‘ wird, würde zwar ‚helfen‘, es bleibt aber die Frage, wie. (245-47) Eine andere Erklärungsstrategie‘, nimmt an, dass das Universum ewig ist und dass daher Leben und Intelligenz schon immer da war. Die sich daraus ergebenden Konsequenzen widersprechen den bekannten Fakten und erklären letztlich nichts. Davies plädiert daher für die Option, dass das Leben begonnen hat, möglicherweise an mehreren Orten zugleich. (247-250)
  12. Im Gegensatz zu Monod und den meisten Biologen, die nur reinen Zufall als Entstehungsform annehmen, gibt es mehrere Vertreter, die Elemente jenseits des Zufalls annehmen, die in der Naturgesetzen verankert sind. Diese wirken sich als ‚Präferenzen‘ aus bei der Bildung von komplexeren Strukturen. (250-254) Dem hält Davies aber entgegen, dass die normalen Naturgesetze sehr einfach sind, schematisch, nicht zufällig, wohingegen die Kodierung des Lebens und seiner Strukturen sich gerade von den chemischen Notwendigkeiten befreit haben, sich nicht über ihre materiellen Bestandteile definieren, sondern über eine frei (zufällig) sich konfigurierende Software. Der Rückzug auf die Präferenzen ist dann möglicherweise kein genügender Erklärungsgrund. Davies hält die Annahme eines ‚Kodes im Kode‘ für nicht plausibel. (254-257) Wie aber lässt sich das Problem der biologischen Information lösen? (257f) Grundsätzlich meint Davies, dass vieles dafür spricht, dass man ein ‚Gesetz der Information‘ als genuine Eigenschaft der Materie annehmen muss. (258f) Davies nennt dann verschiedene Theorieansätze zum möglichen Weiterdenken, ohne die gedanklichen Linien voll auszuziehen. Er erinnert nochmals an die Komplexitätstheorie mit ihrem logischen Charakter, erinnert an die Quantenstruktur der Materie, die Dualität von Welle (Information? Software?) und Teilchen (Hardware?) und ‚Quasikristalle‘, die auf den ersten Blick periodisch wirken, aber bei näherer Analyse aperiodisch sind. (259-263)
  13. Eine andere Frage ist die, ob man in der Evolution irgendeine Art von Fortschritt erkennen kann. Das Hauptproblem ist, wie man Fortschritt definieren kann, ohne sich in Vorurteilen zu verfangen. Vielfach wird der Begriff der Komplexität bemüht, um einen Anstieg an Komplexität zu konstatieren. Stephen J.Gould sieht solche Annahmen eines Anstiegs der Komplexität sehr kritisch. Für Christian de Duve hingegen erscheint ein Anstieg von Komplexität klar. (264-270)
  14. In den Schlussbemerkungen stellt Davies nochmals die beiden großen Interpretationsalternativen gegenüber: einmal die Annahme einer Zunahme der Komplexität am Beispiel von Gehirnen und daran sich knüpfenden Eigenschaften aufgrund von impliziten Präferenzen oder demgegenüber die Beschränkung auf reinen Zufall. Im letzteren Fall ist das Auftreten komplexer Lebensformen so hochgradig unwahrscheinlich, dass eine Wiederholung ähnlicher Lebensformen an einem anderen Ort ausgeschlossen erscheint. (270-273)
  15. [Anmerkung: Am Ende der Lektüre des Buches von Davies muss ich sagen, dass Davies hier ein Buch geschrieben hat, das auch ca. 13 Jahre später immer noch eine Aussagekraft hat, die die gewaltig ist. Im Detail der Biochemie und der Diskussion der chemischen Evolution mag sich das eine oder andere mittlerweile weiter entwickelt haben (z.B. ist die Diskussion zum Stammbaum fortgeschritten in einer Weise, dass weder die absolute Datierung noch zweifelsfrei ist noch die genauen Abhängigkeiten aufgrund von Genaustausch zwischen den Arten (vgl. Rauchfuß (326-337)]), doch zeigt Davies Querbeziehungen zwischen vielen Bereichen auf und bringt fundamentale Konzepte zum Einsatz (Information, Selbstorganisation, Autokatalyse, Komplexitätstheorie, Quantentheorie, Thermodynamik, algorithmische Berechenbarkeit ….), die in dieser Dichte und reflektierenden Einbringung sehr selten sind. Sein sehr kritischer Umgang mit allen möglichen Interpretationen ermöglicht Denkansätze, stellt aber auch genügend ‚Warnzeichen‘ auf, um nicht in vorschnelle Interpretationssackgassen zu enden. Eine weitere Diskussion des Phänomen Lebens kann an diesem Buch schwerlich vorbei gehen. Ich habe auch nicht den Eindruck, dass die neueren Ergebnisse die grundsätzlichen Überlegungen von Davies tangieren; mehr noch, ich kann mich des Gefühls nicht erwehren, dass die neuere Diskussion zwar weiter in ‚Details wühlt‘, aber die großen Linien und die grundlegenden theoretischen Modelle nicht wirklich beachten. Dies bedarf weiterer intensiver Lektüre und Diskussion ]
  16. [ Anmerkung: Ich beende hiermit die direkte Darstellung der Position von Davies, allerdings beginnt damit die Reflektion seiner grundlegenden Konzepte erst richtig. Aus meiner Sicht ist es vor allem der Aspekt der ‚logischen Strukturen‘, die sich beim ‚Zusammenwirken‘ einzelner Komponenten in Richtung einer höheren ‚funktionellen Komplexität‘ zeigen, die einer Erklärung bedürfen. Dies ist verknüpft mit dem Phänomen, dass biologische Strukturen solche übergreifenden logischen Strukturen in Form von DNA/ RNA-Molekülen ’speichern‘, deren ‚Inhalt‘ durch Prozesse gesteuert werden, die selbst nicht durch ‚explizite‘ Informationen gesteuert werden, sondern einerseits möglicherweise von ‚impliziten‘ Informationen und jeweiligen ‚Kontexten‘. Dies führt dann zu der Frage, inwieweit Moleküle, Atome, Atombestandteile ‚Informationen‘ ‚implizit‘ kodieren können, die sich in der Interaktion zwischen den Bestandteilen als ‚Präferenzen‘ auswirken. Tatsache ist, dass Atome nicht ’neutral‘ sind, sondern ’spezifisch‘ interagieren, das gleiche gilt für Bestandteile von Atomen bzw. für ‚Teilchen/ Quanten‘. Die bis heute nicht erklärbare, sondern nur konstatierbare Dualität von ‚Welle‘ und ‚Teilchen‘ könnte ein Hinweis darauf sein, dass die Grundstrukturen der Materie noch Eigenschaften enthält, die wir bislang ‚übersehen‘ haben. Es ist das Verdienst von Davies als Physiker, dass er die vielen chemischen, biochemischen und biologischen Details durch diese übergreifenden Kategorien dem Denken in neuer Weise ‚zuführt‘. Die überdimensionierte Spezialisierung des Wissens – in gewisser Weise unausweichlich – ist dennoch zugleich auch die größte Gefahr unseres heutigen Erkenntnisbetriebes. Wir laufen wirklich Gefahr, den berühmten Wald vor lauter Bäumen nicht mehr zu sehen. ]

 

Zitierte Literatur:

 

Mills,D.R.; Peterson, R.L.; Spiegelmann,S.: An Extracellular Darwinian Experiment With A Self-Duplicating Nucleic Acid Molecule, Reprinted from the Proceedings of the National Academy of Sciences, Vol.58, No.1, pp.217-224, July 1997

 

 

Rauchfuß, H.; CHEMISCHE EVOLUTION und der Ursprung des Lebens. Berlin – Heidelberg: Springer, 2005

 

Einen Überblick über alle bisherigen Themen findet sich HIER

 

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

 

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.