BLICK IN DAS INNERE DES UNIVERSUMS – NICK LANE – LIFE ASCENDING – BESPRECHUNG – Teil 2

Nick Lane, „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT

  1. Im vorausgehenden Teil 1 wurde nach einer kurzen Einleitung die Entstehung des Lebens im Lichte neuerer Erkenntnisse skizziert. Wer dadurch neugierig geworden ist, sei ermuntert, den Text von Lane und die angegebenen zusätzlichen Artikel und Bücher selbst zu lesen. In dieser Besprechung können nur die großen Linien angesprochen werden und mögliche Zusammenhänge mit dem Thema dieses Blogs. Interessant vielleicht auch die Nachbemerkungen zur Besprechung in Teil 1.
  2. Nachdem in Teil 1 neuere Forschungsergebnisse andeuten, wie sich das biologische Leben (= das Leben) im Rahmen der allgemeinen physikalischen (und chemischen) Gesetze in Form von grundlegenden hoch stabilen metabolischen Prozessketten formieren konnte, stellt sich die Folgefrage, wie der Weg von diesen komplexen, und doch – verglichen mit den späteren biologischen Strukturen – noch so einfachen Strukturen zu den eigentlichen Selbstreproduktionsmechanismen kommen konnte.

DNA – Der Code des Lebens (SS.34-59)

  1. Lane beginnt mit dem Sachverhalt, dass die Reproduktion einer Zelle letztlich gesteuert wird vom sogenannten Genom, das aus einer endlichen Menge von DNA-Molekülen besteht, wobei jedes DNA-Molekül jeweils in einem Doppelstrang ausgeführt ist. In diesem Doppelstrang bildet jedes Element ein Paar aus zwei Basen.
  2. [Anmerkung: ein DNA-Molekül bildet zusammen mit weiteren Elementen ein Chromatin. Ein Chromosom enthält – je nach Zellphase – entweder genau ein Chromatin oder ein Chromatin und seine Kopie (bei der Zellteilung werden diese beiden auf auf zwei neue Zellen als Schwester-Chromatine aufgeteilt). Die Gesamtheit der Chromosome bildet das Genom.]
  3. [Anmerkung: ein Grundelement (Nukleotid) der DNA besteht aus einem Strukturelement (einem Zucker-Phosphat Molekül), an das sich eine Base anlagern kann. Zwei solche Nukleotide können sich dann über die Basen komplementär zu einem Paar verbinden. (vgl. CELL S.3)]
  4. Es gibt vier Basen Adenin (A), Thymin (T), Guanin (G) und Cytosin (C). Dazu gibt es die starke chemische Tendenz, dass A sich nur an T bindet und C nur an G. Dadurch sind die beiden Stränge komplementär. (vgl. S.34f) Die Anordnung nutzt also eine vorgegebene chemische Bindungstendenz aus.
  5. Die Gesamtzahl der Nukleoide in einem menschlichen Genom wird auf ca. 3 Mrd (10^9) geschätzt. Bei ca. 15 Billionen (10^12) Körperzellen [Anmerkung: neuere Schätzungen gehen auf ca. 34 Billionen) bedeutet dies, dass das Genom 15 Billionen Mal (und öfters, da ja Körperzellen absterben und wieder ersetzt werden müssen) kopiert werden muss. Bei einer geschätzten Fehlerrate von 1 Nukleotid in 1 Mrd bedeutet dies, dass bei einer Kopie ca. 3 Fehler auftreten. Der Unterschied zwischen Menschen wird auf ca. 1 Unterschied pro 1000 Nukleotide geschätzt, also ca. 3 Mio; Lane spricht von 6-10 Mio. (vgl. SS.36-38)
  6. Beispiel: Die Trennung vom Schimpansen soll ca. vor 6 Mio Jahren geschehen sein. Die empirisch ermittelte Abweichungen werden mit 1,4% angegeben, also jede Art hat ca. 0.7% ihres Genoms in dieser Zeit verändert [Anmerkung: Bei einer angenommenen Generationendauer von 30 Jahren ergäben sich ca. 1050 Änderungen an Nukleotiden pro Generation auf jeder Seite].(vgl. S.38)
  7. Das Wissen um die Kombinatorik der Basen auf einem DNA-Molekül nützt allerdings letztlich nur dann etwas, wenn man auch weiß, welche potentiellen Strukturen und ihre lebensweltbezogenen Funktionen damit kodiert werden.(vgl. S.39) In der Zeit vor der Entdeckung von Watson und Crick 1953 waren die Details der biochemischen Maschinerie unbekannt.(vgl. S.40f)
  8. Nur langsam entdeckte man, dass die Proteine außerhalb des Zellkerns über die Zwischenstationen Messenger RNA (mRNA) (erste Kopie von DNA-Abschnitten) und Transfer RNA (tRNA) (Rückübersetzung) und Ribosom (Zusammenbau von Aminosäuren anhand der tRNA-Informationen) erzeugt werden. Und nur langsam entdeckte man, dass jeweils vier Nukleotide aus der DNA ein Codon bilden, das für genau eine Aminosäure steht, deren Aneinanderreihung ein Protein (bei kürzeren Formen spricht man von einem Peptid) ergibt. Während 4^4 = 64 Kombinationen mit einem Codon möglich wären, schätzten Crick und Watson damals die Zahl der relevanten Aminosäuren für biogene Proteine auf 20. [Anmerkung: im menschlichen Körper kommen 21 verschiedene Aminosäuren vor. Insgesamt sind heute 23 Aminosäuren bekannt, die bei Proteinen Verwendung finden (wobei heute mehr als 400 Aminosäuren bekannt sind, die biologisch wichtig sind aber nicht in Proteinen vorkommt).] Es stellte sich heraus, dass der Kode redundant ist: es können mehrere verschiedene Codons die gleiche Aminosäure kodieren. Drei von 64 Codons dienen als STOP-Signal. Da dieser Kode universell für alle Lebensformen gilt wird daraus geschlossen, dass alle diese Lebensformen einen gemeinsamen Vorläufer gehabt haben müssen, von dem diese Kodierung übernommen wurde. (vgl. SS.39-45) Crick entwickelte daraus die These (1981), dass das Leben von außerhalb der Erde kam (Raumschiff, Aliens,…), und sich dann hier ausgebreitet hat.
  9. Die Hypothese von Crick wurde durch den Gang der Forschung überholt. Generell erschien die Hypothese von Crick auch nicht sehr plausibel, da das Auftreten von komplexen Molekülen ohne entsprechende Umgebungen wenig Chancen bietet, dass diese Moleküle überleben.(vgl. S.45f)
  10. Realistischer erschienen solche Hypothesen, die aufzeigen können, wie die Elemente von Aminosäuren aus Vorläufermaterial aus vorgegebenen Umgebungen rekrutiert werden konnten.(vgl. S.46)
  11. Und in der Tat, man entdeckte nach und nach, dass es einen Kode in den Codons gibt! Die Codons mit ihren vier Elementen haben Positionen 1-4. Ein einzelnes Codon steht nicht nur irgendwie für eine bestimmte Aminosäure, sondern die Abfolge der Elemente im Codon steuern sehr stark auch den Prozess der Aminosäurebildung! So fand man heraus, dass es folgenden Zusammenhang gibt: ein C an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein alpha-ketoglutarate benutzt werden soll; ein A an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein oxalocetate benutzt werden soll; ein T steht für pyruvate; ein G steht für eine beliebige Anzahl von einfachen Vorläufern.(vgl.S46f und Fußnote 5)
  12. Die zweite Position im Codon reguliert, wo im Spektrum zwischen hydrophob und hydrophil sich die Aminosäure ansiedeln soll: die fünf häufigsten hydrophoben Elemente korrespondieren mit T an Position 2; die meisten hydrophilen Elemente mit dem Element A; G und C stehen für Elemente in der Mitte des Spektrums.(vgl. S.47)
  13. Position 3 und 4 lassen keine feste Kodierung erkennen. Dies deutet darauf hin, dass die frühen Vorformen des DNA-Kodes möglicherweise nur 2 Elemente hatten, die stark deterministisch waren. Experimente mit Punktmutationen zeigen, dass der genetische Kode verglichen mit zufälligen Anordnungen extrem stabil ist. Er stellt eine interessante Kombination dar aus einem sehr konservativem Anteil (Position 1-2), und einem experimentellen Anteil (Positionen 3-4).(vgl. SS.47-49)
  14. Bleibt als Frage, wie kam der Prozess zustande, in dem DNA eine Proteinproduktion steuert, wo aber DNA spezifische Proteine für ihr Funktionieren voraussetzt und die spezifischen Proteine eben DNA?(vgl.S.49)
  15. Eine Lösung deutet sich an über RNA Moleküle: diese sind flexibler und können als Katalysatoren wirken, die zur Bildung jener ersten Proteine geführt haben, die wiederum Vorformen von DNA-Molekülen ermöglichten.(vgl.49-51)
  16. Allerdings, wo kommen diese RNA-Moleküle her? Man weiß, dass RNA-Moleküle sich nur bei hohen Konzentrationen bilden können, da sie beim Zusammenbau Nukleotide verbrauchen. Wo findet man solche hohen Konzentrationen? Die Entdeckung der unterseeischen Schlote eröffnet ein mögliches Szenario. Modellrechnungen zeigten, dass die Wahrscheinlichkeit sehr hoch ist, dass sich in solchen Schloten (speziell in den Poren des Gesteins) solche hohen Konzentrationen von RNA-Molekülen bilden können. Simuliert man RNA-Moleküle isoliert, dann tendieren sie dazu, sich nur mit einer minimalen Struktur fortzupflanzen, nur genau so viele Elemente, wie zur Reproduktion notwendig sind (die berühmten ‚Spiegelmann Monster‘). Dieses Modell ist offensichtlich nicht dazu geeignet, die Bildung komplexer RNA-Moleküle, dazu noch in Kooperation mit Proteinbildung zu erklären. Eine Lösung muss in einem umfassenderen Rahmen gesucht werden, in dem die RNA-Moleküle nur eine Teilkomponenten sind. Dieser umfassenderer Rahmen wurde wieder in der Struktur der unterseeischen Schlote gesehen. Die Poren bilden natürliche Umgebungen, die wie eine Zelle wirken, in der komplexere metabolische Prozesse ablaufen können, in deren Kontext die RNA-Moleküle nur eine Teilfunktion haben.(vgl. S.53-55)
  17. Zum Thema umfassender Rahmen gehören auch die Entdeckungen, dass aufgrund genetischer Strukturen die Eukaryotischen Zellen (jene mit einem Zellkern) von den Archaeen abstammen, diese wiederum haben sehr viel mit den Bakterien gemeinsam. Letztere beiden unterscheiden sich aber bei der DNA Replikation, was so gedeutet wird, dass beide einen gemeinsamen Vorläufer haben müssen, von dem sie sich unterschiedlich weiter entwickelt haben.(vgl.S.55f)
  18. Die Arbeitshypothesen laufen darauf hinaus, dass die flexibleren RNA-Moleküle zwischen Proteinerzeugung und DNA-Bildung vermittelt haben (nach dem Muster von Retroviren?). Erst in dem Maße, wie sich die stabileren DNA-Moleküle bilden konnten, war auf Dauer eine Reproduktion gesichert. Für die beiden chemischen Unterschiede von RNA- und DNA-Molekülen gibt es genügend chemische Bestandteile in der unterseeischen Schlotumgebung, so dass eine DNA-Erzeugung aus RNA-Molekülen prinzipiell möglich erscheint.(vgl. SS.55-59)

DISKURS

  1. Die Details der neuen Erkenntnisse können einen erschlagen, und doch ist dies ja nur die berühmte Spitze des Eisbergs. Hinter diesen Fakten verbergen sich hochkomplexe Prozesse und entsprechend aufwendige Forschungen, die hier natürlich nicht beschrieben werden können. Nick Lane macht das großartig.
  2. Aber, treten wir ein paar Schritte zurück und fragen uns, was sich in diesen vielen Fakten an allgemeineren Strukturen andeutet.
  3. Offensichtlich nimmt man aktuell an, dass man mindestens die folgenden Strukturen unterscheiden sollte:
  4. Die heutigen eukaryotischen Zellen (Z_eu) (Zellen mit einem komplexen Kern und vielen Teilstrukturen inklusive ganzer ehemaliger Bakterien).
  5. Die heutigen Prokarytischen Zellen (Z_pro) als Bakterien (Z_ba) und die Archaeen (Z_ar)
  6. Eine Erzeugungsbeziehung zwischen Archaeen und Eukaryoten (g_ar.eu : Z_ar —> Z_eu)
  7. Bei dieser Erzeugungsbeziehung sind weitere Einflussfaktoren durch horizontalen Genaustausch nicht völlig ausgeschlossen.
  8. Es soll einen gemeinsamen Vorläufer (Z_pre) von Archaeen und Bakterien geben.
  9. Entsprechend muss es auch eine Erzeugungsbeziehung geben: g_pre.ar.ba: Z_pre —> Z_ba u Z_ar.
  10. Diese Strukturen und Erzeugungsbeziehungen haben nicht im Nichts stattgefunden, sondern haben geeignete Umgebungen ENV benötigt, die sowohl in großen Mengen und kontinuierlich die notwendigen Ausgangsmaterialien M0 bereit halten konnten wie auch die notwendigen Temperaturgefälle DT für die Ermöglichung der chemischen Prozesse: ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu>
  11. Ferner wird angenommen, dass die allgemeinen physikalisch-chemischen Gesetze (G) gelten und ausschließlich diese für das Auftreten und das Reagieren der verschiedenen beteiligten Materialien zuständig sind, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu, G>
  12. Dazu gehören auch jene Entstehungsprozesse, die aus den Ausgangsmaterialien M0 die Vorläuferzelle Z_pre hat entstehen lassen, also g_0: ENV x TD x M0 —> Z_pre, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_0, g_pre.ar.ba, g_ar.eu, G>
  13. Für den Bereich der eukaryotischen Zellen Z_eu werden mindestens angenommen DNA-Moleküle, Boten-RNA (mRNA), Transfer RNA (tRNA), ribosomale RNA (ribRNA) und Proteine PROT. Dazu weitere Großstrukturen wie Chromatin(e), Chromosomen, Mitochondrien, usw.
  14. Im Bereich der Erzeugungsprozesse muss man ferner eine Art zeitliche und logische Abhängigkeit annehmen, indem der jeweils spätere Hervorbringungsprozess andere frühere voraussetzt, also: G < g_0 < g_pre.ar.ba < g_ar.eu.
  15. Jeder dieser Hervorbringungsprozesse wiederum zeigt sich nicht im Nichts sondern nur beim Vorhandensein spezifischer Materialien M, die in ihrem beobachtbaren Verhalten phi indirekt das Wirken spezifischer Gesetze manifestieren. Ohne die Beobachtbarkeit spezifischer Materialien und deren Verhalten (Newtons berühmter Apfel, die Planetenbahnen der alten Astronomen, magnetische Kräfte, Vulkanausbrüche, geologische Ablagerungen usw.) wäre es nicht möglich, auf dahinter/ darunter/ damit .. wirkende Kräfte phi zu schließen, die man dann in Form von symbolischen Darstellungen als gesetzmäßige Beziehungen (Relationen, Funktionen, Axiome) beschreibt.
  16. Während das menschliche Denken beim Vorliegen von irgendwelchen beobachtbaren Materialien, deren Eigenschaften und Veränderungen spontan dazu neigt, diese als gegeben, als auftretend, als seiend, als objektiv, als Objekte zu unterstellen, tut sich das gleiche Denken sehr schwer, das durch diese Materialien sichtbare werdende Verhalten phi in gleicher Weise als gegeben, seiend, objektiv vorkommend zu denken.
  17. Obgleich die beobachtbaren Materialien ohne dieses unterstellte Verhalten sich in keiner Weise verändern würden, zögern wir, aus den beobachtbaren Veränderungen auf eine interne Eigenschaft der Materialien zu schließen. Im Falle von tierischen Lebewesen wissen wir mittlerweile, dass das gesamte Verhalten in einem Nervensystem gründet, das im Innern des Systems angeordnet ist und von da aus das Verhalten steuert. Aber wir tun  uns schwer, in analoger Weise anzunehmen, dass das überall beobachtbare Verhalten von Materialien nicht auch von Strukturen abhängig ist, die im Innern der Materialien zu verorten sind.
  18. Bei chemischen Molekülen unterstellt man die atomare Struktur mit den unterschiedlichen Bestandteilen, Ladungen und Reaktionstendenzen, die in Wechselwirkung mit der jeweiligen Umgebung sich spezifisch verändern können.
  19. Bei Atomen bleiben einem nur noch die unterscheidbaren Teilchen, aber auch diese haben mathematisch beschreibbare ( wenngleich in Form von Möglichkeitsräumen) Verhaltenstendenzen.
  20. Dann bleibt als letzter Referenzpunkt nur die reine Energie E. Diese kann man nicht direkt beobachten, nur in ihren Wirkungen. Mit anderen Worten, die Energie E enthält sowohl alle potentiellen Materialeigenschaften wie auch die dazu gehörigen Verhaltenstendenzen. In diesem Sinne repräsentiert die Energie E eine Art Superobjekt, in dem die in der Makrowelt bekannte Unterscheidung zwischen materiellen Strukturen und Verhalten nicht mehr gilt. Energie als Superobjekt beinhaltet Materie und deren Verhalten in einem. Um diesen Sachverhalt auszudrücken, ist die bekannte Formel von Einstein e = mc^2 möglicherweise zu ungenau. Sie bietet keine Möglichkeit, zwischen materiellen Strukturen und Verhalten zu unterscheiden. Das beobachtbare Verhalten ist aber genau die Sprache, in der sich das Innere der Dinge mitteilt. Alles,was uns Menschen fasziniert, das sind die Erscheinungen der Veränderungen, ihre Vielfalt, ihre Abfolge. Liebe enthüllt sich nur im Gewandte solcher Veränderungen, genauso wie Hass oder Treue. Wissen ist eingeflochten in eine Vielzahl von Strukturen und deren Veränderungen.
  21. Sowohl die Entwicklung des Universums vor dem ersten Auftreten von Leben wie erst recht dann mit dem Auftreten biologischer Strukturen ist ein Prozess immer komplexerer Verhaltensweisen, die in ihrer Dynamik Gesetze, Regeln, Strukturen erkennen lassen, die den Blick immer tiefer in das Innere aller Dinge öffnen. Das ist eigentlich unfassbar fantastisch, aber es scheint niemand besonders zu rühren.

Keine direkte, aber inhaltlich passende Fortsetzung könnte DIESE sein.

WEITERE QUELLEN/ LINKS (Selektiv)

  • Freie Protein-Datenbank: http://www.ebi.ac.uk/pdbe/ (siehe auch http://proteopedia.org/wiki/index.php/Main_Page )
  • Visualisierung von Proteindaten: https://de.wikipedia.org/wiki/Jmol und http://wiki.jmol.org/index.php/Jmol_Application#Starting_Jmol_Application
  • Proteine (Peptide): https://de.wikipedia.org/wiki/Protein
  • Aminosäuren: https://de.wikipedia.org/wiki/Aminos%C3%A4uren
  • Alpha-Ketoglutarate: https://en.wikipedia.org/wiki/Alpha-Ketoglutaric_acid
  • oxalocetate: https://en.wikipedia.org/wiki/Oxaloacetic_acid
  • Pyruvate: https://en.wikipedia.org/wiki/Pyruvic_acid
  • Punktmutation: https://de.wikipedia.org/wiki/Punktmutation
  • Spiegelmann Monster: https://de.wikipedia.org/wiki/Spiegelmans_Monster
  • Bakterien: https://de.wikipedia.org/wiki/Bakterien
  • Achaeen: https://de.wikipedia.org/wiki/Archaeen
  • Eukaryoten: https://de.wikipedia.org/wiki/Eukaryoten
  • Retroviren: https://de.wikipedia.org/wiki/Retroviren
  • Chromosom: https://de.wikipedia.org/wiki/Chromosom
  • Chromatin: https://de.wikipedia.org/wiki/Chromatin
  • CELL: B.Alberts, A.Johnson, J.Lewis (und andere), Molecular Biology of THE CELL, 6.Aufl., 2015, New York: Garland Science, Taylor and Francis Group, LLC.
  • V.Storch, U.Welsch, M.Wink (und andere), Evolutionsbiologie,3.überarbeitete und aktualisiere Aufl., 2013, Berlin – Heidelberg: Springer-Verlag
  • Francis Harry Compton Crick, Nobelpreisrede: http://www.nobelprize.org/nobel_prizes/medicine/laureates/1962/crick-lecture.html
  • Francis Harry Compton Crick Life Itself: Its Origin and Nature (Simon & Schuster, 1981) ISBN 0-671-25562-2
  • DNA WikiEN: https://en.wikipedia.org/wiki/DNA
  • RNA: https://de.wikipedia.org/wiki/Ribonukleins%C3%A4ure
  • Harold Morowitz: https://en.wikipedia.org/wiki/Harold_J._Morowitz (ein großes Thema: Wechselwirkung von Thermodynamik und Leben)
  • Michael J.Russel et al: http://www.gla.ac.uk/projects/originoflife/html/2001/pdf_articles.htm: The Origin of Life research project by Michael J. Russell & Allan J. Hall , University of Glasgow, May 2011
  • Krebs-Zyklus: https://en.wikipedia.org/wiki/Citric_acid_cycle
  • Martin W, Russell MJ., On the origin of biochemistry at an alkaline hydrothermal vent. , Philos Trans R Soc Lond B Biol Sci. 2007 Oct 29; 362(1486):1887-925.
  • Martin W, Baross J, Kelley D, Russell MJ., Hydrothermal vents and the origin of life., Nat Rev Microbiol. 2008 Nov; 6(11):805-14.
  • Harold Morowitz und Eric Smith , Energy flow and the organization of life , Journal Complexity archive, Vol. 13, Issue 1, September 2007, SS. 51 – 59 ,John Wiley & Sons, Inc. New York, NY, USA

Einen Überblick über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 3

Vorausgehender Teil 2

Letzte Änderung (mit Erweiterung): 24.März 2013

ZUSAMMENFASSUNG TEIL 1-2:

(1) Nach einer Charakterisierung des ‚Reduktionismus‘ am Beispiel der modernen Physik führte Kauffman verschiedene Argumente gegen diesen Reduktionismus an. Daraus und aus weiteren Argumenten formte er dann Argumente für die Nichtreduzierbarkeit des Biologischen auf das Physikalische. Diese führten dann zurück zum Ursprung des Lebens, zur unglaublichen Komplexität dieses Anfang und zugleich der anhaltenden Schwierigkeit, diesen Anfang plausibel erklären zu können. Kauffman präsentiert dabei auch ein eigenes Modell, das Modell der autokatalytischen Mengen, das — zumindest mathematisch – viele der wichtigen Fragen zu erklären scheint. Die dann folgenden Gedanken sind sehr ‚dicht‘ und kombinieren mehrere komplexe Konzepte: z.B. Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Handeln‘, ‚Handelnder‘, ‚Zeichen‘ als wichtige Eigenschaften des Biologischen. Dazu die Frage nach möglichen Vorläufern, nach ‚allerersten Handelnden‘, sozusagen ‚Protoagenten‘. Zusätzlich wird angenommen, dass sich auf das Verhalten eines biologischen Systems der Begriff ‚zielgerichtet‘ anwenden lässt, der weitere Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Absicht‘ und ‚Handelnder‘ impliziert. Schon auf der Ebene einer einzelnen Zelle sieht Kauffman alle wichtigen Eigenschaften als gegeben an: Zellen können ‚entdecken‘ (‚detect‘), sie haben eine ‚Wahl‘ (‚choice‘), und sie können ‚handeln‘ (‚act‘). Zusätzlich können sie sich ‚reproduzieren‘ und können mindestens einen ‚Arbeitszyklus‘ (‚work cycle‘ (im Sinne einer Carnot-Maschine) ausführen. Zusätzlich aber, und dies hebt Kauffman hervor, benötigen diese Systeme die Fähigkeit, diese Zufuhr von freier Energie zu organisieren. Dazu gehört die Fähigkeit der ‚Speicherung‘ von Energie und der Selbstreproduktion. Kauffman schlägt vor, diese ‚Zielgerichtetheit‘, die ein außenstehender Betrachter in solch einem evolutionären Prozess ‚erkennen‘ kann, als eine spezifische Eigenschaft solcher Systeme zu sehen, die er ‚Handlungsfähigkeit‘ (‚agency‘) nennt. Am Beispiel eines einfachen Bakteriums verdeutlicht Kauffman diese Begriffe weiter und führt an dieser Stelle fundamentale Begriffe kognitiver Prozesse ein wie ‚Semiose‘, ‚Zeichen‘, ‚Bedeutung‘, Absicht‘ usw. In diesem Zusammenhang erwähnt Kauffman nochmals David Hume (1711 – 1776), der die philosophische These aufgestellt hatte, dass man aus einem einfache ‚Sein‘, aus bloßen ‚Fakten‘, kein ‚Sollen‘ ableiten kann. Die zuvor von Kauffman vorgelegte Interpretation eines Proto-Handelnden würde dies einerseits bestätigen (der Gradient als solcher impliziert nichts), aber andererseits würde deutlich, dass ein Faktum (der Gradient) innerhalb der Beziehung zu einem System, das diesen Gradienten als ‚Zeichen‘ für etwas ‚interpretieren‘ kann, das für das System einen ‚Wert‘ darstellt, in den ‚Kontext eines Sollens‘ geraten kann, das vom interpretierenden System ausgeht. Während Arbeit für einen Physiker nach Kauffman beschrieben werden kann als eine ‚Kraft die über eine Distanz wirken kann‘, reicht dies nach Peter Atkins (Chemiker) nicht aus: Arbeit nimmt auch Bezug auf ‚Einschränkungen‘ (‚constraints‘), durch die die Freiheitsgrade verringert werden und diese Einschränkungen wiederum erlauben neue Arbeit. Er nennt dies das ‚Vorantreiben der Organisation von Prozessen‘ (‚propagating the organization of processes‘). Er erwähnt in diesem Zusammenhang den Unterschied zwischen ‚Wärme‘ (‚heat‘) und ‚Arbeit (‚work‘). Die maximale Verschiedenheit von Bewegungen in einem Gas liegt vor, wenn die Moleküle eine maximale Bewegungsfreiheit haben, also ein Minimum an Einschränkungen. Dieser Zustand erzeugt ‚Wärme‘ aber leistet keine ‚Arbeit‘. Um ‚Arbeit‘ zu verrichten muss man die Freiheitsgrade ‚einschränken‘. Kauffman kritisiert ferner das sehr verbreitete Konzept der ‚Information‘ nach Shannon bzw. das algorithmische Informationskonzept von Kolmogorov und meint, dass dieser Informationsbegriff zu kurz greift. Beiden Konzepten ist gemeinsam, dass sie letztlich nur nach der Menge der Informationen fragen, die übermittelt wird, aber vollständig offen lassen, ‚was‘ Information denn letztlich ist.
(2) [ANMERKUNG: Schon die bisherigen Ausführungen zeigen, dass Kauffmans Reflexionen sich komplexer Begriffe (‚Handelnder‘, ‚Semiose‘,…) bedienen, die er von ‚außen‘ an das ‚Phänomen‘ heranträgt. Die Phänomene selbst ‚zwingen‘ diese Begriffe ’nicht‘ auf; als reflektierender Beobachter kann man aber bei Kenntnis solcher Konzepte ‚Ansatzpunkte im Phänomen‘ sehen, die die Anwendung solcher Begriffe ’nahelegen‘. Folgt man seinen Deutungsvorschlägen, dann kann man in der Tat zwischen den Phänomenen und den vorgeschlagenen Begriffen eine Reihe von Zusammenhängen ‚erkennen‘, die die ‚reinen Fakten‘ in ‚komplexe Phänomene‘ ‚verwandeln‘, die sich einer aktuell möglichen physikalischen Interpretation entziehen.]
(3) Auf den SS.101-119 untersucht Kauffman unter der Überschrift ‚Order for Free‘ verschiedene mathematische Modelle, die emergente Phänomene simulieren. Auf die technischen Details gehe ich hier nicht weiter ein. [Anmk: Ich werde diese Modelle ab SS2013 im Rahmen meiner Vorlesungen testen und dann gelegentlich nochmal darüber berichten. Für die zentralen Aussagen der folgenden Kapitel spielen die Details keine Rolle.]

NICHTERGODISCHES UNIVERSUM

(4) Auf den SS 120-128 untersucht Kauffman das ‚Nichtergodische Universum‘ (Nonergodic Universe‘). Mit ‚Ergodizität‘ (‚Ergodicity‘) ist eine gewisse ‚Gleichheit‘ gemeint, die sich in der Gesamtheit der Ereignisse feststellen lässt, die unter Voraussetzung einer ‚Endlichkeit‘ eine ‚Wiederholbarkeit‘ impliziert. ‚Nichtergodizität‘ meint dann, dass nicht alle Ereignisse gleich häufig sind; damit wird das, was tatsächlich vorkommt, ‚besonders‘. Und Kauffman geht davon aus, dass die Entwicklung des Universums in allen bekannten Phasen in diesem Sinne besonders, ‚einzigartig‘ (‚unique‘) ist und sich hierin ’nicht wiederholt‘. (vgl. S.120f)
(5) Mittels einer Modellrechnung versucht er dies zu verdeutlichen: er nimmt das Beispiel von Proteinen mit jeweils L=200 Aminosäurebausteinen (tatsächliche Proteine können erheblich länger sein). Nimmt man an, dass 20 verschiedene Aminosäurebausteine verfügbar sind, dann ergibt sich die Menge aller möglichen Kombinationen als 20^200, dies entspricht 1.6 * 10^260. Als Alter des Universums nimmt er 10^17 s an. Ferner nimmt Kauffman beispielhaft an, dass für die Bildung eines Moleküls 10^-15 s benötigt würden. Er errechnet dann die Zahl von 10^67 Wiederholungen der gesamten Geschichte des Universums, um alle möglichen Poteine zu bilden [Anmk1: ich hatte 1.6*10^213 errechnet]. [Anmk2: Die Annahme von Kauffman setzt voraus, dass die Proteine nacheinander gebildet werden. Würde man annehmen, dass der Bildungsprozess parallel stattfinden würde, könnten natürlich zur gleichen Zeit viel mehr Proteine gebildet werden. Nimmt man – sehr idealisierend – an, dass sich innerhalb von 10^-15 s 10^80 Proteine bilden würden, dann wären dies innerhalb eines Durchlaufs des Universums vom BigBang bis heute 10^112 verschiedene Proteine. Das entspräche einem verschwindend kleinen Prozentsatz von 9.95*10^-111 % aller möglichen Proteine (der Länge 20). Das würde bedeuten, dass die Geschichte des gesamten Universums auch in diesem extrem unwahrscheinlichen Fall paralleler Erzeugung noch 1.6*10^148 mal wiederholt werden müsste, um alle möglichen Proteine der bescheidenen Länge L=200 zu bilden. Die Annahme eines ergodischen Universums für den Bereich der biogenen Moleküle erscheint also als stark unzutreffend.]
(6) Und Kauffman merkt an, dass dieser nicht-ergodische Charakter sich auf alle komplexen Phänomene oberhalb der Atome erstreckt.(vl. S.123). [Anmk: In Abwandlung der Kauffmanschen Überlegungen zu den autokatalytischen Prozessen könnte man auch folgende Überlegung formulieren: bei allen Prozessen, in denen sich komplexe Strukturen aus einfacheren Strukturen bilden, beobachten wir, dass in einem bestimmten Raumgebiet R_i sich eine spezifische Anfangsmenge S_j von Strukturen gebildet hat, deren Nachfolgezustand nf(S_j)=S_(j+1) sich durch Stattfinden bestimmter endlicher Veränderungen ’nf‘ (Operationen) bilden. D.h. die Menge der möglichen nachfolgenden Strukturen ist nachhaltig bestimmt durch die vorausgehende Stufe. Dadurch wird die Menge der ‚formal möglichen‘ Strukturen eingeschränkt auf die Menge der ‚historisch möglichen‘ Strukturen. Dies kann ’negativ‘ wirken im Sinne einer unnötigen Beschränkung. Man kann diesen Prozess aber auch so verstehen, dass die zu einem bestimmten Zeitpunkt ‚erreichten‘ Strukturen eine Art ‚Strukturgedächtnis‘ bilden von dem, was möglich ist. Die nachfolgenden Zeitpunkte müssen also nicht bei ‚Punkt Null‘ anfangen sondern können die ‚bisherigen Erfahrungen‘ nutzen. Das wiederum wäre im Sinn einer ‚Wissensbildung‘ ein ‚positiver‘ Fortschritt und wäre genau jene Form von ‚Beschleunigung‘, die die realen evolutionären Prozesse von den formalen Modellen reiner Zufälle unterscheidet. Da sich ferner nur solche Strukturen auf Dauer behaupten können, die sich im Kontext ‚bewähren‘, weil sie den ‚Gegebenheiten entsprechen‘, bilden solche ‚memorierten Strukturen‘ nicht nur eine ’neutrale, zufallsgesteuerte‘ Selektion, sondern eine ‚ko-evolutive‘ Entwicklung im Sinne eines strukturellen ‚Echos‘ auf das, was durch die Vorgabe der jeweiligen Umgebung ‚erwartet‘ wird.] Und nach weiteren spekulativen Modellexperimenten (vgl. S.123ff) folgert er dann, dass durch das Aufkommen von nichtergodischen = historischen Prozessen die Gewinnung von zureichenden Wahrscheinlichkeiten im realen Universum prinzipiell nicht möglich ist (höchstens unter sehr speziellen Randbedingungen). Damit gewinnt das Universum einen sowohl nicht-zufälligen Charakter und besitzt doch – quasi paradox — zugleich eine Nichtvoraussagbarkeit.(vgl.S.127f)

ADAPTION, PRÄADAPTION, KO-EVOLUTION

(7) Im folgenden Kapitel ‚Breaking The Galilean Spell‘ (etwa: Das Brechen von Galileis Zauber)(SS.129-149) versucht Kauffman nicht nur das, was er den ‚Zauber Galileis‘ nennt, ‚auszutreiben‘ (vgl.S.131), sondern auch – positiv – die Grundlage zu legen für seine ‚Wiederentdeckung des Heiligen‘.(vgl. S.130) Zur Erinnerung: Der ‚Zauber Galileis‘ besteht für Kauffman darin, dass die neue Form der wissenschaftlichen Beschreibbarkeit der Natur, die – natürlich nicht nur – mit Galilei begann und dann in den empirischen Wissenschaften (mit Newton, Schroedinger, mit Einstein usw.) eine ungeheuerliche Erfolgsgeschichte geschrieben hat, den Eindruck entstehen lies, als ob man das Verhalten der Natur mit einigen wenigen Gesetzen mathematisch vollständig beschreiben kann. Zeigten schon die Ausführungen in den vorausgehenden Kapiteln zur ‚Nichtergodizität‘ des Universums, dass diese Beschreibbarkeit nicht vollständig sein kann, so bringt jetzt Kauffmann nochmals speziell die biologische Evolution ins Spiel. Seine Hauptthese lautet: Das Biologische ist radikal nichtvorhersagbar und endlos kreativ. (vgl.S.130).
(8) Die zentralen Begriffe hier sind ‚Adaptation‘ und dann ‚Präadaptation‘. Mit ‚Adaptation‘ ist generell der Prozess gemeint, dass bestimmte genetisch kodierte Eigenschaften sich im Laufe der Interaktion mit den jeweiligen Umgebungen nicht nur generell ‚verändern‘ können, sondern dass es bestimmte Eigenschaften sind, die sich im Laufe der Zeit auf diese Weise ‚passend‘ zu einer bestimmten Umgebung ‚herausbilden‘. Diese biologische Eigenschaften (Kauffman macht dies am Beispiel der Entwicklung des Organs Herz fest) sind nach Kauffman weder erkenntnismäßig noch ontologisch mit den bekannten physikalischen Gesetzen voraussagbar. (vgl. S.131) Der Grund hierfür ist der Mangel an wiederkehrenden Eigenschaften. Weder sind jene Konstellationen voraussagbar, die zur Herausbildung des Herzens geführt haben, noch konnte man die dann tatsächliche Herausbildung des Herzens voraussagen, da die jeweiligen genetischen Kombinationen (nach Kauffman) prinzipiell nicht voraussagbar sind. ‚Prädaptation‘ ist eine Art Verfeinerung des Begriffs ‚Adaptation‘ dahingehend, dass es innerhalb einer genetischen Information Teilinformationen geben kann, die über lange Zeit hin keine besondere ‚Bedeutung‘ besaßen, bis irgendwann eine Konstellation Auftritt in der es plötzlich eine interessante ‚Verwendung‘ gibt. (vgl. S.131f) Berücksichtigt man den zusätzlichen Umstand, dass Adaptationsprozesse zeitgleich mit unzählig vielen anderen Adaptationsprozessen verlaufen, dann bilden solche Phänomene des sich ‚wechselseitig die Bälle Zuspielens‘ die Grundlage für das, was wir ‚Koevolution‘ nennen. Ein Adaptationsprozess alleine könnte noch so viele ‚Ansatzpunkte‘ (präadaptive Voraussetzungen) bieten; eine bestimmte Entwicklung würde nur stattfinden, wenn entsprechend parallel andere Entwicklungen zeitgleich auch verfügbar wären. Die in der Wechselwirkung sich dann zeigenden neuen Eigenschaften sagen etwas aus, über die beteiligten Prozesse, sind aber natürlich nicht voraussagbar im Sinne der klassischen Physik. Für eine Voraussagbarkeit würde man ein umfassendes Wissen aller möglichen künftigen Umgebungen benötigen samt der zugehörigen beteiligten adaptiven Prozesse. Nach Kauffman hat dieses Wissen niemand, es nicht verfügbar, also kann man auch nichts voraussagen. (vgl. S.132f).
(9) [Anmk: An dieser Stelle ist Vorsicht geboten. Zwar liegt hier sicher keine Voraussagbarkeit im Sinne der klassischen Physik vor, aber die klassische Physik wurde ja schon längst um die Quantenphysik erweitert. In der Quantenphysik weiß man deutlich weniger als im Falle von biologischen adaptiven Prozessen, und dennoch kann man quantenphysikalisch vieles ‚erklären‘. Ich halte es für möglich und wahrscheinlich, zu einer Theoriebildung im Zwischenbereich von Quantenphysik und klassischer Physik zu kommen, die mit beiden Bereichen ‚kompatibel‘ ist und die in der Tat die klassisch nicht voraussagbaren biologischen adaptiven Phänomene ‚erklären‘ und in gewisser Weise auch ‚voraussagen‘ kann. Dazu müsste man nur den Theoriebegriff entsprechend anpassen, was bislang – so scheint es – einfach noch niemand getan hat. Warum eigentlich nicht?]

KREATIVITÄT

(10) Durch diese wechselseitigen Abhängigkeiten der biologischen adaptiven Entwicklungen voneinander sind sie nicht nur schwer (bis garnicht) voraussagbar, sondern sie sind auch fragil, anfällig für ein kommendes Scheitern, wenn bestimmte Randbedingungen wieder wegfallen, die sie voraussetzen. (vgl. S.133) Identifiziert man diese ‚partiell gesetzlose‘ Situation mit ‚Kreativität‘ in dem Sinne, dass in einer ‚offenen‘ Situation beständig ’neue‘ Strukturen generiert werden, dann ist diese ‚endlose (‚ceaseless‘) Kreativität eine Form, die man mit dem Begriff ‚Gott‘ in Verbindung bringen kann, sozusagen eine natürliche Form von ‚Heiligkeit‘ (’sacred‘). (vgl.S.135) [Anmk: das englische Wort ’sacred‘, das Kauffman benutzt, ist eigentlich ein Adjektiv und kommt alleine als Substantiv eigentlich nicht vor. Er benutzt es aber so, wie wir im Deutschen das Wort ‚das Heilige‘ benutzen.]
(11) Auf die Frage, ob man die Gesetzeslosigkeit der biologischen adaptiven Prozesse ‚beweisen‘ könne, mein Kauffman mit Hinweis auf Goedels Unvollständigkeitsbeweis, dass die Voraussetzung für solch einen Beweis nicht gegeben seien, da mit der beständigen Erzeugung neuer nicht voraussagbarer Fakten kein vollständiges abgeschlossenes System vorliege, das einen solchen Beweis erlaube. (vgl.S.135)[Anmk: Das scheint mir zu wenig. Es geht ja hier nicht um die Fakten im einzelnen, sondern um die strukturellen Rahmenbedingungen, unter denen bestimmte Fakten auftreten bzw. nicht auftreten. Ich sehe zwar momentan auch niemanden, der einen solchen Beweis dafür oder dagegen bislang geführt hat, aber ich würde momentan nicht ausschließen wollen, dass wir zumindest mehr sagen können, als es Kauffman hier tut. Immerhin legt er hier den Finger auf die ‚Wunde’… ]

Teil 4

Einen Überblick über alle vorausgehenden Einträge in den Blog nach Themen findet sich HIER

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 1

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 14.Okt.2012, 11:10h

Letzte Änderung: 20.Okt.2012, 11:30h

  1. Ich bin auf das Buch von Christian de Duve aufmerksam geworden durch das Buch von Paul Davies.
  2. Christian de Duve bekam 1974 zusammen mit Albert Claude und George Palade den Nobelpreis in Physiologie in seiner Eigenschaft als Zytologe und Biochemiker für die Erkenntnisse zur Struktur und Funktion der Zelle (eine Biographie findet sich auf der Seite der Nobelpreisverleihung.
  3. Man muss sich immer wieder fragen, warum man sich die Zeit nimmt, Bücher zu lesen, deren Inhalt zwangsläufig weniger ‚aktuell‘ ist als die entsprechenden Artikel in den einschlägigen wissenschaftlichen Zeitschriften (‚journals‘). Meine Erfahrung ist aber die, dass die Zeitschriftenartikel immer sehr punktuell sind, wenig Kontext sichtbar machen, und daher das Verständnis eines größeren Zusammenhangs nur bei Lektüre von vielen hundert Artikeln möglich ist (abgesehen davon, dass der heutige Zwang zur Spezialisierung und der übermäßige Druck zum Publizieren wenig geeignet ist, Qualität zu unterstützen. Dazu kommen immer mehr ‚Zitierkartelle‘, durch die bestimmte Arbeitsgruppen versuchen, sich im ‚Haifischbecken‘ der internationalen Anerkennung ‚Gehör‘ zu verschaffen. Weiterhin gibt es den rein statistischen Impactfacor im Verein mit ‚wissenschaftspolitisch orientierten‘ Redaktionen). Die Bücher von Wissenschaftlern mit Rang (wie Davies, Duve, Heisenberg, Schrödinger usw.) enthalten in der Regel einen ‚Metatext‘, implizite ‚Kontexte‘, die die vielen Details in einen Zusammenhang stellen, der es allererst erlaubt, die vielen Details zu gewichten. Sie ersetzen die Lektüre aktueller Artikel nicht, aber sie bilden nach meinem Verständnis einen notwendigen Interpretationskontext, ohne den alles eher ‚unkoordiniert‘, ‚wirr‘ erscheint.
  4. Wie so viele andere beginnt Duve sein Buch in der Vorrede mit der bezeichnenden Feststellung, dass er über das Thema nur schreiben kann, indem er seine Fachgrenzen übersteigt. Niemand habe heute mehr das umfassende Wissen das notwendig sei. Dennoch können wir über unsere Stellung im Kosmos nur Klarheit gewinnen, wenn wir den Gesamtzusammenhang in den Blick nehmen. Und das Leben – einschließlich unserer selbst –, das wir verstehen wollen, gehört zum Komplexesten, was das Universum bisher hervorgebracht hat (vgl. S.xiii).
  5. Er beklagt, dass der normale Wissenschaftsbetrieb für solche umfassenden Betrachtungen nicht ausgelegt ist. Das Alltagsgeschäft und die zunehmende Spezialisierung liegen konträr zur Forderung einer integrativen Gesamtsicht (vgl. S.xiii.f).
  6. Am Ende seines Buches ‚Blueprint for a Cell‘ (1991) war er schon zu der Einsicht gekommen, dass das Leben sich ‚obligatorisch‘ aus den Eigenschaften der Materie ergeben haben muss, eine Einsicht, die weitere Fragen mit sich bringt. (vgl. S.xiv)
  7. In all seinen Untersuchungen geht er davon aus, dass die Phänomene des Lebens sich als ‚rein natürlicher Prozess‘ erklären lassen, durch Bezug auf jene empirischen Gesetze, die auch in den anderen naturwissenschaftlichen Gebieten gelten.(vgl. S.xiv)
  8. Ausgestattet mit diesen Prämissen meint Duve in dem Prozess des Kosmos eine Zunahme von ‚Komplexität‘ zu erkennen, die er in sieben Stufen anordnet: Beginnend mit deterministischen chemischen Prozessen (vor ca. 4 Mrd. Jahren), sieht er in den Wechselwirkungen der chemischen Bestandteil ‚Informationen‚ am Werke, die steuernd wirken; es bilden sich komplexe Protozellen als Vorläufer von Zellen; dann Einzelzellen, die sich unterschiedliche Protozellen als Bestandteile einverleiben. In diesen Zusammenhang gehört auch die ‚Erfindung‘ der Photosynthese, die es erlaubt, Sauerstoff abzuspalten und damit zur Bildung einer Sauerstoffatmosphäre führte. Multizelluläre Organismen besiedeln das Land; erst Pflanzen, dann auch Tiere. Die Fortpflanzungstechniken (Sexualität) passen sich den neuen Verhältnissen an. Bei den Pflanzen von Sporen zu Samen zu Blüten zu Früchten. Bei den Tieren von einer Entwicklung im Wasser zu Kopulation, zu Eiern im Wasser, dann auf dem Land, dann im Bauch. Schließlich bilden sich immer komplexere Netzwerke von neuronalen Zellen, die als Gehirn (‚brain‘), die Grundlage für ein neues Phänomen, den Geist (‚mind‘) bilden. Dies führt zu einer extremen Beschleunigung bei der Entwicklung des Menschen. (vgl. S.xvi-xvii)
  9. Für Duve ist es wichtig, festzustellen, dass das Phänomen des Geistes eine natürliche Manifestation der Materie ist, kein ‚Witz‘ (‚joke‘).(vgl.S.xviii)
  10. [ANMERKUNG: Es ist nicht üblich, in einem Vorwort mehodologische Aspekte zu diskutieren. Da wir hier die Thematik aber aus philosophischer Sicht behandeln, soll hier angemerkt werden, dass die primäre Untersuchungsperspektive die der Naturwissenschaften sein soll. Nimmt man dies an, dann fallen zwei Begriffe auf ‚Komplexität‘ und ‚Geist‘.
  11. ‚Komplexität‘ ist ein theoretischer Begriff, der nicht nur einen bestimmten ‚Theorierahmen‘ voraussetzt, sondern dessen Bedeutungsbereich selbst schon theoretische Begriffe sein müssen, die bestimmten theoretischen Anforderungen entsprechen. Es ist im weiteren Verlauf darauf zu achten, wie Duve mit diesem Begriff umgeht.
  12. ‚Geist‘ ist – nach normalem Sprachgebrauch – kein Begriff aus dem Bereich der Naturwissenschaften. Der Begriff ‚Geist‘ hat eine vielschichte ‚Begriffsgeschichte‘. In den meisten Fällen verbindet man den Begriff ‚Geist‘ mit Eigenschaften von ‚Menschen‘, deren ‚Verhalten‘ man ‚Eigenschaften‘ zuschreibt, die man mit ‚Geist‘ verknüpft. Die Verwendungsweise dieses Begriffs ist aber alles andere als klar. Selbst in der modernen Philosophie gibt es hier keine einheitliche Position. Man darf also gespannt sein, wie Duve diesen Begriff in seinem Buch verwenden wird.
  13. Ferner fällt auf, dass Duve die ‚kosmologische Vorgeschichte‘ in seiner Komplexitätshierarchie ausklammert. Diese wird heute in der neueren Astrobiologie sehr intensiv behandelt. Aus diesen Untersuchungen wissen wir, dass die Vorgeschichte ‚wesentlich‘ ist für die Rahmenbedingungen, unter denen Leben auf der Erde entstehen konnte. Man wird also prüfen müssen, inwieweit sich diese Ausklammerung auf die Ausführungen Duves merklich auswirken.]
  14. In der Einleitung wiederholt Duve die These, dass das Phänomen ‚Leben‘ auf der Erde das außergewöhnlichste Ereignis (‚most extraordinary adventure‘) im bekannten Universum ist und er wiederholt, dass man in dieser Geschichte des Lebens eine Reihe von ‚Innovationen‘ erkennen kann, die sich durch einen jeweiligen Anstieg an ‚Komplexität‘ auszeichnen. Und zur Beschreibung all dieser Phänomene genügen die Gesetze der ‚Physik‘ und ‚Chemie‘. (vgl.S.1)
  15. [ANMERKUNG: Neben den schon getätigten Anmerkungen oben sollte man sich im Hinterkopf behalten, dass der Physiker Paul Davies bzgl. der ‚Beschreibungskraft‘ der Physik eher kritisch daher kommt. Natürlich bleibt uns kaum eine Alternative zum Ansatz einer experimentellen Naturwissenschaft, aber es kann sein – was Davies ausdrückt – dass eine bestimmte Disziplin zu einem bestimmten Zeitpunkt selbst noch zu wenig Erkenntnisse verfügbar hat, um ein ‚komplexes‘ Phänomen adäquat beschreiben zu können. Dies sind die interessanten Grenzfälle, die die Chance bieten, vorhandene Schwachstellen in der Erkenntnis zu identifizieren und evtl. zu verbessern. Um solche Schwachstellen zu erkennen, muss man die methodischen Voraussetzungen immer sehr klar auf den Tisch legen und sich ihrer allzeit bewusst sein. Ob ein Chemiker sich der Grenzen der Physik allzeit voll bewusst ist, darf man zunächst einmal methodisch anzweifeln. Von daher ist es gut, die Worte von Paul Davies nicht zu vergessen.]
  16. Duve beginnt mit der weiteren These, dass das Phänomen des Lebens ‚eins‘ sei, da es aus dem gleichen ‚Material‘ bestehe, da es sich nach den gleichen ‚Prinzipien‘ gebildet habe, und da es – nach allen bisherigen Untersuchungen – auf die gleichen gemeinsamen ‚Vorstrukturen‘ zurückverweisen. (vgl. S.1)
  17. Mit ‚Material‘ meint er ‚Proteine‘ und ‚Nukleinsäuren‘ (’nucleic acids‘). Protein sind Sequenzen von – standardmäßig 20 (in Ausnahmen auch 22) verschiedenen — Aminosäuren, so dass man Proteine auch als ‚Worte‘ über dem Alphabet der Aminosäuren bezeichnet. Die vergleichenden Analysen von Proteinen und Nukleinsäuren haben bislang eine so hohe ‚Ähnlichkeit‘ zwischen allen bekannten Lebewesen gezeigt, dass eine rein ‚zufällige‘ Bildung auszuschließen sei, eine Ähnlichkeit, die zudem jeweils auf gemeinsame Vorstufen verweise. Daraus ergibt sich die weitere Frage, wann und wie es zu den ‚ersten‘ Strukturen kam, die wir als ‚Leben‘ bezeichnen?(vgl. S.1f)
  18. [ANMERKUNG: Bezeichnet man das Alphabet der Aminosäuren, die zum Einsatz kommen mit ‚A‘ und gibt man die Anzahl der Elemente des Alphabets an mit 20 (22), dann kann man schreiben |A| = 20 (22). Die Menge aller ‚Worte‘ (= Sequenzen) über dem Alphabet bezeichnet man normalerweise mit ‚A*‘. Ein einzelnes Protein p aus der Menge aller Proteine P ist dann ein Element aus dieser Menge, also ‚p in A*‘ bzw. ‚P subset A*‘. Die tatsächlich vorkommende Menge der Proteine sei ‚P+ subset P‘. Für die Menge aller theoretisch möglichen Proteine P gilt |P| = 20^L (bzw. 22^L) mit ‚L‘ als Länge eines Proteins. Also bei L=2 gibt es theoretisch schon 22^2 = 484 verschiedene Proteine. Bei 22^8 = 54.875.873.536, usw. Umso größer die Zahl der theoretischen Möglichkeiten wird, umso geringer wird die Wahrscheinlichkeit für ein bestimmtes Protein, vorzukommen, nämlich ‚1/20^L‘.
  19. Auch sollte man beachten, dass das ‚Material‘ der Proteine und Nukleinsäure nur einen kleinen Ausschnitt aus dem darstellt, was die Physik heute als ‚Materie‘ bezeichnen würde. Der heutige Materiebegriff ist grundsätzlich verschieden von dem Materiebegriff der vorausgehenden Jahrhunderte und allemal der vorausgehenden Jahrtausende. Fast alle philosophischen Aussagen, die irgendwie Bezug nehmen auf den Begriff ‚Geist‘ im Unterschied zu ‚Materie‘ sind aus heutiger Sicht von daher stark ‚wertlos‘ geworden, da sie Voraussetzungen implizieren, die so einfach nicht mehr stimmen. In vielen Diskussionen — insbesondere auch theologischen — wird dies kaum bis garnicht beachtet.
  20. Die Angaben zu den konkreten Details der Gemeinsamkeiten zwischen den verschiedenen ‚Lebensmaterialien‘ sind an dieser Stelle noch sehr vage. Man sollte dies im Blick behalten.]
  21. Fragt man sich, wie man über die vorausgehende Geschichte der Lebensformen etwas wissen kann, so verweist Duve auf speziell zwei Quellen: Fossilien, die bis zu 600 Mio Jahren zurückreichen sollen und die genetischen Informationen der lebenden Zellen. (vgl. S.2f) Allerdings gibt es noch spezielle Fossilien von Bakterien und den Zellkörpern von Bakterien, die sich in Ablagerungen bis zu 3.5 Mrd Jahre zurück datieren lassen.(vgl. S.4f)
  22. Im Falle lebender Zellen herrscht die Annahme, dass sich Unterschiede im Laufe der Zeit aufgrund von Mutationen gebildet haben können. Je mehr sich unterschiedliche Codes unterscheiden, um so weiter liegen sie zeitlich (man muss dafür die Veränderungsgeschwindigkeit nach Anzahl von Generationen pro Zeiteinheit ermitteln) auseinander. Nach dieser Logik kann man auf der Zeitachse ‚zurückschauen‘ und die sich immer ähnlicher werdenden Vorfahren (‚ancestors‘) identifizieren. Bei diesem Verfahren muss man nicht das gesamte Genom vergleichen, sondern es hilft oft schon nur ein bestimmte Protein zu nehmen, das eine wichtige Funktion ausübt. (vgl. S.3f)
  23. Bei der Frage nach dem Ursprung des Lebens – auf der Erde oder von außerhalb der Erde – sieht Duve momentan keine überzeugenden Argumente für eine eindeutige Entscheidung in Richtung von ‚außerhalb‘ der Erde. Zumal im letzteren Fall die Frage nach der genauen Entstehung weiter im Dunkel verbliebe. Optiert man für den Entstehungsort Erde, dann bleiben ca. 200 Mio Jahre Zeit für solch einen Prozeß auf einer in dieser Phase eher lebensfeindlichen Erde.(vgl. S.6f) [Anmerkung: Eine Klärung der Frage einer möglichen Entstehung auf der Erde ist ja zugleich auch ein Beitrag zur Grundsatzfrage, wie die erste Zelle entstehen konnte (auch wenn bei einer Entstehung auf einem anderen Planeten durch unterschiedliche Randbedingungen Details im Zellaufbau evtl. anders sein würden)].
  24. Dennoch verbleibt die Frage, ob es wissenschaftlich Sinn macht, die Frage nach der Entstehung des Lebens tatsächlich zu stellen? Was, wenn – wie nicht wenige annehmen – die Entstehung des Lebens auf einer Reihe von absolut zufälligen Ereignissen beruht, die sich als solche nicht reproduzieren lassen? (vgl. S.7f)
  25. Dem hält Duve entgegen, dass die schon heute bekannten molekular-biologischen chemischen Mechanismen von Zellen und deren Bestandteile dermaßen komplex und hochorganisiert sind, dass rein logisch ein rein zufälliges Geschehen ausscheidet. Vielmehr sprechen alle Tatsachen dafür, dass es die Struktur der Materie selbst ist, die gewissen Entwicklungstendenzen als hochwahrscheinlich erscheinen lässt, also in dem Sinne, dass die Materie ‚von Leben geschwängert‘ ist (‚pregnant with life‘). Mit dieser Voraussetzung kann Leben quasi ‚überall‘ entstanden sein und wird auch entstehen, wenn gewissen Bedingungen gegeben sein. (vgl. S.6-7)
  26. Dieses ‚Schwanger sein von Leben‘ ist nicht zu verwechseln mit einem ‚Plan‘, oder einem expliziten ‚Design‘. Es realisiert sich vielmehr schrittweise, über viele Zwischenstationen, in denen zu keinem Zeitpunkt der aktuelle Prozess ‚weiß‘, was noch kommen soll. Der aktuelle Prozess lebt im ‚Augenblick‘ und es passiert nur das, was nach den herrschenden Gesetzen zu diesem Zeitpunkt möglich ist. (vgl. S.9f)

Zur Fortsetzung siehe TEIL 2.

Eine Übersicht über alle bisherigen Blogeinträg nach Themen findet sich HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Teil 3 (Superbugs, Steinefresser)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

Start: 3.Sept.2012

Letzte Fortsetzung: 4.Sept.2012

Fortsetzung von Teil 2

 

  1. Die Entdeckung, dass RNA-Moleküle ähnliche Eigenschaften haben wie DNA-Moleküle und sie bis zu einem gewissen Grade auch als Enzyme fungieren können, die chemische Prozesse unterstützen (was sonst Proteine tun), führte zur Hypothese von der RNA-Welt, die der DNA-Welt vorausgeht. Experimente von Spiegelmann zeigten z.B., dass RNA-Genome in einer entsprechenden Lösung mit Enzymen sich reproduzieren können, allerdings mit der Tendenz, sich immer mehr zu vereinfachen (74.ter Durchlauf, 84% abgestoßen [Spiegelmann S.217]). Die Entkopplung von realen Lebensprozessen führt offensichtlich zu einer ‚Sinnentleerung‘ dergestalt, dass die Basen ihre ‚Bedeutung‘ verlieren und damit ihre ‚Notwendigkeit‘! Das vereinfachte Endprodukt bekam den Namen ‚Spiegelmanns Monster‘. (123-127) Genau gegenläufig war ein Experiment von Manfred Eigen und Peter Schuster (1967), die mit RNA-Bausteinen begannen und herausfanden, dass diese sich ‚aus sich heraus‘ zu immer komplexeren Einheiten zusammenfügten, sich reproduzierten, und den ‚Monstern von Spiegelmann‘ ähnelten. (127f) Allerdings benutze Eigen und Schuster für ihre Experimente spezialisierte Enzyme, die aus einer Zelle gewonnen waren. Die Existenz solcher Enzyme in der frühen Zeit der Entstehung gilt aber nicht als gesichert. (128f) Überlegungen zu möglichen Szenarien der frühen Koevolution von RNA-Molekülen und Proteinen gibt es, aber keine wirklichen ‚Beweise‘. (129f) Alle bisherigen Experimente haben nur gezeigt, dass die Synthese längerer RNA-Moleküle ohne spezielle Unterstützung zu fragil ist; sie funktioniert nicht. Dazu gehört auch das Detail der Chiralität: bei ‚freier‘ Erzeugung zeigen die Moleküle sowohl Links- als auch Rechtshändigkeit; die biologischen Moleküle sind aber alle linkshändig. (130f) Stammbaumanalysen zeigen ferner, dass RNA-Replikation eine spätere Entwicklung ist; die frühesten Vorläufer hatten sie so nicht. (131f) Ferner ist völlig unklar, wie sich frühere Replikatoren entwickeln konnten. (132)

  2. Aufgrund dieser Schwierigkeiten gibt es alternative Versuche, anzunehmen, dass vielleicht die Proteine zuerst da waren. Rheza Ghadiri entdeckte, dass sich Peptidketten selbst vermehren können, was auch am Beispiel der Rinderseuche BSE bestätigt wurde (133). Freeman Dyson nahm an, dass die Proteine und die replikationsfähigen Moleküle sich parallel entwickelt haben und dann erst fusionierten.(133f) Die zentrale Annahme bei Dyson ist, dass Moleküle die Produktion und Veränderung anderer Moleküle bewirken können. Damit können dann ‚Ordnungen‘ dergestalt entstehen, dass sich präferierte chemische Zyklen bilden, die verklumpen, anschwellen und sich spalten. Schon auf dieser Ebene sollte begrenzter ‚Wettbewerb‘ möglich sein, der zu einer begrenzten ‚Evolution‘ führt. (134) Solche Prozesse könnten dann von von Nukleinsäuren durchdrungen werden, die sich diese Prozesse zunutze machen. (134f) Als möglicher Ort für solche Prozesse könnte der Boden der Ozeane fungieren. Russell entwickelte ein Modell von semipermeablen- Membranen, die sich dort bilden können. (135f) Cairns-Smith generalisierte die Idee der Informationsspeicherung und entwickelte die Hypothese, dass zu Beginn Tonkristalle die Funktion von RNA und DNA gespielt haben könnten. Allerdings gibt es bislang keine experimentelle Bestätigung hierfür. (136f)

  3. Alle diese Überlegungen liefern bislang keine vollständig überzeugenden Lösungen. Klar ist nur, dass die biologische Evolution Vorläuferprozesse haben musste, denen ein Minimum an Komplexität zukommt und zwar eine ‚organisierte Komplexität‘. (137f) Unter dem Titel ‚Selbstorganisation‘ fand Prigogine Beispiele, wie sich durch Zufluss freier Energie geordnete Strukturen aus einer ‚chaotischen‘ Situation heraus bilden konnten.(138f) Kaufmann entwickelte die Idee ‚autokatalytischer‘ Prozesse, in denen ein Molekül M auf andere Moleküle als Katalysator so wirkt, dass sie Prozesse eingehen, die letztlich zur Produktion von M führen. Dies verstärkt diese Prozesse immer mehr. (139f) Allerdings fehlen auch für diese Hypothesen empirische und experimentelle Belege. (140f) Davies weist auch darauf hin, dass selbstorganisierende Prozesse in allen wesentlichen Eigenschaften von den Umgebungsbedingungen bestimmt werden; biologische Reproduktion ist aber wesentlich ‚intrinsisch‘ bestimmt durch die Informationen der DNA/ RNA-Moleküle. Alle die Modelle zur Selbstorganisation liefern keine wirklichen Hinweise, wie es zu den selbstbestimmten Formen der Reproduktion kommen konnte, zur Herausbildung der Software [zur Dekodierung?]. (141) Dabei erinnert Davies nochmals an den Aspekt der ’nicht-zufälligen‘ Ordnung, d.h. alle jene Muster, die regelmäßige Anteile enthalten (wie in den Beispielen von Autokatalyse und Selbstorganisation), sind nicht die Formen von zufälliger Informationsspeicherung, wie man sie im Falle von DNA bzw. RNA-Molekülen findet.(142)

  4. [Anmerkung: So gibt es bislang also Einsichten in das Prinzip der biologischen Selbstreproduktion, aber überzeugende Hinweise auf chemische Prozesse, wie es zur Ausbildung solcher komplexer Prozesse komme konnte, fehlen noch. ]

  5. Im Kapitel 6 ‚The Cosmic Connection‘ (SS.143 – 162) wird aufgezeigt, dass die irdische Chemie nicht losgelöst ist von der allgemeinen Chemie des Universums. Fünf chemische Elemente spielen in der erdgebundenen Biologie eine zentrale Rolle: Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘), Stickstoff (’nitrogen‘), und Phosphor (‚phosphorus‘). Dies sind zugleich die häufigsten Elemente im ganzen Universum. (143) Kohlenstoff hat die außerordentliche Fähigkeit, praktisch unendlich lange Ketten zu bilden (Nukleinsäuren und Proteine sind Beispiele dafür). (143)

  6. Kohlenstoff entsteht durch die Kernfusion in Sternen von Wasserstoff zu Helium zu Kohlenstoff.(146) Buchstäblich aus der ‚Asche‘ erloschener Sterne konnten sich dann Planeten wie die Erde bilden.(144) Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘) und Stickstoff (’nitrogen‘) werden seit Bestehen der Erde beständig in der Atmosphäre, in der Erdkruste, bei allen Verwesungsprozessen ‚recycled‘. Danach enthält jeder Körper Kohlenstoffatome von anderen Körpern, die 1000 und mehr Jahre älter sind.(146f) Mehr als hundert chemische Verbindungen konnten bislang im Universum nachgewiesen werden, viele davon organischer Natur. (147f) Nach den ersten hundert Millionen Jahren war die Oberfläche der Erde immer noch sehr heiß, die Ozeane viel tiefer, die Atmosphäre drückend (‚crushing‘), intensiver Vulkanismus, der Mond näher, die Gezeiten viel höher, die Erdumdrehung viel schneller, und vor allem andauernde Bombardements aus dem Weltall. (152) Eine ausführlichere Schilderung zeigt die vielfältigen Einwirkungen aus dem Weltall auf die Erde. Generell kann hier allerlei (auch organisches) Material auf die Erde gekommen sein. Allerdings sind die Umstände eines Eindringens und Aufprallens normalerweise eher zerstörerischer Natur was biologische Strukturen betrifft. (153-158) Das heftige Bombardement aus dem Weltall mit den verheerenden Folgen macht es schwer, abzuschätzen, wann Leben wirklich begann. Grundsätzlich ist weder auszuschließen, dass Leben mehrfach erfunden wurde noch, dass es Unterstützung aus dem Weltall bekommen haben kann. Andererseits war der ’sicherste‘ Ort irgendwo in einer Tiefe, die von dem Bombardement kaum bis gar nicht beeinträchtigt wurde. (158-161)

  7. Kapitel 7 ‚Superbugs‘ (163-186). Die weltweit auftretende Zerstörung von unterirdischen Kanalleitungen aus Metall (später 1920iger) führte zur Entdeckung eines Mikroorganismus, der ausschließlich in einer säuerlichen Umgebung lebt, Schwefel (’sulfur‘) frißt und eine schweflige Säure erzeugt, die sogar Metall zerstören kann.(163f) Man entdeckte mittlerweile viele verschiedene Mikroorganismusarten, die in Extremsituationen leben: stark salzhaltig, sehr kalt, starke radioaktive Strahlung, hoher Druck, extremes Vakuum, hohe Temperaturen. (164f) Diese Mikroorganismen scheinen darüber hinaus sehr alt zu sein. (165) Am erstaunlichsten von allen sind aber die wärmeliebenden Mikroorganismen (‚thermophiles‘, ‚hyperthermophiles‘), die bislang bis zu Temperaturen von 113C^o gefunden wurden. Von den mittlerweile mehr als Tausend entdeckten Arten sind ein großer Teil Archäen, die als die ältesten bekannten Lebensformen gelten. (166f) Noch mehr, diese thermophilen und hyperthermophylen Mikroorganismen sind – wie Pflanzen allgemein – ‚autotroph‘ in dem Sinne, dass sie kein organisches Material für ihre Versorgung voraussetzen, sondern anorganisches Material. Man nennt die unterseeischen Mikroorganismen abgrenzend von den autotrophen ‚Chemotrophs‘, da sie kein Sonnenlicht (also keine Photosynthese) benutzen, sondern einen eigenen Energiegewinnungsprozess entwickelt haben. (167f) Es dauerte etwa von 1920 bis etwa Mitte der 90iger Jahre des 20.Jahrhunderts bis der Verdacht und einzelne Funde sich zu einem Gesamtbild verdichteten, dass Mikroorganismen überall in der Erdoberfläche bis in Tiefen von mehr als 4000 m vorkommen, mit einer Dichte von bis zu 10 Mio Mikroorganismen pro Gramm, und einer Artenvielfalt von mittlerweile mehreren Tausend. (168-171) Bohrungen in den Meeresgrund erbrachten weitere Evidenz dass auch 750m unter dem Meeresboden überall Mikroorganismen zu finden sind (zwischen 1 Mrd pro cm^3 bis zu 10 Mio). Es spricht nichts dagegen, dass Mikroorganismen bis zu 7km unter dem Meeresboden leben können. (171-173) All diese Erkenntnisse unterstützen die Hypothese, dass die ersten Lebensformen eher unterseeisch und unterirdisch entstanden sind, geschützt vor der Unwirtlichkeit kosmischer Einschläge, ultravioletter Strahlung und Vulkanausbrüchen. Außerdem waren alle notwendigen Elemente wie z.B. Wasserstoff, Methan, Ammoniak, Wasserstoff-Sulfid im Überfluss vorhanden. (173f) Untersuchungen zur Energiebilanz zeigen, dass in der Umgebung von heißen unterirdischen Quellen speziell im Bereich 100-150 C^o sehr günstig ist.(174f) Zusätzlich deuten genetische Untersuchungen zur Abstammung darauf hin, dass gerade die Archäen-Mikroorganismen zu den ältesten bekannten Lebensformen gehören, die sich z.T. nur sehr wenig entwickelt haben. Nach all dem wären es dann diese hyperthermophilen Mikroorganismen , die den Ursprung aller biologischen Lebensformen markieren. Immer mehr Entdeckungen zeigen eine wachsende Vielfalt von Mikroorganismen die ohne Licht, in großer Tiefe, bei hohen Temperaturen anorganische Materialien in Biomasse umformen. (175-183)

  8. Wie Leben wirklich begann lässt sich bislang trotz all dieser Erkenntnisse nicht wirklich klären. Alle bisherigen Fakten sprechen für den Beginn mit den Archäen, die sich horizontal in den Ozeanen und in der Erdkruste in einem Temperaturbereich nicht höher als etwa 120 C^o (oder höher?) ausbreiten konnten. Irgendwann muss es dann einen Entwicklungssprung in die Richtung Photosynthese gegeben haben, der ein Leben an der Oberfläche ermöglichte. (183-186)

  9. Kap.8 ‚Mars: Red and Dead‘ (SS.187-220). Diskussion, ob es Leben auf dem Mars gab bzw. noch gibt. Gehe weiter darauf nicht ein, da es für die Diskussion zur Struktur und Entstehung des Lebens keinen wesentlichen Beitrag liefert.

  10. Kap.9 ‚Panspermia‘ (SS.221-243). Diskussion, inwieweit das Leben irgendwo im Weltall entstanden sein kann und von dort das Leben auf die Erde kam. Aber auch hier gilt, neben der Unwahrscheinlichkeit einer solchen Lösung würde es die Grundsatzfragen nicht lösen. (siehe auch Davies S.243))

  11. Kap.10 ‚A Bio-Friendly Universe‘ (SS.245-273). Angesichts der ungeheuren molekularen Komplexität , deren Zusammenspiel und deren Koevolution steht die Annahme einer rein zufälligen Entwicklung relativ schwach da. Die Annahme, dass die Komplexität durch die impliziten Gesetzmäßigkeiten aller beteiligten Bestandteile ‚unterstützt‘ wird, würde zwar ‚helfen‘, es bleibt aber die Frage, wie. (245-47) Eine andere Erklärungsstrategie‘, nimmt an, dass das Universum ewig ist und dass daher Leben und Intelligenz schon immer da war. Die sich daraus ergebenden Konsequenzen widersprechen den bekannten Fakten und erklären letztlich nichts. Davies plädiert daher für die Option, dass das Leben begonnen hat, möglicherweise an mehreren Orten zugleich. (247-250)
  12. Im Gegensatz zu Monod und den meisten Biologen, die nur reinen Zufall als Entstehungsform annehmen, gibt es mehrere Vertreter, die Elemente jenseits des Zufalls annehmen, die in der Naturgesetzen verankert sind. Diese wirken sich als ‚Präferenzen‘ aus bei der Bildung von komplexeren Strukturen. (250-254) Dem hält Davies aber entgegen, dass die normalen Naturgesetze sehr einfach sind, schematisch, nicht zufällig, wohingegen die Kodierung des Lebens und seiner Strukturen sich gerade von den chemischen Notwendigkeiten befreit haben, sich nicht über ihre materiellen Bestandteile definieren, sondern über eine frei (zufällig) sich konfigurierende Software. Der Rückzug auf die Präferenzen ist dann möglicherweise kein genügender Erklärungsgrund. Davies hält die Annahme eines ‚Kodes im Kode‘ für nicht plausibel. (254-257) Wie aber lässt sich das Problem der biologischen Information lösen? (257f) Grundsätzlich meint Davies, dass vieles dafür spricht, dass man ein ‚Gesetz der Information‘ als genuine Eigenschaft der Materie annehmen muss. (258f) Davies nennt dann verschiedene Theorieansätze zum möglichen Weiterdenken, ohne die gedanklichen Linien voll auszuziehen. Er erinnert nochmals an die Komplexitätstheorie mit ihrem logischen Charakter, erinnert an die Quantenstruktur der Materie, die Dualität von Welle (Information? Software?) und Teilchen (Hardware?) und ‚Quasikristalle‘, die auf den ersten Blick periodisch wirken, aber bei näherer Analyse aperiodisch sind. (259-263)
  13. Eine andere Frage ist die, ob man in der Evolution irgendeine Art von Fortschritt erkennen kann. Das Hauptproblem ist, wie man Fortschritt definieren kann, ohne sich in Vorurteilen zu verfangen. Vielfach wird der Begriff der Komplexität bemüht, um einen Anstieg an Komplexität zu konstatieren. Stephen J.Gould sieht solche Annahmen eines Anstiegs der Komplexität sehr kritisch. Für Christian de Duve hingegen erscheint ein Anstieg von Komplexität klar. (264-270)
  14. In den Schlussbemerkungen stellt Davies nochmals die beiden großen Interpretationsalternativen gegenüber: einmal die Annahme einer Zunahme der Komplexität am Beispiel von Gehirnen und daran sich knüpfenden Eigenschaften aufgrund von impliziten Präferenzen oder demgegenüber die Beschränkung auf reinen Zufall. Im letzteren Fall ist das Auftreten komplexer Lebensformen so hochgradig unwahrscheinlich, dass eine Wiederholung ähnlicher Lebensformen an einem anderen Ort ausgeschlossen erscheint. (270-273)
  15. [Anmerkung: Am Ende der Lektüre des Buches von Davies muss ich sagen, dass Davies hier ein Buch geschrieben hat, das auch ca. 13 Jahre später immer noch eine Aussagekraft hat, die die gewaltig ist. Im Detail der Biochemie und der Diskussion der chemischen Evolution mag sich das eine oder andere mittlerweile weiter entwickelt haben (z.B. ist die Diskussion zum Stammbaum fortgeschritten in einer Weise, dass weder die absolute Datierung noch zweifelsfrei ist noch die genauen Abhängigkeiten aufgrund von Genaustausch zwischen den Arten (vgl. Rauchfuß (326-337)]), doch zeigt Davies Querbeziehungen zwischen vielen Bereichen auf und bringt fundamentale Konzepte zum Einsatz (Information, Selbstorganisation, Autokatalyse, Komplexitätstheorie, Quantentheorie, Thermodynamik, algorithmische Berechenbarkeit ….), die in dieser Dichte und reflektierenden Einbringung sehr selten sind. Sein sehr kritischer Umgang mit allen möglichen Interpretationen ermöglicht Denkansätze, stellt aber auch genügend ‚Warnzeichen‘ auf, um nicht in vorschnelle Interpretationssackgassen zu enden. Eine weitere Diskussion des Phänomen Lebens kann an diesem Buch schwerlich vorbei gehen. Ich habe auch nicht den Eindruck, dass die neueren Ergebnisse die grundsätzlichen Überlegungen von Davies tangieren; mehr noch, ich kann mich des Gefühls nicht erwehren, dass die neuere Diskussion zwar weiter in ‚Details wühlt‘, aber die großen Linien und die grundlegenden theoretischen Modelle nicht wirklich beachten. Dies bedarf weiterer intensiver Lektüre und Diskussion ]
  16. [ Anmerkung: Ich beende hiermit die direkte Darstellung der Position von Davies, allerdings beginnt damit die Reflektion seiner grundlegenden Konzepte erst richtig. Aus meiner Sicht ist es vor allem der Aspekt der ‚logischen Strukturen‘, die sich beim ‚Zusammenwirken‘ einzelner Komponenten in Richtung einer höheren ‚funktionellen Komplexität‘ zeigen, die einer Erklärung bedürfen. Dies ist verknüpft mit dem Phänomen, dass biologische Strukturen solche übergreifenden logischen Strukturen in Form von DNA/ RNA-Molekülen ’speichern‘, deren ‚Inhalt‘ durch Prozesse gesteuert werden, die selbst nicht durch ‚explizite‘ Informationen gesteuert werden, sondern einerseits möglicherweise von ‚impliziten‘ Informationen und jeweiligen ‚Kontexten‘. Dies führt dann zu der Frage, inwieweit Moleküle, Atome, Atombestandteile ‚Informationen‘ ‚implizit‘ kodieren können, die sich in der Interaktion zwischen den Bestandteilen als ‚Präferenzen‘ auswirken. Tatsache ist, dass Atome nicht ’neutral‘ sind, sondern ’spezifisch‘ interagieren, das gleiche gilt für Bestandteile von Atomen bzw. für ‚Teilchen/ Quanten‘. Die bis heute nicht erklärbare, sondern nur konstatierbare Dualität von ‚Welle‘ und ‚Teilchen‘ könnte ein Hinweis darauf sein, dass die Grundstrukturen der Materie noch Eigenschaften enthält, die wir bislang ‚übersehen‘ haben. Es ist das Verdienst von Davies als Physiker, dass er die vielen chemischen, biochemischen und biologischen Details durch diese übergreifenden Kategorien dem Denken in neuer Weise ‚zuführt‘. Die überdimensionierte Spezialisierung des Wissens – in gewisser Weise unausweichlich – ist dennoch zugleich auch die größte Gefahr unseres heutigen Erkenntnisbetriebes. Wir laufen wirklich Gefahr, den berühmten Wald vor lauter Bäumen nicht mehr zu sehen. ]

 

Zitierte Literatur:

 

Mills,D.R.; Peterson, R.L.; Spiegelmann,S.: An Extracellular Darwinian Experiment With A Self-Duplicating Nucleic Acid Molecule, Reprinted from the Proceedings of the National Academy of Sciences, Vol.58, No.1, pp.217-224, July 1997

 

 

Rauchfuß, H.; CHEMISCHE EVOLUTION und der Ursprung des Lebens. Berlin – Heidelberg: Springer, 2005

 

Einen Überblick über alle bisherigen Themen findet sich HIER

 

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

 

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

 

 

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"

    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.