MEMO ZU: 6 THESEN ZUM LEBEN: KREATIVITÄT, KOOPERATION, KOMMUIKATION, MEHR ALS JETZT, SEXUALITÄT, DAS BÖSE – PHILOSOPHIESOMMER 2016 in der DENKBAR Frankfurt am So, 15.Mai 2016

Hier wieder ein kurzer Bericht zum Philosophiesommer 2016 in der Denkbar, Treffen am So 15.Mai 2016 (siehe die zugehörige Einladung)

Die Einleitung geriet etwas lang, vielleicht auch angesichts der vielen neuen Gesichter. Letztlich hielten wir aber unseren vorgeschlagenen Zeitplan ein. Sehr erfreulich war die breite Streuung der versammelten Kompetenzen, was sich dann in den Beiträgen widerspiegelte.

EINLEITUNG: SPANNUNGSFELD MENSCH – INTELLIGENTE MASCHINE

Ausgangspunkt war die spannungsvolle Diskussion vom letzten Treffen, bei dem zwar das Spannungsfeld Mensch einerseits, intelligente Maschinen andererseits, zur Sprache kam, wir uns aber nicht auf ein klares Thema für die Fortsetzung einigen konnten. Dies führte zur Formulierung von sechs Thesen zu Grundmerkmalen des biologischen Lebens, so wie sie sich am Beispiel des homo sapiens sapiens nach heutigem Kenntnisstand ablesen lassen. Diese Thesen sind gedacht als mögliche Orientierungspunkte für die weitere Diskussion des Spannungsfeldes Mensch – intelligente Maschinen.

STICHWORTE ZU INTELLIGENTE MASCHINEN

Analog zu den sechs Thesen zum biologischen Leben wurden ein paar Meilensteine zum Begriff der intelligenten Maschine in den Raum gestellt, an denen man das Reden über intelligente Maschinen fest machen kann.

STANDARD FÜR EINEN COMPUTER

Es wurde verwiesen auf den berühmten Artikel On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. Band 42, 1937, S. 230–265, von Alan Mathison Turing (19121954), in dem er im Kontext eines mathematischen Beweises ein einfaches Gedankenkonstrukt einführte, was später zu seinen Ehren Turingmaschine genannt wurde. Dieses Gedankenkonstrukt, die Turingmaschine, ist bis heute der gedankliche Standard, die Norm, für Fragen der Entscheidbarkeit von Problemstellungen in der Computerwissenschaft. Nach heutigem Kenntnisstand kann kein realer Computer mehr als dieses gedankliche Konstrukt genannt Turingmaschine (und dies gilt auch für alle denkbaren reale Computer der Zukunft).

INTELLIGENTE MASCHINEN

Es war auch dann Turing, der 1950, als es gerade erste Ungetüme von Computer gab, die noch nicht allzu viel konnten, die Frage diskutierte, ob Computer einmal so intelligent werden könnten wie ein homo sapiens sapiens (siehe: Computing Machinery and Intelligence. In: Mind. LIX, Nr. 236, 1950, ISSN  0026-4423, S. 433–460 ). Er räsonierte darüber, dass Computer, wenn sie genauso lernen dürften wie Kinder, eigentlich auch alles wissen könnten, wie Kinder. Auf dem Weg zur intelligenten Maschine sah er weniger technische Probleme, sondern soziale psychologische: Menschen werden Probleme haben, intelligenten lernende Maschinen neben sich in ihrem Alltag zu haben.

EMOTIONALE MASCHINEN

Einer der einflussreichsten und wichtigsten Wissenschaftler der künstlichen Intelligenzforschung, Marvin Minsky (1927 – 2016) veröffentlichte wenige Jahre vor seinem Tod ein Buch über die emotionale Maschine ( The Emotion Machine, Simon & Schuster, New York 2006). Es ist – formal gesehen – kein streng wissenschaftliches Buch, aber dennoch bedenkenswert, da er hier im Lichte seines Wissens durchspielt, wie man die menschlichen Erfahrungen von diversen Gefühlszuständen mit dem zu diesem Zeitpunkt bekannten Wissen über Computer rekonstruieren – sprich erzeugen – könnte. Er sieht in solch einem Projekt kein prinzipielles Problem.(Anmerkung: Es könnte interessant sein, dieses Buch zusammen mit Psychologen und Psychotherapeuten zu diskutieren (evtl. ergänzt um Gehirnforscher mit einem psychologischen Training)).

SUPERINTELLIGENZ UND WERTE

Einen weiteren Aspekt bringt der in Oxford lehrende Philosoph Nick Bostrom ins Spiel. In seinem Buch Superintelligenz (Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford 2014) sieht er bzgl. der Möglichkeit, super-intelligenter Maschinen grundsätzlich auch keine grundsätzliche Schwierigkeit, wohl aber in der Wertefrage: nach welchen Werten (Zielgrößen, Präferenzen) werden sich diese super-intelligenten Maschinen richten? Werden sie sich gegen den Menschen wenden? Kann der Mensch ihnen solche Werte einspeisen, die diese super-intelligente Maschinen dem Menschen wohlgesonnen sein lassen? Er selbst findet auf diese Fragen keine befriedigende Antwort. Auch wird durch seine Analysen deutlich (was Bostrom nicht ganz klar stellt), dass die Wertefrage grundsätzlich offen ist. Die Menschen selbst demonstrieren seit Jahrtausenden, dass sie keine Klarheit besitzen über gemeinsame Werte, denen alle folgen wollen.

SECHS THESEN ZUM BIOLOGISCHEN LEBEN

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Angesichts des zuvor skizzierten ungebrochenen Glaubens an die Möglichkeiten einer Superintelligenz bei gleichzeitigem ungelösten Werteproblem bei den Menschen selbst stellt sich die Frage, ob wir Menschen als späte Produkte des biologischen Lebens nicht doch Eigenschaften an und in uns tragen, die mehr sind als eine beliebige Meinung. Aus der Vielzahl der neuesten wissenschaftlichen Erkenntnisse zum biologischen Leben und zum homo sapiens sapiens hatte Gerd Doeben-Henisch sechs in Form von Thesen ausgewählt und der Diskussion vorangestellt.

1. KREATIVITÄT JENSEITS DES BEKANNTEN: Die Explosion des Lebens fand statt auf der Basis eines Erfolgswissens aus der Vergangenheit (repräsentiert im DNA-Molekül) ohne Wissen um die Zukunft. Inmitten eines Nicht-Wissens wurde nicht nur das erprobte Wissen aus der Vergangenheit genutzt, sondern der Reproduktionsprozess erlaubte eine Vielzahl von Alternativen, die alle im Moment des Ereignisses das radikale Risiko des Scheiterns beinhalteten. Diese basale Form der Kreativität war die Methode, Leben zu finden, und das Risiko des Scheiterns der Preis: Ohne Tod kein Leben.
2. KOOPERATION ÜBR GRENZEN HINWEG: Die Explosion des Lebens fand statt durch Erlangung der Fähigkeit, mit völlig fremden Systemen (die oft lebensbedrohlich waren) in eine Kooperation geradezu galaktischen Ausmaßes einzutreten, die eine WinWin-Situation für alle Beteiligte bildete. Das Zustandekommen solcher WinWin-Situationen war in den ersten Milliarden Jahren zufällig; der Erhalt der gefundenen Vorteile beruhte auf der grundlegenden Fähigkeit des Lebens, Erfolge zu konservieren.
3. ÜBERWINDUNG DES JETZT: Solange die biologischen Systeme nicht über Gedächtnis, Abstraktionsfähigkeit, basalem Denken verfügten, waren sie im Jetzt der Sinneseindrücke gefangen. Es gab kein Gestern und kein Morgen. Nach der Explosion des Lebens ab ca. -450 Mio Jahren kam es zu einem einzigartigen Punkt: nach 13.8 Mrd Jahren konnte sich das Leben in Gestalt der Hominiden, speziell dann des homo sapiens sapiens, plötzlich selbst anschauen und verfügte ab da über das Potential, sich selbst zu verändern.
4. KOORDINIERUNG INDIVIDUELLER VIRTUELLER WELTEN: Mit der Überschreitung des Jetzt durch interne Konstruktionen entsteht im einzelnen Individuum ein rekonstruierendes virtuelles Abbild der realen Welt. Damit die vielen einzelnen dieses virtuelle Wissen gemeinsam nutzen können, braucht es neue, leistungsfähige Formen der Koordinierung durch symbolische Kommunikation. Erfindungen wie die Sprache, die Schrift, der Buchdruck usw. belegen eindrucksvoll, was symbolische Interaktion vermag.
5. JENSEITS VON SEXUALITÄT: Während die bisherige Form der Sexualität als Strategie der Mischung genetischer Informationen kombiniert mit endogenem Handlungsdruck bei den handelnden Individuen über Jahrmillionen den Erhalt des Lebens offensichtlich ermöglicht hat, führen die neuen Lebensverhältnisse der großen Siedlungsdichten und der drohenden Überbevölkerung zur Frage, wie sich der Mensch von den endogenen Handlungsdrücken hinreichend befreien kann. Mann – Frau war gestern?
6. DYNAMIK DES BÖSEN – WO LEBT DAS GUTE: tiefsitzende Triebstrukturen im Menschen (Macht, Geld, Dünkel, …) sind seit Jahrtausenden bekannt. Mit den neuen globalen Informationstechnologien können sie sich schneller und effektiver im globalen Maßstab organisieren als nationale politische Systeme. Globale Kartelle des Machtmissbrauchs und der der Kriminalität bedrohen die neuzeitlichen Freiheitsansätze des Kreativen (neben anderen Faktoren).

FREIER DISKURS
Bei diesem breiten Spektrum des Themas war klar, dass nicht alle angesprochenen Aspekte gleichzeitig diskutiert werden konnten.

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

SEXUALITÄT
Die ersten Gesprächsbeiträge griffen die These zur Sexualität auf. Eher grundsätzliche Überlegungen thematisierten, dass Sexualität als ein grundlegendes und übergreifendes Prinzip zu sehen ist; die einzelnen Individuen sind hier nur – in gewisser Weise – nur ‚Marionetten‘ in dem großen Spiel des Lebens. Das Leben will überleben, der einzelne muss entsprechend funktionieren. Dass die biologisch vorgegebene eingebaute endogene Drucksituation im Laufe der Jahrtausende innerhalb der unterschiedlichen Kulturen mit ihren Wertesystemen zu vielfältigen Formen der Regulierungen geführt hat (meist zu Lasten der Frauen), ist manifest. Versuche der Menschen, die strenge Kopplung zwischen Sexualität und Reproduktion zu lockern gab es immer. Erst in neuester Zeit verfeinerten sich die Techniken, bieten sich Möglichkeit in die chemischen oder gar genetischen Prozesse einzugreifen bzw. durch die Reproduktionsmedizin die Reproduktion mehr und mehr aus dem biologischen System auszulagern. War schon immer die Anzahl der Kinder ein Indikator für den aktuellen Wohlstand, so führt heute die zunehmende Bevölkerungsdichte erneut zu Überlegungen, den bisherigen Reproduktionsmechanismus zu verändern. Für alle die neuen Maßnahmen und Technologien zur Veränderung der Reproduktion spielt der Einsatz von Computern eine immer größere Rolle. Zugleich wird der Computern für die Sexualität in Form von Sexrobotern auch immer mehr eingesetzt. Bräuchten super-intelligente Maschinen auch ein Äquivalent zur Sexualität, um sich zu vermehren?

INTELLIGENTE MASCHINEN

Die Position der intelligenten Maschinen blieb auffällig abstrakt. Was können sie eigentlich wirklich leisten? Richtig intelligente Maschinen scheint es noch nicht wirklich zu geben. Generell wurde nicht ausgeschlossen, dass super-intelligente Maschinen eine neue Variante der Evolution ermöglichen können. Haben diese super-intelligente Maschinen dann einen eigenen Willen? Würden sie aus sich heraus zu dem Punkt kommen, dass sie die Menschen abschaffen würden? Können wir den super-intelligente Maschinen solche Werte einpflanzen, dass sie den Menschen grundsätzlich wohlgesonnen sind (hier sei erinnert an die vielen geistreichen Science Fiction von Isaak Asimov (1919 – 1992), der unter anderem die Robotergesetze erfunden hatte, die genau diese Idee umsetzen sollten: menschenfreundliche Roboter ermöglichen).

NICHT SCHWARZ-WEISS DENKEN

Im Gespräch zeichnete sich auch eine Position ab, die viele Argumente auf sich vereinte, nämlich jene, die weniger konfrontativ Mensch und super-intelligente Maschinen gegenüberstellt, sondern von einer symbiotischen Wechselbeziehung ausgeht. Der Mensch entwickelt schrittweise die neuen Technologien, und in dem Masse, wie diese real erfahrbar werden, beginnt die ganze Gesellschaft, sich damit auseinander zu setzen. Systemisch gibt es damit beständige Rückkopplungen, die – falls die gesellschaftliche Dynamik (Öffentlichkeit, freie Meinung, Diskurs..) intakt ist – nach Optimierungen im Verhältnis zwischen Menschen und Maschinen sucht. Natürlich gibt es massive wirtschaftliche Interessen, die versuchen, die neuen Möglichkeiten für sich zu nutzen und versuchen, alle Vorteile einseitig zu akkumulieren; es ist dann Aufgabe der ganzen Gesellschaft, dieser Tendenz entsprechend entgegen zu wirken. Dabei kann es sehr wohl zu Neujustierungen bisheriger Normen/ Werte kommen.

WEISHEIT DES LEBENS
Wenn man bedenkt, welch ungeheuren Leistungen das biologische Leben seit 3.8 Mrd Jahren auf der Erde vollbracht hat, wie es Lebewesen mit einer gerade zu galaktischen Komplexität geschaffen hat (der Körper des homo sapiens sapiens hat nach neuen Schätzungen ca. 34 Billionen (10^12) Körperzellen (plus noch mehr Bakterien in und am Körper), die alle als Individuen im Millisekundentakt zusammenwirken, während dagegen die Milchstraße, unsere Heimatgalaxie, ca. nur 100 – 300 Mrd. Sonnen besitzt), dann kann man nicht grundsätzlich ausschließen, dass diese Leben implizit über eine ‚Weisheit‘ verfügt (man könnte auch einfach von ‚Logik‘ sprechen), die möglicherweise größer, tiefer umfassender ist, als jede denkbare Superintelligenz, weil diese, wann und wo auch immer, nicht von außerhalb des Systems entsteht, sondern innerhalb des Systems.

NÄCHSTES THEMA

Da viele Teilnehmer sagten, dass sie sich unter diesen intelligenten Maschinen immer noch nichts Rechtes vorstellen können, wurde ein anwesender Experte für intelligente Maschinen (aus der Gattung homo sapiens sapiens) gebeten, für das nächste Treffen eine kleine Einführung in die aktuelle Situation zu geben.

Ein Überblick zu allen bisherigen Themen des Philosophiesommers (und seiner Vorgänger) nach Titeln findet sich HIER.

BLICK IN DAS INNERE DES UNIVERSUMS – NICK LANE – LIFE ASCENDING – BESPRECHUNG – Teil 2

Nick Lane, „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT

  1. Im vorausgehenden Teil 1 wurde nach einer kurzen Einleitung die Entstehung des Lebens im Lichte neuerer Erkenntnisse skizziert. Wer dadurch neugierig geworden ist, sei ermuntert, den Text von Lane und die angegebenen zusätzlichen Artikel und Bücher selbst zu lesen. In dieser Besprechung können nur die großen Linien angesprochen werden und mögliche Zusammenhänge mit dem Thema dieses Blogs. Interessant vielleicht auch die Nachbemerkungen zur Besprechung in Teil 1.
  2. Nachdem in Teil 1 neuere Forschungsergebnisse andeuten, wie sich das biologische Leben (= das Leben) im Rahmen der allgemeinen physikalischen (und chemischen) Gesetze in Form von grundlegenden hoch stabilen metabolischen Prozessketten formieren konnte, stellt sich die Folgefrage, wie der Weg von diesen komplexen, und doch – verglichen mit den späteren biologischen Strukturen – noch so einfachen Strukturen zu den eigentlichen Selbstreproduktionsmechanismen kommen konnte.

DNA – Der Code des Lebens (SS.34-59)

  1. Lane beginnt mit dem Sachverhalt, dass die Reproduktion einer Zelle letztlich gesteuert wird vom sogenannten Genom, das aus einer endlichen Menge von DNA-Molekülen besteht, wobei jedes DNA-Molekül jeweils in einem Doppelstrang ausgeführt ist. In diesem Doppelstrang bildet jedes Element ein Paar aus zwei Basen.
  2. [Anmerkung: ein DNA-Molekül bildet zusammen mit weiteren Elementen ein Chromatin. Ein Chromosom enthält – je nach Zellphase – entweder genau ein Chromatin oder ein Chromatin und seine Kopie (bei der Zellteilung werden diese beiden auf auf zwei neue Zellen als Schwester-Chromatine aufgeteilt). Die Gesamtheit der Chromosome bildet das Genom.]
  3. [Anmerkung: ein Grundelement (Nukleotid) der DNA besteht aus einem Strukturelement (einem Zucker-Phosphat Molekül), an das sich eine Base anlagern kann. Zwei solche Nukleotide können sich dann über die Basen komplementär zu einem Paar verbinden. (vgl. CELL S.3)]
  4. Es gibt vier Basen Adenin (A), Thymin (T), Guanin (G) und Cytosin (C). Dazu gibt es die starke chemische Tendenz, dass A sich nur an T bindet und C nur an G. Dadurch sind die beiden Stränge komplementär. (vgl. S.34f) Die Anordnung nutzt also eine vorgegebene chemische Bindungstendenz aus.
  5. Die Gesamtzahl der Nukleoide in einem menschlichen Genom wird auf ca. 3 Mrd (10^9) geschätzt. Bei ca. 15 Billionen (10^12) Körperzellen [Anmerkung: neuere Schätzungen gehen auf ca. 34 Billionen) bedeutet dies, dass das Genom 15 Billionen Mal (und öfters, da ja Körperzellen absterben und wieder ersetzt werden müssen) kopiert werden muss. Bei einer geschätzten Fehlerrate von 1 Nukleotid in 1 Mrd bedeutet dies, dass bei einer Kopie ca. 3 Fehler auftreten. Der Unterschied zwischen Menschen wird auf ca. 1 Unterschied pro 1000 Nukleotide geschätzt, also ca. 3 Mio; Lane spricht von 6-10 Mio. (vgl. SS.36-38)
  6. Beispiel: Die Trennung vom Schimpansen soll ca. vor 6 Mio Jahren geschehen sein. Die empirisch ermittelte Abweichungen werden mit 1,4% angegeben, also jede Art hat ca. 0.7% ihres Genoms in dieser Zeit verändert [Anmerkung: Bei einer angenommenen Generationendauer von 30 Jahren ergäben sich ca. 1050 Änderungen an Nukleotiden pro Generation auf jeder Seite].(vgl. S.38)
  7. Das Wissen um die Kombinatorik der Basen auf einem DNA-Molekül nützt allerdings letztlich nur dann etwas, wenn man auch weiß, welche potentiellen Strukturen und ihre lebensweltbezogenen Funktionen damit kodiert werden.(vgl. S.39) In der Zeit vor der Entdeckung von Watson und Crick 1953 waren die Details der biochemischen Maschinerie unbekannt.(vgl. S.40f)
  8. Nur langsam entdeckte man, dass die Proteine außerhalb des Zellkerns über die Zwischenstationen Messenger RNA (mRNA) (erste Kopie von DNA-Abschnitten) und Transfer RNA (tRNA) (Rückübersetzung) und Ribosom (Zusammenbau von Aminosäuren anhand der tRNA-Informationen) erzeugt werden. Und nur langsam entdeckte man, dass jeweils vier Nukleotide aus der DNA ein Codon bilden, das für genau eine Aminosäure steht, deren Aneinanderreihung ein Protein (bei kürzeren Formen spricht man von einem Peptid) ergibt. Während 4^4 = 64 Kombinationen mit einem Codon möglich wären, schätzten Crick und Watson damals die Zahl der relevanten Aminosäuren für biogene Proteine auf 20. [Anmerkung: im menschlichen Körper kommen 21 verschiedene Aminosäuren vor. Insgesamt sind heute 23 Aminosäuren bekannt, die bei Proteinen Verwendung finden (wobei heute mehr als 400 Aminosäuren bekannt sind, die biologisch wichtig sind aber nicht in Proteinen vorkommt).] Es stellte sich heraus, dass der Kode redundant ist: es können mehrere verschiedene Codons die gleiche Aminosäure kodieren. Drei von 64 Codons dienen als STOP-Signal. Da dieser Kode universell für alle Lebensformen gilt wird daraus geschlossen, dass alle diese Lebensformen einen gemeinsamen Vorläufer gehabt haben müssen, von dem diese Kodierung übernommen wurde. (vgl. SS.39-45) Crick entwickelte daraus die These (1981), dass das Leben von außerhalb der Erde kam (Raumschiff, Aliens,…), und sich dann hier ausgebreitet hat.
  9. Die Hypothese von Crick wurde durch den Gang der Forschung überholt. Generell erschien die Hypothese von Crick auch nicht sehr plausibel, da das Auftreten von komplexen Molekülen ohne entsprechende Umgebungen wenig Chancen bietet, dass diese Moleküle überleben.(vgl. S.45f)
  10. Realistischer erschienen solche Hypothesen, die aufzeigen können, wie die Elemente von Aminosäuren aus Vorläufermaterial aus vorgegebenen Umgebungen rekrutiert werden konnten.(vgl. S.46)
  11. Und in der Tat, man entdeckte nach und nach, dass es einen Kode in den Codons gibt! Die Codons mit ihren vier Elementen haben Positionen 1-4. Ein einzelnes Codon steht nicht nur irgendwie für eine bestimmte Aminosäure, sondern die Abfolge der Elemente im Codon steuern sehr stark auch den Prozess der Aminosäurebildung! So fand man heraus, dass es folgenden Zusammenhang gibt: ein C an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein alpha-ketoglutarate benutzt werden soll; ein A an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein oxalocetate benutzt werden soll; ein T steht für pyruvate; ein G steht für eine beliebige Anzahl von einfachen Vorläufern.(vgl.S46f und Fußnote 5)
  12. Die zweite Position im Codon reguliert, wo im Spektrum zwischen hydrophob und hydrophil sich die Aminosäure ansiedeln soll: die fünf häufigsten hydrophoben Elemente korrespondieren mit T an Position 2; die meisten hydrophilen Elemente mit dem Element A; G und C stehen für Elemente in der Mitte des Spektrums.(vgl. S.47)
  13. Position 3 und 4 lassen keine feste Kodierung erkennen. Dies deutet darauf hin, dass die frühen Vorformen des DNA-Kodes möglicherweise nur 2 Elemente hatten, die stark deterministisch waren. Experimente mit Punktmutationen zeigen, dass der genetische Kode verglichen mit zufälligen Anordnungen extrem stabil ist. Er stellt eine interessante Kombination dar aus einem sehr konservativem Anteil (Position 1-2), und einem experimentellen Anteil (Positionen 3-4).(vgl. SS.47-49)
  14. Bleibt als Frage, wie kam der Prozess zustande, in dem DNA eine Proteinproduktion steuert, wo aber DNA spezifische Proteine für ihr Funktionieren voraussetzt und die spezifischen Proteine eben DNA?(vgl.S.49)
  15. Eine Lösung deutet sich an über RNA Moleküle: diese sind flexibler und können als Katalysatoren wirken, die zur Bildung jener ersten Proteine geführt haben, die wiederum Vorformen von DNA-Molekülen ermöglichten.(vgl.49-51)
  16. Allerdings, wo kommen diese RNA-Moleküle her? Man weiß, dass RNA-Moleküle sich nur bei hohen Konzentrationen bilden können, da sie beim Zusammenbau Nukleotide verbrauchen. Wo findet man solche hohen Konzentrationen? Die Entdeckung der unterseeischen Schlote eröffnet ein mögliches Szenario. Modellrechnungen zeigten, dass die Wahrscheinlichkeit sehr hoch ist, dass sich in solchen Schloten (speziell in den Poren des Gesteins) solche hohen Konzentrationen von RNA-Molekülen bilden können. Simuliert man RNA-Moleküle isoliert, dann tendieren sie dazu, sich nur mit einer minimalen Struktur fortzupflanzen, nur genau so viele Elemente, wie zur Reproduktion notwendig sind (die berühmten ‚Spiegelmann Monster‘). Dieses Modell ist offensichtlich nicht dazu geeignet, die Bildung komplexer RNA-Moleküle, dazu noch in Kooperation mit Proteinbildung zu erklären. Eine Lösung muss in einem umfassenderen Rahmen gesucht werden, in dem die RNA-Moleküle nur eine Teilkomponenten sind. Dieser umfassenderer Rahmen wurde wieder in der Struktur der unterseeischen Schlote gesehen. Die Poren bilden natürliche Umgebungen, die wie eine Zelle wirken, in der komplexere metabolische Prozesse ablaufen können, in deren Kontext die RNA-Moleküle nur eine Teilfunktion haben.(vgl. S.53-55)
  17. Zum Thema umfassender Rahmen gehören auch die Entdeckungen, dass aufgrund genetischer Strukturen die Eukaryotischen Zellen (jene mit einem Zellkern) von den Archaeen abstammen, diese wiederum haben sehr viel mit den Bakterien gemeinsam. Letztere beiden unterscheiden sich aber bei der DNA Replikation, was so gedeutet wird, dass beide einen gemeinsamen Vorläufer haben müssen, von dem sie sich unterschiedlich weiter entwickelt haben.(vgl.S.55f)
  18. Die Arbeitshypothesen laufen darauf hinaus, dass die flexibleren RNA-Moleküle zwischen Proteinerzeugung und DNA-Bildung vermittelt haben (nach dem Muster von Retroviren?). Erst in dem Maße, wie sich die stabileren DNA-Moleküle bilden konnten, war auf Dauer eine Reproduktion gesichert. Für die beiden chemischen Unterschiede von RNA- und DNA-Molekülen gibt es genügend chemische Bestandteile in der unterseeischen Schlotumgebung, so dass eine DNA-Erzeugung aus RNA-Molekülen prinzipiell möglich erscheint.(vgl. SS.55-59)

DISKURS

  1. Die Details der neuen Erkenntnisse können einen erschlagen, und doch ist dies ja nur die berühmte Spitze des Eisbergs. Hinter diesen Fakten verbergen sich hochkomplexe Prozesse und entsprechend aufwendige Forschungen, die hier natürlich nicht beschrieben werden können. Nick Lane macht das großartig.
  2. Aber, treten wir ein paar Schritte zurück und fragen uns, was sich in diesen vielen Fakten an allgemeineren Strukturen andeutet.
  3. Offensichtlich nimmt man aktuell an, dass man mindestens die folgenden Strukturen unterscheiden sollte:
  4. Die heutigen eukaryotischen Zellen (Z_eu) (Zellen mit einem komplexen Kern und vielen Teilstrukturen inklusive ganzer ehemaliger Bakterien).
  5. Die heutigen Prokarytischen Zellen (Z_pro) als Bakterien (Z_ba) und die Archaeen (Z_ar)
  6. Eine Erzeugungsbeziehung zwischen Archaeen und Eukaryoten (g_ar.eu : Z_ar —> Z_eu)
  7. Bei dieser Erzeugungsbeziehung sind weitere Einflussfaktoren durch horizontalen Genaustausch nicht völlig ausgeschlossen.
  8. Es soll einen gemeinsamen Vorläufer (Z_pre) von Archaeen und Bakterien geben.
  9. Entsprechend muss es auch eine Erzeugungsbeziehung geben: g_pre.ar.ba: Z_pre —> Z_ba u Z_ar.
  10. Diese Strukturen und Erzeugungsbeziehungen haben nicht im Nichts stattgefunden, sondern haben geeignete Umgebungen ENV benötigt, die sowohl in großen Mengen und kontinuierlich die notwendigen Ausgangsmaterialien M0 bereit halten konnten wie auch die notwendigen Temperaturgefälle DT für die Ermöglichung der chemischen Prozesse: ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu>
  11. Ferner wird angenommen, dass die allgemeinen physikalisch-chemischen Gesetze (G) gelten und ausschließlich diese für das Auftreten und das Reagieren der verschiedenen beteiligten Materialien zuständig sind, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu, G>
  12. Dazu gehören auch jene Entstehungsprozesse, die aus den Ausgangsmaterialien M0 die Vorläuferzelle Z_pre hat entstehen lassen, also g_0: ENV x TD x M0 —> Z_pre, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_0, g_pre.ar.ba, g_ar.eu, G>
  13. Für den Bereich der eukaryotischen Zellen Z_eu werden mindestens angenommen DNA-Moleküle, Boten-RNA (mRNA), Transfer RNA (tRNA), ribosomale RNA (ribRNA) und Proteine PROT. Dazu weitere Großstrukturen wie Chromatin(e), Chromosomen, Mitochondrien, usw.
  14. Im Bereich der Erzeugungsprozesse muss man ferner eine Art zeitliche und logische Abhängigkeit annehmen, indem der jeweils spätere Hervorbringungsprozess andere frühere voraussetzt, also: G < g_0 < g_pre.ar.ba < g_ar.eu.
  15. Jeder dieser Hervorbringungsprozesse wiederum zeigt sich nicht im Nichts sondern nur beim Vorhandensein spezifischer Materialien M, die in ihrem beobachtbaren Verhalten phi indirekt das Wirken spezifischer Gesetze manifestieren. Ohne die Beobachtbarkeit spezifischer Materialien und deren Verhalten (Newtons berühmter Apfel, die Planetenbahnen der alten Astronomen, magnetische Kräfte, Vulkanausbrüche, geologische Ablagerungen usw.) wäre es nicht möglich, auf dahinter/ darunter/ damit .. wirkende Kräfte phi zu schließen, die man dann in Form von symbolischen Darstellungen als gesetzmäßige Beziehungen (Relationen, Funktionen, Axiome) beschreibt.
  16. Während das menschliche Denken beim Vorliegen von irgendwelchen beobachtbaren Materialien, deren Eigenschaften und Veränderungen spontan dazu neigt, diese als gegeben, als auftretend, als seiend, als objektiv, als Objekte zu unterstellen, tut sich das gleiche Denken sehr schwer, das durch diese Materialien sichtbare werdende Verhalten phi in gleicher Weise als gegeben, seiend, objektiv vorkommend zu denken.
  17. Obgleich die beobachtbaren Materialien ohne dieses unterstellte Verhalten sich in keiner Weise verändern würden, zögern wir, aus den beobachtbaren Veränderungen auf eine interne Eigenschaft der Materialien zu schließen. Im Falle von tierischen Lebewesen wissen wir mittlerweile, dass das gesamte Verhalten in einem Nervensystem gründet, das im Innern des Systems angeordnet ist und von da aus das Verhalten steuert. Aber wir tun  uns schwer, in analoger Weise anzunehmen, dass das überall beobachtbare Verhalten von Materialien nicht auch von Strukturen abhängig ist, die im Innern der Materialien zu verorten sind.
  18. Bei chemischen Molekülen unterstellt man die atomare Struktur mit den unterschiedlichen Bestandteilen, Ladungen und Reaktionstendenzen, die in Wechselwirkung mit der jeweiligen Umgebung sich spezifisch verändern können.
  19. Bei Atomen bleiben einem nur noch die unterscheidbaren Teilchen, aber auch diese haben mathematisch beschreibbare ( wenngleich in Form von Möglichkeitsräumen) Verhaltenstendenzen.
  20. Dann bleibt als letzter Referenzpunkt nur die reine Energie E. Diese kann man nicht direkt beobachten, nur in ihren Wirkungen. Mit anderen Worten, die Energie E enthält sowohl alle potentiellen Materialeigenschaften wie auch die dazu gehörigen Verhaltenstendenzen. In diesem Sinne repräsentiert die Energie E eine Art Superobjekt, in dem die in der Makrowelt bekannte Unterscheidung zwischen materiellen Strukturen und Verhalten nicht mehr gilt. Energie als Superobjekt beinhaltet Materie und deren Verhalten in einem. Um diesen Sachverhalt auszudrücken, ist die bekannte Formel von Einstein e = mc^2 möglicherweise zu ungenau. Sie bietet keine Möglichkeit, zwischen materiellen Strukturen und Verhalten zu unterscheiden. Das beobachtbare Verhalten ist aber genau die Sprache, in der sich das Innere der Dinge mitteilt. Alles,was uns Menschen fasziniert, das sind die Erscheinungen der Veränderungen, ihre Vielfalt, ihre Abfolge. Liebe enthüllt sich nur im Gewandte solcher Veränderungen, genauso wie Hass oder Treue. Wissen ist eingeflochten in eine Vielzahl von Strukturen und deren Veränderungen.
  21. Sowohl die Entwicklung des Universums vor dem ersten Auftreten von Leben wie erst recht dann mit dem Auftreten biologischer Strukturen ist ein Prozess immer komplexerer Verhaltensweisen, die in ihrer Dynamik Gesetze, Regeln, Strukturen erkennen lassen, die den Blick immer tiefer in das Innere aller Dinge öffnen. Das ist eigentlich unfassbar fantastisch, aber es scheint niemand besonders zu rühren.

Keine direkte, aber inhaltlich passende Fortsetzung könnte DIESE sein.

WEITERE QUELLEN/ LINKS (Selektiv)

  • Freie Protein-Datenbank: http://www.ebi.ac.uk/pdbe/ (siehe auch http://proteopedia.org/wiki/index.php/Main_Page )
  • Visualisierung von Proteindaten: https://de.wikipedia.org/wiki/Jmol und http://wiki.jmol.org/index.php/Jmol_Application#Starting_Jmol_Application
  • Proteine (Peptide): https://de.wikipedia.org/wiki/Protein
  • Aminosäuren: https://de.wikipedia.org/wiki/Aminos%C3%A4uren
  • Alpha-Ketoglutarate: https://en.wikipedia.org/wiki/Alpha-Ketoglutaric_acid
  • oxalocetate: https://en.wikipedia.org/wiki/Oxaloacetic_acid
  • Pyruvate: https://en.wikipedia.org/wiki/Pyruvic_acid
  • Punktmutation: https://de.wikipedia.org/wiki/Punktmutation
  • Spiegelmann Monster: https://de.wikipedia.org/wiki/Spiegelmans_Monster
  • Bakterien: https://de.wikipedia.org/wiki/Bakterien
  • Achaeen: https://de.wikipedia.org/wiki/Archaeen
  • Eukaryoten: https://de.wikipedia.org/wiki/Eukaryoten
  • Retroviren: https://de.wikipedia.org/wiki/Retroviren
  • Chromosom: https://de.wikipedia.org/wiki/Chromosom
  • Chromatin: https://de.wikipedia.org/wiki/Chromatin
  • CELL: B.Alberts, A.Johnson, J.Lewis (und andere), Molecular Biology of THE CELL, 6.Aufl., 2015, New York: Garland Science, Taylor and Francis Group, LLC.
  • V.Storch, U.Welsch, M.Wink (und andere), Evolutionsbiologie,3.überarbeitete und aktualisiere Aufl., 2013, Berlin – Heidelberg: Springer-Verlag
  • Francis Harry Compton Crick, Nobelpreisrede: http://www.nobelprize.org/nobel_prizes/medicine/laureates/1962/crick-lecture.html
  • Francis Harry Compton Crick Life Itself: Its Origin and Nature (Simon & Schuster, 1981) ISBN 0-671-25562-2
  • DNA WikiEN: https://en.wikipedia.org/wiki/DNA
  • RNA: https://de.wikipedia.org/wiki/Ribonukleins%C3%A4ure
  • Harold Morowitz: https://en.wikipedia.org/wiki/Harold_J._Morowitz (ein großes Thema: Wechselwirkung von Thermodynamik und Leben)
  • Michael J.Russel et al: http://www.gla.ac.uk/projects/originoflife/html/2001/pdf_articles.htm: The Origin of Life research project by Michael J. Russell & Allan J. Hall , University of Glasgow, May 2011
  • Krebs-Zyklus: https://en.wikipedia.org/wiki/Citric_acid_cycle
  • Martin W, Russell MJ., On the origin of biochemistry at an alkaline hydrothermal vent. , Philos Trans R Soc Lond B Biol Sci. 2007 Oct 29; 362(1486):1887-925.
  • Martin W, Baross J, Kelley D, Russell MJ., Hydrothermal vents and the origin of life., Nat Rev Microbiol. 2008 Nov; 6(11):805-14.
  • Harold Morowitz und Eric Smith , Energy flow and the organization of life , Journal Complexity archive, Vol. 13, Issue 1, September 2007, SS. 51 – 59 ,John Wiley & Sons, Inc. New York, NY, USA

Einen Überblick über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 18.August 2015 – INFORMATION IN DER MOLEKULARBIOLOGIE – Maynard-Smith

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

SPANNENDER PUNKT BEIM SCHREIBEN

1. Das Schreiben des Buches hat zu einem spannenden Punkt geführt, der mich seit Jahren umtreibt, den ich aber nie so richtig zu packen bekommen habe: alle große begriffliche Koordinaten laufen im Ereignis der Zelle als einer zentralen Manifestation von grundlegenden Prinzipien zusammen. Die Physik hat zwar generelle Vorarbeiten von unschätzbarem Wert geleistet, aber erst das Auftreten von selbst reproduzierenden molekularen Strukturen, die wir (biologische) Zellen nennen, macht Dynamiken sichtbar, die ‚oberhalb‘ ihrer ‚Bestandteile‘ liegen. Dies könnte man analog dem physikalischen Begriff der ‚Gravitation‘ sehen: dem physikalischen Begriff entspricht kein direktes Objekt, aber es beschreibt eine Dynamik, eine Gesetzmäßigkeit, die man anhand des Verhaltens der beobachtbaren Materie indirekt ‚ableitet‘.

DYNAMIK BIOLOGISCHER ZELLEN

2. Ähnlich verhält es sich mit verschiedenen Dynamiken von biologischen Zellen. Die Beschreibung ihrer einzelnen Bestandteile (Chromatin, Mitochondrien, Golgiapparat, Membran, …) als solcher sagt nichts darüber aus, was tatsächlich eine biologische Zelle charakterisiert. Ihre Haupteigenschaft ist die generelle Fähigkeit, eingebettet in eine allgemeine Entropiezunahme sich eine Struktur zu generieren, die sich temporär funktionsfähig halten kann und in der Lage ist, Informationen zu sammeln, mittels deren sie sich selbst so kopieren kann, dass die Kopie sich von neuem zu einer funktionsfähigen Struktur aufbauen kann. Wie dies im einzelnen chemisch realisiert wurde, ist beeindruckend, es ist atemberaubend, aber es ist letztlich austauschbar; für die Gesamtfunktion spielen die chemischen Details keine Rolle.

BEGRIFF INFORMATION

3. Und hier beginnt das Problem. Obwohl es von einem theoretischen Standpunkt aus klar ist, dass die Details noch nicht die eigentliche Geschichte erzählen, wird in den vielen umfangreichen Büchern über Genetik und Molekularbiologie die eigentliche ‚Story‘ nicht erzählt. Dies fängt schon an mit dem wichtigen Begriff der Information. Spätestens seit Schrödingers Buch von 1944 „What is Life?“ ist klar, dass das selbstreproduktive Verhalten von Zellen ohne das Genom nicht funktioniert. Und es wurde auch sehr bald der Begriff der Information eingeführt, um den ‚Inhalt‘ des Genoms theoretisch zu klassifizieren. Das Genom enthält ‚Informationen‘, aufgrund deren in einer Vererbung neue hinreichend ähnlich Strukturen entstehen können.

STATISTISCHER INFORMATIONSBEGRIFF

4. Leider wurde und wird der Informationsbegriff im Sinne des rein statistischen Informationsbegriffs von Shannon/ Weaver (1948) benutzt, der explizit Fragen möglicher Bedeutungsbezüge (Semantik) außen vor lässt. Damit ist er eigentlich weitgehend ungeeignet, der Rolle der im Genom verfügbaren Informationen gerect zu werden.

MEHR ALS STATISTIK

5. Einer, der diese Unzulänglichkeit des rein statistischen Informationsbegriffs für die Beschreibung der Rolle der Information im Kontext des Genoms und der Zelle samt ihrer Reproduktionsdynamik immer kritisiert hatte, war John Maynard Smith (1920 – 2004). In seinem Artikel “ The concept of information in biology“ von 2000 kann man dies wunderbar nachlesen.

6. Zwar hat auch Maynard Smith keine explizite übergreifende Theorie der Reproduktionsdynamik, aber er kann an verschiedenen Eigenschaften aufweisen, dass der rein statistische Informationsbegriff nicht ausreicht.

7. Während im Shannon-Weaver Modell ein fester Kode A von einem Sender in Transportereignisse übersetzt (kodiert) wird, die wiederum in den festen Kode A von einem Empfänger zurückübersetzt (dekodiert) werden, ist die Lage bei der Zelle anders.

8. Nimmt man an, dass der zu sendende Kode das DNA-Molekül ist, das in seiner Struktur eine potentielle Informationssequenz repräsentiert, dann ist der Sender eine Zelle in einer Umgebung. Der ‚DNA-Kode‘ (der feste Kode A) wird dann umgeschrieben (Transskription, Translation) in zwei verschiedene Kodes (mRNA, tRNA). Während man die Zustandsform des mRNA-Moleküls noch in Korrespondenz zum DNA-Kode sehen kann (abr nicht vollständig), enthalten die verschiedenen tRNA-Moleküle Bestandteile, die über den ursprünglichen DNA-Kode hinausgehen. Daraus wird dann eine Proteinstruktur erzeugt, die sowohl eine gewisse Kopie des ursprünglichen DNA-Moleküls (Kode A) enthält, aber auch zusätzlich einen kompletten Zellkörper, der mit dem Kode A nichts mehr zu tun hat. Außerdem gibt es den Empfänger bei Beginn der Übermittlung noch gar nicht. Der Empfänger wird im Prozess der Übermittlung erst erzeugt! Anders formuliert: beim biologischen Informationsaustausch im Rahmen einer Selbstreproduktion wird zunächst der potentielle Empfänger (eine andere Zelle) erzeugt, um dann den DNA-Kode im Empfänger neu zu verankern.

9. Innerhalb dieses Gesamtgeschehens gibt es mehrere Bereiche/ Phasen, in denen das Konzept eines rein statistischen Informationsbegriffs verlassen wird.

10. So weist Maynard Smith darauf hin, dass die Zuordnung von DNA-Sequenzen zu den später erzeugten Proteinen mindestens zweifach den statistischen Informationsbegriff übersteigt: (i) die erzeugten Proteinstrukturen als solche bilden keine einfache ‚Übersetzung‘ das DNA-Kodes verstanden als eine syntaktische Sequenz von definierten Einheiten eines definierten endlichen Alphabets. Die Proteinmoleküle kann man zwar auch als Sequenzen von Einheiten eines endlichen Alphabets auffassen, aber es handelt sich um ein ganz anderes Alphabet. Es ist eben nicht nur eine reine ‚Umschreibung‘ (‚Transkription‘), sondern eine ‚Übersetzung‘ (‚Translation‘, ‚Translatio‘), in die mehr Informationen eingehen, als die Ausgangssequenzen im DNA-Kode beinhalten. (ii) Der DNA-Kode enthält mindestens zwei Arten von Informationselementen: solche, die dann in Proteinstrukturen übersetzt werden können (mit Zusatzinformationen), und solche, die die Übersetzung der DNA-Informationselemente zeitlich steuern. Damit enthält der DNA-Kode selbst Elemente, die nicht rein statistisch zu betrachten sind, sondern die eine ‚Bedeutung‘ besitzen, eine ‚Semantik‘. Diese Bedeutung st nicht fixiert; sie kann sich ändern.

ALLGEMEINE ZEICHENLEHRE = SEMIOTIK

11. Für Elemente eines Kodes, denen ‚Bedeutungen‘ zugeordnet sind, gibt es in der Wissenschaft das begriffliche Instrumentarium der allgemeinen Zeichenlehre, spricht ‚Semiotik‘ (siehe z.B. Noeth 2000).

12. Nimmt man die empirischen Funde und die semiotische Begrifflichkeit ernst, dann haben wir es im Fall der Zelle also mit eindeutigen (und recht komplexen) Zeichenprozessen zu; man könnte von der Zelle in diesem Sinne also von einem ’semiotischen System‘ sprechen. Maynard Smith deutet den Grundbegriff von Jacques Lucien Monod (1910-1976) ‚gratuity‘ im Sinne, dass Signale in der Biologie ‚Zeichen‘ seien. Ob dies die Grundintention von Monod trifft, ist eine offene Frage; zumindest lässt die Maschinerie, die Monod beschreibt, diese Deutung zu.

13. Eine zusätzliche Komplikation beim biologischen Zeichenbegriff ergibt sich dadurch, dass eine Zelle ja nicht ‚isoliert‘ operiert. Eine Zelle ist normalerweise Teil einer Population in einer bestimmten Umgebung. Welche Strukturen der Proteinaufbauprozess (Wachstum, Ontogenese) auch hervorbringen mag, ob er gewisse Zeiten überdauert (gemessen in Generationen), hängt entscheidend davon ab, ob die Proteinstruktur in der Interaktion mit der Umgebung ‚hinreichend lange‘ jene ‚Arbeit‘ verrichten kann, die notwendig ist, um eine Selbstreproduktion zu ermöglichen.

14. Ob eine Proteinstruktur in diesem weiterführenden Sinne ‚lebensfähig‘ ist, hängt also entscheidend davon ab, ob sie zur jeweiligen Umgebung ‚passt‘. Eine lebensfähige Proteinstruktur ist in diesem Sinne – von einer höheren theoretischen Betrachtungsweise aus gesehen – nichts anderes als ein auf Interaktion basierendes ‚Echo‘ zur vorgegebenen Umgebung.

15. Dass dies ‚Echo‘ nicht ’stagniert‘, nicht ‚auf der Stelle tritt‘, nicht ‚um sich selbst kreist‘, liegt entscheidend daran, dass die ‚letzte‘ Struktur den Ausgangspunkt für ‚weitere Veränderungen‘ darstellt. Die Zufallsanteile im gesamten Selbstreproduktionsprozess fangen also nicht immer wieder ‚von vorne‘ an (also keine ‚Auswahl mit Zurücklegen‘), sondern sie entwickeln eine Informationsstruktur ‚weiter‘. In diesem Sinne bildet die Informationssequenz des DNA-Moleküls auch einen ‚Speicher‘, ein ‚Gedächtnis‘ von vergangenen erfolgreichen Versuchen. Je mehr Zellen in einer Population verfügbar sind, umso größer ist diese molekulare Erfolgsgedächtnis.

Diese Fortsetzung war nicht die letzte Zwischenreflexion. Es geht noch weiter: HIER

QUELLEN

Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
Claude E. Shannon, „A mathematical theory of communication“. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (URL: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; last visited May-15, 2008)
Claude E. Shannon; Warren Weaver (1948) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Wieweit können wir den ‘biologischen Geist’ durch einen ‘künstlichen Geist’ nachbilden? – Nachreflexion zur Philosophiewerkstatt vom 12.April 2015

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

1. Trotz wunderbarem Wetter draußen fand sich wieder eine interessante Gruppe von Philosophierenden am 12.April 2015 zur Philosophiewerkstatt in der DENKBAR zusammen.

2. Mittlerweile bildet sich ein ’spezifischer Stil‘ in der Philosophiewerkstatt heraus: Immer weniger vorgefertigter Input durch einen Eingangsvortrag, sondern stattdessen von Anfang an ein ‚gemeinsames Denken‘ entlang einer Fragestellung. Das ‚Gemeinsame‘ wird in einem aktuellen ‚Gedankenbild‘ festgehalten, ‚visualisiert‘, so dass die Vielfalt der Gedanken für alle sichtbar wird. Nichts geht verloren. Dies eröffnet dann jedem die Möglichkeit, anhand der sichtbaren Unterschiede, Lücken und Gemeinsamkeiten ‚fehlende Stücke‘ zu suchen, zu ergänzen, oder vorhandene Begriffe weiter zu erläutern.

3. Als ‚Rhythmus‘ des gemeinsamen Denkens erweist sich ein gemeinsamer Einstieg, dann ‚Blubberpause‘, dann Schlussrunde als sehr produktiv.

GEIST – BIOLOGISCH UND KÜNSTLICH

4. Ausgangspunkt waren die Begriffe ‚Geist‘, ‚Biologisch‘ sowie ‚Künstlich‘.

5. Auf einer Zeitachse betrachtet kann man grob sagen, dass der Begriff ‚Geist‘ in der antiken griechischen Philosophie eine zentrale Rolle gespielt hat, sich bis mindestens ins 19.Jahrhundert durchgehalten hat, dann aber – zumindest im Bereich der Naturwissenschaft – nahezu jegliche Verwendung verloren hat. In den heutigen Naturwissenschaften herrscht der Eindruck vor, man bräuchte den Begriff ‚Geist‘ nicht mehr. Zugleich fehlen damit auch alle ‚Unterstützungsmerkmale‘ für jenes Wertesystem, das einer demokratischen Staatsform wie der deutschen Demokratie zugrunde liegt. ‚Menschenwürde‘ in Art.1 des Grundgesetzes hat im Lichte der aktuellen Naturwissenschaften keine Bedeutung mehr.

6. Gleichfalls auf der Zeitachse beobachten wir, dass das Paradigma der ‚Maschine‘ mit dem Aufkommen des theoretischen Begriffs des Automaten (erste Hälfte des 20.Jahrhunderts) und der Bereitstellung von geeigneter Technologie (Computer) einen neuen Begriff von ‚Künstlichkeit‘ ermöglicht: der Computer als programmierbare Maschine erlaubt die Nachbildung von immer mehr Verhaltensweisen, die wir sonst nur von biologischen Systemen kennen. Je mehr dies geschieht, umso mehr stellt sich die Frage, wieweit diese neue ‚Künstlichkeit‘ letztlich alle ‚Eigenschaften‘ des Biologischen, insbesondere auch ‚intelligentes Verhalten‘ bzw. den ‚Geist im Biologischen‘ nachbilden kann?

GEIST – SUBJEKTIV UND OBJEKTIV NEURONAL

7. Im Bereich des Biologischen können wir seit dem 20.Jahrhundert auch zunehmend differenzieren zwischen der subjektiven Dimension des Geistes im Bereich unseres Erlebens, des Bewusstseins, und den körperlichen, speziell neuronalen Prozessen im Gehirn, die mit den subjektiven Prozessen korrelieren. Zwar ist die ‚Messgenauigkeit‘ sowohl des Subjektiven wie auch des Neuronalen noch nicht besonders gut, aber man kann schon erstaunlich viele Korrelationen identifizieren, die sehr vielen, auch grundsätzlichen subjektiv-geistigen Phänomenen auf diese Weise neuronale Strukturen und Prozesse zuordnen, die zur ‚Erklärung‘ benutzt werden können. Sofern man dies tun kann und es dann auch tut, werden die subjektiv-geistigen Phänomene in die Sprache neuronaler Prozesse übersetzt; damit wirken diese subjektiven Begriffe leicht ‚obsolet‘, ‚überflüssig‘. Zugleich tritt damit möglicherweise eine Nivellierung ein, eine ‚Reduktion‘ von spezifischen ‚Makrophänomenen‘ auf unspezifische neuronale Mechanismen, wie sie sich in allen Lebewesen finden. Erklärung im Stil von Reduktion kann gefährlich sein, wenn man damit interessante Phänomene ‚unsichtbar‘ macht, die eigentlich auf komplexere Mechanismen hindeuten, als die ‚einfachen‘ Bestandteile eines Systems.

MATERIE – INFORMATION1 und INFORMATION2

8. Im Bereich der materiellen Struktur unseres Universums hat es sich eingebürgert, dass man die physikalische Entropie mit einem Ordnungsbegriff korreliert und darüber auch mit dem statistischen Informationsbegriff von Shannon. Ich nenne diesen Informationsbegriff hier Information1.

9. Davon zu unterscheiden ist ein anderer Informationsbegriff – den ich hier Information2 nenne –, der über die Statistik hinausgeht und eine Abbildung impliziert, nämlich die Abbildung von einer Struktur auf eine andere. Im Sinne der Semiotik (:= allgemeine Lehre von den Zeichen) kann man dies als eine ‚Bedeutungsbeziehung‘ deuten, für die es auch den Begriff ’semantische Beziehung‘ gibt. Für die Realisierung einer Bedeutungsbeziehung im Sinne von Information2 benötigt man im physikalischen Raum minimal drei Elemente: eine Ausgangsgröße, eine Zielgröße und eine ‚vermittelnde Instanz‘.

10. Im Falle der Selbstreproduktion der biologischen Zellen kann man genau solch eine Struktur identifizieren: (i) die Ausgangsgröße sind solche Moleküle, deren physikalische Eigenschaften ‚für den Vermittler‘ als ‚Informationen2‘ gedeutet werden können; (ii) die Zielgröße sind jene Verbindungen von Molekülen, die generiert werden sollen; (iii) die vermittelnde Instanz sind jene Moleküle, die die Moleküle mit Information2 ‚lesen‘ und dann die ‚Generierungsprozesse‘ für die Zielgrößen anstoßen. Dies ist ein komplexes Verhalten, das sich aus den beteiligten Elementen nicht direkt ableiten lässt. Nur auf den Prozess als solchen zu verweisen, ‚erklärt‘ in diesem Fall eigentlich nichts.

11. Interessant wird dies nun, wenn man bedenkt, dass das mathematische Konzept, das den heutigen Computern zugrunde liegt, der Begriff des programmierten Automaten, ebenfalls solch eine Struktur besitzt, die es ermöglicht, Information2 zu realisieren.

12. Dies bedeutet, dass sowohl der ‚Kern‘ des Biologischen wie auch der ‚Kern‘ des neuen Künstlichen beide die Grundstruktur von Information2 repräsentieren.

13. Sofern nun das ‚Lebendige‘, das ‚Geistige‘ reduzierbar sind auf eine Information2-fähige Struktur, müsste man nun folgern, dass die Computertechnologie das gleiche Potential besitzt wie das Biologische.

OFFENE FRAGEN

14. Offen bleibt – und blieb bei dem Werkstattgespräch –, ob diese Reduktion tatsächlich möglich ist.

15. Die Frage, ob eine reduktionistische Erklärungsstrategie ausreichend und angemessen ist, um die komplexen Phänomene des Lebens zu deuten, wird schon seit vielen Jahren diskutiert.

16. Eine reduktionistische Erklärungsstrategie wäre ‚unangemessen‘, wenn man sagen könnte/ müsste, dass die Angabe einer Verhaltensfunktion f: I –-> O auf der Basis der beobachteten Reaktionen (Input I, Output O) eines Systems ‚Eigenschaften des Systems‘ sichtbar macht, die sich durch die bekannten Systembestandteile als solche nicht erklären lassen. Dies gilt verstärkt, wenn die Bestandteile eines Systems (z.B.die physikalischen Gatter im Computer oder die Neuronen im Gehirn) von sich aus keinerlei oder ein rein zufälliges Verhalten zeigen, es sei denn, man würde – im Falle des Computers – ‚in‘ die Menge der Gatter eine ‚Funktion‘ ‚hineinlegen‘, die dazu führt, dass sich die Gatter in dieser bestimmten Weise ‚verhalten‘. Würde man nun dieses spezifische Verhalten dadurch ‚erklären‘ wollen, dass man einfach die vorhandenen Gatter verweist, würde man gerade nicht erklären, was zu erklären wäre. Überträgt man diesen Befund auf biologische oder generell physikalische Systeme, dann müsste man mindestens mal die Frage stellen, ob man mit den reduktionistischen Strategien nicht genau das vernichtet, was man erklären sollte.

17. Eine Reihe von Physikern (Schrödinger, Davis) haben das Auftreten von Information2 im Kontexte des Biologischen jedenfalls als eigenständiges Phänomen gewürdigt, das man nicht einfach mit den bekannten physikalischen Erklärungsmodellen ‚erklären‘ kann.

AUSBLICK PHILOSOPHIEWERKSTATT MAI UND JUNI

18. Die nächste Philosophiewerkstatt am 10.Mai 2015 will sich der Frage widmen, wie ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden kann. Speziell auch die Frage, welche Wirkung man überhaupt noch erzielen kann? Ist nicht irgendwie alles egal?

19. Die Philosophiewerkstatt am 14.Juni ist die letzte Werkstatt vor der Sommerpause. Es wird im Anschluss an die Sitzung ein offener Abend mit voller Restauration angeboten werden und mit der Möglichkeit, über das weitere Vorgehen zu diskutieren (welche Formate, zusätzliche Ereignisse,…).

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500

Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 3

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 25.Okt.2012, 23:30h
Letzte Änderung: 10.Nov. 2012, 10:30h

Für Teil2 siehe HIER

  1. [ANMERKUNG: Obwohl Duve den Begriff der Information im Text immer wieder verwendet, wird der Begriff bislang nicht definiert. Selbst an der Stelle, an der er vom Ende der chemischen Evolution spricht, die dann mit Hilfe von DNA/ RNA in die informationsgeleitete Entwicklung übergeht, findet man keine weitere Erklärung. Der einzige greifbare Anhaltspunkt ist der Bezug zur DNA/ RNA, wobei offen bleibt, warum die DNA der RNA vorgeschaltet wurde.]
  2. Duve beschreibt den Kernsachverhalt so, dass wir ein Abhängigkeitsverhältnis haben von der DNA (die zur Replikation fähig ist) über eine Transkription zur RNA (die in speziellen Fällen, Viren, auch zur Replikation fähig ist) mittels Translation (Übersetzung) zu den Proteinen (vgl. S.55f) ; von den Proteinen gäbe es keinen Weg zurück zur RNA (vgl. S.56f). Die RNA hat dabei auch eine enzymatisch-katalytische Rolle.
  3. [ANMERKUNG: Für einen Interpretationsversuch zur möglichen Bedeutung des Begriffs ‚Information‘ in diesem Kontext bietet sich vor allem der Sachverhalt an, dass die ‚Konstruktion‘ eines DNA-Moleküls bzgl. der Anordnung der einzelnen Aminosäurebausteinen nicht deterministisch festgelegt ist. Ist erst einmal ein DNA-Molekül ‚zustande gekommen‘, dann kann es innerhalb des Replikationsmechanismus (kopieren, mischen und mutieren) so verändert werden, dass es nach der Replikation ‚anders‘ aussieht. Diese nicht-deterministischen Veränderungsprozesse sind völlig unabhängig von ihrer möglichen ‚Bedeutung‘! Es ist etwa so, wie ein kleines Kind, das mit einem Haufen von Buchstaben spielen würde, allerdings mit der kleinen Vorgabe, dass es eine fertige ‚Kette‘ von Buchstaben bekommen würde, die es zerschneiden darf, neu zusammenfügen, und gelegentlich einzelne Stellen austauschen darf.
  4. Die Übersetzung dieser DNA-Ketten in Proteine erfolgt dann über den RNA-gesteuerten Mechanismus. Diese Übersetzung folgt ‚in sich‘ festen Regeln, ist von daher im Prinzip deterministisch. Dies bedeutet, dass ohne die DNA-Ketten zwar deterministische Prozesse möglich sind, allerdings ohne die ‚freie Kombinierbarkeit‘ wie im Falle der DNA-Ketten (was aber, siehe Viren, im Prinzp auch gehen könnte). Die standardmäßige Trennung von Replikation und Translation deutet indirekt daraufhin, dass mit dieser Trennung irgendwelche ‚Vorteile‘ einher zugehen scheinen.
  5. Der Clou scheint also darin zu liegen, dass durch die Entkopplung von chemisch fixierten (deterministischen) Übersetzungsmechanismen von den freien erinnerungs- und zufallsgesteuerten Generierungen von DNA-Ketten überhaupt erst die Voraussetzung geschaffen wurde, dass sich das ‚Zeichenmaterial‘ von dem ‚Bedeutungsmaterial‘ trennen konnte. Damit wiederum wurde überhaupt erst die Voraussetzung für die Entstehung von ‚Zeichen‘ im semiotischen Sinne geschaffen (zu ‚Zeichen‘ und ’semiotisch‘ siehe Noeth (2000)). Denn nur dann, wenn die Zuordnung zwischen dem ‚Zeichenmaterial‘ und dem möglichen ‚Bedeutungsmaterial‘ nicht fixiert ist, kann man von einem Zeichen im semiotischen Sinne sprechen. Wir haben es also hier mit der Geburt des Zeichens zu tun (und damit, wenn man dies unbedingt will, von den ersten unübersehbaren Anzeichen von Geist!!!).
  6. Die Rede von der Information ist in diesem Kontext daher mindestens missverständlich, wenn nicht gar schlichtweg falsch. Bislang gibt es überhaupt keine allgemeine Definition von Information. Der Shannonsche Informationsbegriff (siehe Shannon und Weaver (1948)) bezieht sich ausschließlich auf Verteilungseigenschaften von Elementen einer endlichen Menge von Elementen, die als Zeichenmaterial (Alphabet) in einem technischen Übermittlungsprozeß benutzt werden, völlig unabhängig von ihrer möglichen Bedeutung. Mit Zeichen im semiotischen Sinne haben diese Alphabetelemente nichts zu tun. Daher kann Shannon in seiner Theorie sagen, dass ein Element umso ‚wichtiger‘ ist, je seltener es ist.  Hier von ‚Information‘ zu sprechen ist technisch möglich, wenn man weiß, was man definiert; diese Art von Information hat aber mit der ‚Bedeutung‘ von Zeichen bzw. der ‚Bedeutung‘ im Kontext von DNA-Ketten nichts zu tun. Die Shannonsche Information gab und gibt es auch unabhängig von der Konstellation DNA – RNA – Proteine.
  7. Auch der Informationsbegriff von Chaitin (1987, 2001) bezieht sich ausschließlich auf Verteilungseigenschaften von Zeichenketten. Je weniger ‚Zufall‘ bei der Bildung solcher Ketten eine Rolle spielt, also je mehr ‚regelhafte Wiederholungen (Muster, Pattern)‘ auftreten, um so eher kann man diese Ketten komprimieren. Benutzt man dann dazu das Shannonsche Konzept, dass der ‚Informationsgehalt‘ (wohlgemerkt ‚Gehalt‘ hier nicht im Sinne von ‚Bedeutung‘ sondern im Sinne von ‚Seltenheit‘!) umso größer sei, je ’seltener‘ ein Element auftritt, dann nimmt der Informationsgehalt von Zeichenketten mit der Zunahme von Wiederholungen ab. Insofern Zeichenketten bei Chaitin Algorithmen repräsentieren können, also mögliche Anweisungen für eine rechnende Maschine, dann hätten nach dieser Terminologie jene Algorithmen den höchsten ‚Informationsgehalt (im Sinne von Shannon)‘, die die wenigsten ‚Wiederholungen‘ aufwiesen; das wären genau jene, die durch eine ‚zufällige Bildung‘ zustande kommen.
  8. Lassen wir den weiteren Aspekt mit der Verarbeitung durch eine rechnende Maschine hier momentan mal außer Betracht (sollte wir später aber noch weiter diskutieren), dann hätten DNA-Ketten aufgrund ihrer zufälligen Bildung von ihrer Entstehung her einen maximale Informationsgehalt (was die Verteilung betrifft).
  9. Die Aussage, dass mit der DNA-RNA die ‚Information‘ in das Geschehen eingreift, ist also eher nichtssagend bzw. falsch. Dennoch machen die speziellen Informationsbegriffe von Shannon und Chaitin etwas deutlich, was die Ungeheuerlichkeit an der ‚Geburt des Zeichens‘ verstärkt: die zufallsgesteuerte Konstruktion von DNA-Ketten verleiht ihnen nicht nur eine minimale Redundanz (Shannon, Chaitin) sondern lässt die Frage aufkommen, wie es möglich ist, dass ‚zufällige‘ DNA-Ketten über ihre RNA-Interpretation, die in sich ‚fixiert‘ ist, Protein-Strukturen beschreiben können, die in der vorausgesetzten Welt lebensfähig sind? Zwar gibt es im Kontext der biologischen (= zeichengesteuerten) Evolution noch das Moment der ‚Selektion‘ durch die Umwelt, aber interessant ist ja, wie es durch einen rein ‚zufallsgesteuerten‘ DNA-Bildungsprozess zu Ketten kommen kann, die sich dann ‚positiv‘ selektieren lassen. Dieses Paradox wird umso stärker, je komplexer die Proteinstrukturen sind, die auf diese Weise erzeugt werden. Die ‚Geordnetheit‘ schon einer einzigen Zelle ist so immens groß, dass eine Beschreibung dieser Geordnetheit durch einen ‚zufälligen‘ Prozess absurd erscheint. Offensichtlich gibt es hier noch einen weiteren Faktor, der bislang nicht klar identifiziert wurde (und der muss im Generierungsprozess von DNA-Ketten stecken).]
  10. [ANMERKUNG: Eine erste Antwort steckt vielleicht in den spekulativen Überlegungen von Duve, wenn er die Arbeiten von Spiegelmann (1967), Orgel (1979) und Eigen (1981) diskutiert (vgl. S.57-62). Diese Arbeiten deuten daraufhin, dass RNA-Molküle Replizieren können und Ansätze zu evolutionären Prozessen aufweisen. Andererseits sind RNA-Moleküle durch Übersetzungsprozesse an Proteinstrukturen gekoppelt. Wenn also beispielsweise die RNA-Moleküle vor den DNA-Ketten auftraten, dann gab es schon RNA-Ketten, die sich in ihrer jeweiligen Umgebung ‚bewährt‘ hatten. Wenn nun — auf eine Weise, die Duve nicht beschreibt — zusätzlich zu den RNA-Ketten DNA-Ketten entstanden sind, die primär nur zur Replikation da waren und die RNA-Ketten dann ’nur‘ noch für die Übersetzung in Proteinstrukturen ‚zuständig‘ waren, dann haben die DNA-Ketten nicht bei ‚Null‘ begonnen sondern repräsentierten potentielle Proteinstrukturen, die sich schon ‚bewährt‘ hatten. Der Replikationsmechanismus stellte damit eine lokale Strategie dar, wie die im realen Raum vorhandenen DNA/ RNA-Ketten den ‚unbekannten Raum‘ möglicher weiterer Proteinstrukturen dadurch ‚absuchen‘ konnten, dass neue ‚Suchanfragen‘ in Form neuer DNA-Moleküle gebildet wurden. Der ‚Akteur‘ war in diesem Fall die komplette Umgebung (Teil der Erde), die mit ihren physikalisch-chemischen Eigenschaften diese Replikationsprozesse ‚induzierte‘. Die einzige Voraussetzung für einen möglichen Erfolg dieser Strategie bestand darin, dass die ‚Sprache der DNA‘ ‚ausdrucksstark‘ genug war, alle für das ‚hochorganisierte Leben‘ notwendigen ‚Ausdrücke‘ ‚bilden‘ zu können. Betrachtet man den RNA-Proteinkonstruktionsprozess als die ‚Maschine‘ und die DNA-Ketten als die ‚Anweisungen‘, dann muss es zwischen der RNA-Proteinmaschine‘ und den DNA-Anweisungen eine hinreichende Entsprechung geben.]
  11. [ANMERKUNG: Die Überlegungen von Duve haben einen weiteren kritischen Punkt erreicht. Um die Optimierung des Zusammenspiels zwischen RNA und Proteinen und ihren Vorformen erklären zu können, benötigt er einen Rückkopplungsmechanismus, der ein schon vorhandenes ‚Zusammenspiel‘ von allen beteiligten Komponenten in einer gemeinsamen übergeordneten Einheit voraussetzt. Diese hypothetische übergeordnete gemeinsame Einheit nennt er ‚Protozelle‘ (‚protocell‘). (vgl.S.65f)]
  12. Die Protein-Erzeugungsmaschinerie (‚proteine-synthesizing machinery‘) besteht aus mehreren Komponenten. (i) Das Ribosom heftet eine Aminosäure an eine wachsende Peptid-Kette, quasi ‚blindlings‘ entsprechend den determinierenden chemischen Eigenschaften. (vgl. S.66) Das Bindeglied zwischen den ‚informierenden‘ Aminosäuren und den zu bildenden Petidketten (Proteinen) bildet die ‚Boten-RNA‘ (‚messenger RNA, mRNA‘), in der jeweils 3 Aminosäuren (Aminosäuren-Triplets) als ‚Kodon‘, also 4^3=64, eine von 64 möglichen Zieleinheiten kodieren. Dem Kodon entspricht in einer ‚Transport-RNA‘ (‚transfer-RNA, tRNA‘) dann ein ‚Antikodon‘ (ein chemisch komplementäres Aminosäure-Triplet), an das genau eine von den 22 (21) biogenen Aminosäuren ‚angehängt‘ ist. Durch diesen deterministischen Zuordnungsprozess von mRNA-Kodon zu tRNA-Antikodon und dann Aminosäure kann eine Peptidkette (Protein) Schritt für Schritt entstehen. Diejenigen Zieleinheiten aus den 64 Möglichen, die nicht in eine Aminosäure übersetzt werden, bilden ‚Befehle‘ für die ‚Arbeitsweise‘ wie z.B. ‚Start‘, ‚Stopp‘. Dieser ‚Kode‘ soll nach Duve ‚universal‘ für alle Lebewesen gelten. (vgl. S.66f)
  13. [ANMERKUNG: Für eine vergleichende Lektüre zu diesem zentralen Vorgang der Proteinbildung sei empfohlen, die immer sehr aktuellen Versionen der entsprechenden englischsprachigen Wikipediabeiträge zu lesen (siehe unten Wkipedia (en).]
  14. Duve weist ausdrücklich darauf hin, dass die eigentliche ‚Übersetzung‘, die eigentliche ‚Kodierung‘ außerhalb, vorab zu dem mRNA-tRNA Mechanismus liegt. Der ribosomale Konstruktionsprozess übernimmt ja einfach die Zuordnung von Antikodon und Aminosäure, wie sie die Transfer-RNA liefert. Wann, wie und wo kam es aber zur Kodierung von Antikodon und Aminosäure in dem Format, das dann schließlich zum ‚Standard‘ wurde? (vgl. S.69)
  15. Letztlich scheint Duve an diesem Punkt auf der Stelle zu treten. Er wiederholt hier nur die Tatsachen, dass RNA-Moleküle mindestens in der dreifachen Funktionalität (Botschaft, Transfer und Konformal) auftreten können und dass sich diese drei Funktionen beim Zusammenbauen von Peptidketten ergänzen. Er projiziert diese Möglichkeit in die Vergangenheit als möglichen Erklärungsansatz, wobei diese reine Möglichkeit der Peptidwerdung keinen direkten ‚evolutionären Fitnesswert‘ erkennen lässt, der einen bestimmte Entwicklungsprozess steuern könnte.(vgl. S.69f) Er präzisiert weiter, dass der ‚Optimierung‘ darin bestanden haben muss, dass — in einer ersten Phase — ein bestimmtes Transfer-RNA Molekül hochspezifisch nur eine bestimmte Aminosäure kodiert. In einer nachfolgenden Phase konzentrierte sich die Optimierung dann auf die Auswahl der richtigen Boten-RNA. (vgl.S.70f)
  16. [ANMERKUNG: Das alles ist hochspekulativ. Andererseits, die ‚Dunkelheit‘ des Entstehungsprozesses ist nicht ‚völlige Schwärze‘, sondern eher ein ’nebliges Grau‘, da man sich zumindest grundsätzlich Mechanismen vorstellen kann, wie es gewesen sein könnte.]
  17. Duve reflektiert auch über mögliche chemische Präferenzen und Beschränkungen innerhalb der Bildung der Zuordnung (= Kodierung) von Kodons und Antikodons mit der Einschätzung, dass die fassbaren chemischen Eigenschaften darauf hindeuten, dass eine solche Zuordnung nicht ohne jede Beschränkung, sprich ’nicht rein zufällig‘ stattgefunden hat.(vgl. S.72f)
  18. [ANMERKUNG: Der spekulative Charakter bleibt, nicht zuletzt auch deswegen, weil Duve schon für den ‚evolutionären‘ Charakter der Kodon-Antikodon Entwicklung das fiktive Konzept einer ‚Protozelle‘ voraussetzen muss, deren Verfügbarkeit vollständig im Dunkel liegt. Etwas kaum Verstandenes (= die Kodon-Antikodon Zuordnung) wird durch etwas an dieser Stelle vollständig Unverstandenes (= das Konzept der Protozelle) ‚erklärt‘. Natürlich ist dies keine echte Kritik an Duve; schließlich versucht er ja — und darin mutig — im Nebel der verfügbaren Hypothesen einen Weg zu finden, der vielleicht weiter führen könnte. In solchen unbefriedigenden Situationen wäre eine ‚vornehme Zurückhaltung‘ fehl am Platze; Suchen ist allemal gefährlich… ]
  19. Duve geht jedenfalls von der Annahme aus, dass ein evolutionärer Prozess nur in dem Umfang effektiv einsetzen konnte, als die Veränderung der Kodon-Antikodon Zuordnung samt den daraus resultierenden chemischen Prozessen (Katalysen, Metabolismus…) insgesamt ein Trägersystem — in diesem Fall die vorausgesetzte Protozelle — ‚positiv‘ unterstützte und ‚überlebensfähiger‘ machte. (vgl. S.73f)
  20. Ungeachtet der Schwierigkeit, die Details des Entstehungsprozesses zum jetzigen Zeitpunkt zu enthüllen, versucht Duve weitere Argumente zu versammeln, die aufgrund allgemeiner Eigenschaften des Entstehungsprozesses den evolutionären Charakter dieses Prozesses weiter untermauern.
  21. Generell gehört es zu einem evolutionären Prozess, dass die Entwicklung zum Zeitpunkt t nur auf das zurückgreifen kann, was an Möglichkeiten zum Zeitpunkt t-1 zur Verfügung gestellt wird, also change: STATE —> STATE. Dies schränkt den Raum der Möglichkeiten grundsätzlich stark ein. (vgl. S.75, 77)
  22. Da es bei der Übersetzung von mRNA in Peptide zu Fehlern kommen kann (Duve zitiert Eigen mit der quantitativen Angabe, dass auf 70 – 100 übersetzten Aminosäuren 1 Baustein falsch ist ), bedeutet dies dass die ersten Kodon-Antikodon Zuordnungen in Gestalt von mRNA Molekülen aufgrund dieser Fehlerrate nur 60 – 90 Einheiten lang sein konnten, also nur 20 – 30 Aminosäuren kodieren konnten. (vgl. S.76)
  23. Rein kombinatorisch umfasst der Möglichkeitsraum bei 20 Aminosäuren 20^n viele Varianten, also schon bei einer Länge von nur 100 Aminosäuren 10^130 verschiedene Moleküle. Rein praktisch erscheint nach Duve ein solcher Möglichkeitsraum zu groß. Nimmt man hingegen an — was nach Duve der tatsächlichen historischen Situation eher entsprechen soll –, dass es zu Beginn nur 8 verschiedene Aminosäuren gab die zu Ketten mit n=20 verknüpft wurden, dann hätte man nur 8^20 = 10^18 Möglichkeiten zu untersuchen. In einem kleinen Tümpel (‚pond‘) erscheint das ‚Ausprobieren‘ von 10^18 Variationen nach Duve nicht unrealistisch.(vgl. S.76)
  24. Schließlich führt Duve noch das Prinzip der ‚Modularität‘ ein: RNA-Moleküle werde nicht einfach nur ‚Elementweise‘ verlängert, sondern ganze ‚Blöcke‘ von erprobten Sequenzen werden kombiniert. Dies reduziert einserseits den kombinatorischen Raum drastisch, andererseits erhöht dies die Stabilität. (vgl. S.77)

Fortsetzung folgt…

LITERATURVERWEISE

Chaitin, G.J; Algorithmic information theory. Cambridge: UK, Cambridge University Press, (first:1987), rev.ed. 1988, 1990, 1992, ,paperback 2004

Chaitin, G.J; Exploring Randomness. London: UK, Springer Ltd., (2001, corr. 2001), 3rd printing 2002

Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000

Claude E. Shannon A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (online: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; zuletzt besucht: May-15, 2008)

Claude E. Shannon; Warren Weaver The mathematical theory of communication. Urbana – Chicgo: University of Illinois Press, 1948.

Wikipedia (en): Genetischer Kode: http://en.wikipedia.org/wiki/Genetic_code, Ribosom: http://en.wikipedia.org/wiki/Ribosome, Protein Biosynthesis: http://en.wikipedia.org/wiki/Protein_biosynthesis, Aminosäuren: http://en.wikipedia.org/wiki/Amino_acid, Proteinoide Aminosäuren:http://en.wikipedia.org/wiki/Proteinogenic_amino_acid (Alle Links zuletzt besucht: Mo, 29.Okt.2012)

Für einen Überblick über alle bisherigen Einträge nach Titeln siehe HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"

    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER

 

DIE ANDERE DIFFERENZ – Teil3 – Definition des Lebens

(1) Nachdem in vorausgehenden Blogeinträgen das biologische Leben mit dem Konzept der ‚anderen Differenz‘ beschrieben wurde ergänzt um   ein paar theoretische Überlegungen zu möglichen formalen Modellen, hier nochmals kurze Überlegungen zur ‚Definition‘ von ‚Leben‘.

 

(2) Definitionen im Sinne der formalen Logik sind solche Begriffe (‚Terme‘), die als ‚Abkürzungen‘ für eine Menge ’schon bekannter Eigenschaften‘ eingeführt werden. Also Definiendum := Definiens; das ‚Definiendum‘ ist das zu Erklärende und das ‚Definiens‘ ist das schon Bekannte, mit dem erklärt wird.

 

 

(3) Solch eine Definition sieht unscheinbar aus, stellt aber einen ‚Auswahlprozess‘ dar: aus der großen Menge E der verfügbaren bekannten Eigenschaften wird eine kleine Teilmenge E‘ ausgewählt, die künftig unter einem neuen ‚Namen‘ (Label) auftreten soll, da der Autor einer solchen  Einführung Gründe hat (das wird jetzt mal unterstellt), genau diese Eigenschaften E‘ als in mindestens einer ‚Hinsicht‘ als ‚relevant‘ anzusehen.

 

(4) Sofern es sich bei solchen Eigenschaften E‘ um ‚empirische Eigenschaften‘ handelt, also Eigenschaften von Dingen, die sich im intersubjektiven Raum ‚beobachten‘ – oder gar ‚messen‘ – lassen, kann eine solche Auswahl möglicherweise eine Menge von Eigenschaften beschreiben, die ein ‚zusammenhängendes Phänomen‘ beschreiben. Beispiele wären technische Geräte (Kafffeemaschine, Mobiltelefon, Waschmaschine,….) oder Gebäude (Einfamilienhaus, Bürogebäude, Brücke, …), aber auch Pflanzen und Tiere, oder Kombinationen davon wie eine ‚Viehweide‘, ein ‚Reservat‘, ein ‚Sumpfgebiet‘, ein ‚Dschungel‘, usw. Ein ‚zusammenhängendes Phänomen‘ wäre in diesem Sinne also so etwas wie ein ‚Gegenstand‘, ein ‚Objekt‘, eventuell mit ‚unscharfen Rändern‘, wo man unsicher ist, ob dies auch noch ein ‚Haus‘, ein ‚Telefon‘ oder eine bestimmte ‚Pflanze‘ ist.

 

(5) Die Bildung einer Auswahl von Eigenschaften E‘ mit einem neuen ‚Namen‘, mit einer neuen ‚Abkürzung‘, stellt im ’normalen Leben‘ meist ein Vorgang dar, bei dem Menschen versuchen solche Eigenschaftsbündel E‘ hervor zu heben, die für den praktischen Ablauf des Lebens irgendwie eine Bedeutung haben und die in dieser spezifischen Konstellation ‚vorkommen‘. Während bei technischen Geräten der Hersteller in der Regel sagen kann, welche Eigenschaften sein Gerät ‚laut Plan‘ haben soll (und wir aufgrund von solchen Angaben auch die Korrektheit und Vollständigkeit eines Gerätes samt seiner Funktion normalerweise überprüfen können), ist es bei  ’natürlichen Gegenständen‘ zunächst mal so, dass wir nicht wissen, was ‚laut Plan‘ dazugehören soll. Geologische und klimatische Prozesse z.B. sind so komplex, dass wir bis heute nicht nur viele konkrete Experimente anstellen müssen, um Hinweise DAT_emp auf ‚beteiligte Eigenschaften‘ ‚finden‘ zu müssen, wir können aufgrund solcher empirischer Messwerte DAT_emp mit den bisher bekannten Modellen TH_emp immer nur sehr begrenze Aussagen machen, Annäherungen an den Gesamtzusammenhang. Im Falle biologischer Gegenstände haben wir gelernt, dass wir mit RNA- bzw. DNA-Molekülen die ‚Pläne‘ für die daraus sich entwickelnden Pflanzen und Tieren vorliegen haben, eine genaue Zuordnung zwischen einem solchen RNA-/ DNA-Plan und den daraus sich ergebenden individuellen Wachstumsprozessen (Ontogenese) lässt sich aber bislang nur sehr begrenzt treffen. Immerhin hat man mit diesen Plänen eine Art ‚Signatur‘ des jeweiligen zugehörigen Organismus in der Hand, und diese Signaturen kann man miteinander vergleichen. ‚Ähnlichkeiten‘ zwischen solchen Signaturen werden dann als ‚genetische Verwandtschaft‘ gedeutet; je ähnlicher umso mehr miteinander verwandt.

 

(6) Wenn es nun darum geht, zu definieren, was man unter dem neuen Begriff  ‚(biologisches) Leben‘ verstehen, dann steht man vor der Herausforderung, zu entscheiden, welche der bekannten empirischen Eigenschaften E‘ man als ‚relevant‘ ansieht für diesen Begriff. Welche Eigenschaft E’_i muss man unbedingt ‚dazutun‘ und zwar so, dass ein Verzicht auf diese Eigenschaft E’_i den Begriff wesentlich ‚unvollständig‘ machen würde, also E‘ = {E’_1, E’_2, …}.

 

(7) Wichtig hierbei ist schon der Hinweis ‚bekannt‘: wer immer sich an solch einer Begriffsbildung versucht, er wird das Problem haben, dass er/ sie immer nur aus jenen Eigenschaften E auswählen kann, die zu diesem Zeitpunkt ‚bekannt‘ sind. Das ‚verfügbare Wissen E‘ ist zu jeder Zeit t unterschiedlich gewesen, und auch innerhalb einer Zeitspanne (t, t‘) kann das verfügbare Wissen bei verschiedenen Menschen sehr unterschiedlich sein (ein Spezialist für Pflanzenkunde wird in der Regel über ein ganz anderes Wissen E_x von E verfügen wie ein Jurist E_x‘ oder ein Schreiner E_x“, also E_x ≠ E_x‘ ≠ E_x“. Wenn man also über die ‚bekannten‘ Eigenschaften E spricht, dann sollte man also mindestens einen Zeitpunkt t mit angeben, oder ein Zeitintervall (t,t‘), und zusätzlich den jeweiligen ‚Autor‘. Angenommen t‘ sei deutlich später wie t, dann würde man vielleicht vermuten, dass die bekannten Eigenschaften E zum Zeitpunkt t‘ E(t‘) alle bekannten Eigenschaften E zu einem vorausgehenden Zeitpunkt t E(t) mit beinhalten E(t) subset E(t‘). Dies muss aber keinesfalls so sein, denn entweder ist dieses Wissen zwischendurch wieder verloren gegangen (durch die Zerstörung von Bibliotheken mit dem griechischen Wissen gab es viele Jahrhunderte, in denen das Wissen ‚geringer‘ war als zu den Zeiten der Griechen; erst durch die vor der Zerstörung angefertigten Übersetzungen ins Arabische, die mit dem Islam dann über Spanien wieder nach Europa kamen, gelang das Wissen dann wieder ‚zurück‘ in die Köpfe und entfaltete im Mittelalter eine neue, ungeheure Kraft), oder aber, man gewann neue tiefgreifende Einsichten, so dass man nun ‚andere‘ Eigenschaften E* subset E(t‘) kennt, die zuvor keine Rolle gespielt haben, also E(t) cut E(t‘) = E*, die dann nun in die Definition eingehen können. Die Entwicklung des Wissens um Eigenschaften im Laufe der Zeiten E(t) –> E(t+1) –> E(t+2) –> … muss also keinesfalls ‚geradlinig‘ verlaufen; eine Population kann Eigenschaften ‚vergessen‘, die schon mal wichtig waren oder ’neue‘ finden, die zuvor nicht bekannt waren.

 

(8) Bei meinen Überlegungen, die zum Konzept der Differenz führten, habe ich mich von vielen Autoren inspirieren lassen (siehe Blogeinträge vorher oder einige meiner Buchbesprechungen bei Amazon (Deutsch und Englisch!)). Direkt nenne würde ich hier jetzt nur Gale (2009) und – insbesondere — Ward und Brownlee (2000). Storch et al (2007) ist ein Beispiel – wie man es heute leider oft findet –wo hochkarätige Experten sehr viel Detailwissen zusammengetragen haben, wo aber der eigentliche ‚Leitbegriff‘ selbst — nämlich der des Lebens – nicht thematisiert wird! In einem Buch über ‚Evolutionsbiologie‘ gibt es keinen einzigen Gedanken dazu, was eigentlich der Leitbegriff all der vielen beeindruckenden Einzeluntersuchungen ist, keinerlei theoretisches Konzept zum Leben; hier wird mit großer Detailkenntnis eine molekulare ‚Maschinerie‘ im historischen Kontext geschildert, es bleibt aber – aus philosophie-wissenschaftlicher Sicht — völlig unklar, ob dies etwas mit ‚Leben‘ zu tun haben soll, weil nirgends definiert ist, was diese Autoren unter ‚Leben‘ verstehen (wobei aus übergreifendem Wissen klar ist, dass diese vielen Details natürlich ‚irgendwie‘ etwas mit ‚Leben‘ zu tun haben, nur vergeben sich diese Autoren eine Chance, dies klar zu machen).

 

(9) Die Variabilität der bekannten Eigenschaften E(t) hängt dabei nicht nur von der generellen ‚Bekanntheit‘ ab, sondern auch, wie die unten angeführten Publikationen demonstrieren, vom ‚Standpunkt des Betrachters‘. Wenn ich mich primär nur für die chemischen Eigenschaften bestimmter Moleküle interessiere, achte ich auf andere Aspekte, als wenn ich die Frage stelle, was denn die grob als ‚biologisch‘ klassifizierten Eigenschaften E_biol subset E_emp generell charakterisiert, auch mit Blick auf andere Kontexte als die Erde. Eine solche ‚erweiterte Perspektive‘ kennzeichnet die Astrobiologie. Sie fragt explizit nach den Bedingungen, unter denen ‚Leben‘ auf der Erde möglich wurde, ist und sein wird sowie, ob und in welchem Umfang ‚Leben‘ auch woanders im Universum möglich ist. Um solch eine Frage so generell stellen zu können, muss man sich Gedanken machen, wie man den möglichst prägnant den Begriff ‚Leben‘ so fasst, dass alle Eigenschaften E_life subset E_emp, die unbedingt notwendig sind, explizit kenntlich gemacht werden, so dass man das Phänomen ‚Leben‘ im gesamten Universum ‚identifizieren‘ kann. Dazu reicht es in keinem Fall, einfach zu unterstellen, jeder wisse ja, was ‚Leben‘ sei, daher genüge es, einfach mal unterschiedliche dinge aufzuzählen, die irgendwie in diesem Zusammenhang bekannt sind. Solche Aufzählungen haben zwar den grossen Vorteil, dass sie strenggenommen niemals ‚falsch‘ oder ‚wahr‘ werden können ( da ja nicht klar ist, im Hinblick auf welche Eigenschaftsmenge sie letztlich ‚bewertet‘ werden sollen), verlieren damit aber wissenschaftlich entschieden an Wert.

 

(10) Als einzelner Mensch beurteilt man das, was man möglicherweise unter ‚Leben‘ versteht, vom Standpunkt seines ’subjektiven Erlebens‘. Dies ist eine Mischung aus ‚Aussenweltwahrnehmungen‘ mit ‚Innenwahrnehmungen‘, also im letzteren Fall von allerlei diffusen Stimmungen, Gefühlen, Bedürfnissen usw. Wir können ‚Leben‘ gar nicht ohne unseren eigenen Standpunkt, nicht ohne die Besonderheiten unseres eigenen Körpers, wahrnehmen. Von daher haben persönliche Schilderungen von ‚Leben‘ stark psychologische und autobiographische Färbungen. Durch die moderne Wissenschaft haben wir aber gelernt, wie wie zwischen den ’subjektiven Anteilen‘ unserer Welterfahrung und den empirisch beschreibbaren Eigenschaften unterscheiden können. Da unser subjektives Erleben an unser Gehirn gebunden ist, dieses in einem Körper eingebettet ist, der sowohl eine individuelle Geschichte hat (Wachstum, Lernen, Ontogenese) wie auch als Teil einer Population eine phylogenetische Geschichte besitzt (die Teil der übergreifenden biologischen Evolution ist, die wiederum eingebettet ist ein eine chemische Evolution, die wiederum nicht isoliert ist, …), wird man das subjektive Erleben auch besser einordnen können, wenn man es von diesen übergreifenden Zusammenhängen aus betrachtet (ohne dass man das subjektive Erleben darauf ‚reduzieren‘ würde; damit würde man wichtige Erkenntnisse ‚verschenken‘, die nur so verfügbar sind).

 

(11) Biologen tendieren dazu, Phänomene des Lebens von ihren ‚Mechanismen‘ her zu betrachten, was naheliegt, da ja der Biologe sich dem Phänomen des ‚Lebens‘ von seinen konkreten Erscheinungsformen her nähert. Durch Inspizierung vieler tausender, zehntausender – oder mehr — spezieller Erscheinungsformen von ‚Leben‘ wird er in die Lage versetzt zu vergleichen, zu klassifizieren, Beziehungen aufzuspüren, Abhängigkeiten zu identifizieren, um dann – möglicherweise – mittels erster ‚Modelle‘ oder ‚Theorien‘ diese vielen Phänomene zu ’systematisieren‘. Insofern geht es dann nicht nur um ‚reine Eigenschaften‘ E_biol oder E_life, sondern es geht dann auch schon um Eigenschaften E_biol, die in sich Klassifikationen darstellen, um Beziehungen (Relationen) R_biol und Dynamiken f_biol, Ax_biol, deren typisches ‚Wechselspiel‘ erst das Phänomen ‚Leben‘ so beschreibt, wie es der Experte zu erkennen meint. Also irgendwie wird man eine Struktur haben wie z.B. TH_biol = <E_biol, R_biol, f_biol, Ax_biol>. Und im Normalfall wird es so sein, dass man mit einer ersten  Theorie TH_biol_0 anfängt, und dann im Laufe der Zeit diese dann immer immer verändert TH_biol_i, bis man dann den Zustand der gerade aktuellen Theorie TH_biol_now erreicht hat.

 

(12) Während man in dem erwähnten Buch von Storch et al. keinerlei Definition zum Begriff Leben findet – erst Recht natürlich keine Theorie – findet sich im Buch von Gale (2009) zumindest eine ‚Liste von Eigenschaften‘ (Gale, 2009:17), allerdings ohne einen klaren funktionalen Zusammenhang (und damit auch keine Theorie). Sowohl Gale (S.17) wie auch Ward and Brownlee (S.56) verweisen aber auf charakteristische dynamische Eigenschaften wie ‚Wachstum‘, ‚Interaktion mit der Umwelt‘, sowie ‚Vererbung mit Variationen‘. Dies alles unter Voraussetzung von minimalen zellulären Strukturen, der Fähigkeit zur Informationskodierung, sowie der Fähigkeit, Energie aus der Umgebung aufzunehmen um diese komplexen Leistungen verfügbar machen.

 

(13) Die Physik, die sich nicht primär für das Konzept ‚Leben‘ ineressiert, sondern an mehr allgemeinen Begriffen wie ‚Energie‘ und ‚Materie‘ (und deren Zuammenspiel) interessiert ist, hat unter anderem die Gesetzmäßigkeit aufgedeckt, dass die Entropie (salopp die ‚Unordnung‘) in einem geschlossenen System einen Maximalwert annimmt. Das aktuelle Universum ist von diesem Zustand noch weit entfernt. Die ‚Differenzen‘ zur maximalen Entropie manifestieren sich als lokale ‚Ordnungen‘ in Form von ‚frei verfügbarer Energie‘. Sofern ‚Leben‘ angenähert das ist, was Gale (2009) sowie Ward and Brownlee (2000) mit ihren wenigen Begriffen nahelegen, dann hat sich das Phänomen des Lebens genau an diesen Differenzen zur maximalen Entropie gebildet, im Umfeld freier Energien, und nicht nur das, sondern das Phänomen des ‚Lebens‘ demonstriert quasi ein Antiprinzip zur Entropie: statt Strukturen ‚auszugleichen‘ werden hier Strukturen in Form frei verfügbarer Energien in andere Strukturen umgeformt, und zwar expansiv und mit einer immer größeren Komplexität. Das Phänomen des Lebens als Ganzes ist vergleichbar mit einem großen Staubsauger, der alle frei verfügbare Energie im kosmologischen Gesamtzustand unter der maximalen Entropie ‚aufsaugt‘ und damit neue, vorher nicht dagewesene Strukturen generiert, die neue Eigenschaften aufweisen, die weit über die bekannten physikalischen Phänomene hinausgehen. Angenommen, das Phänomen des Lebens als Ganzes könnte die frei verfügbaren Energien idealerweise vollständig nutzen, dann würde sich die maximale Existenzzeit des Lebens im Universum aus der Zeit ergeben, in der im Universum noch Energie frei verfügbar ist. Sicher aber sind weitere Varianten möglich, die wie heute einfach noch nicht sehen, weil unsere Wissensfähigkeit dramatisch eingeschränkt ist.

 

(14) Andererseits, während die Biologen stark an den konkreten Eigenschaften von Manifestationen des Lebens ‚hängen‘, kann man versuchen, diese Eigenschaften von einem ‚abstrakteren‘ Standpunkt aus zu betrachten, was ich in den vorausgehenden Blogeinträgen versucht hatte. Nach dem bekannten Spruch, dass man ‚den Wald vor lauter Bäumen nicht sieht‘, kann die Vielzahl der Eigenschaften biologischer Systeme das Denken daran hindern, die im Leben implizit vorhandenen Strukturen zu erkennen. In meinen Überlegungen hatte ich versuchsweise angenommen, dass die gesamte Maschinerie biologischer Systeme (z.B. der ganze ‚Körper‘), dessen Komplexität uns erschlägt, möglicherweise nur ein ‚Mittel zum Zweck‘ ist, nämlich die Rahmenbedingungen für ein neuronales System zu schaffen, dessen Zweck wiederum die Fähigkeit ist, ‚Eigenschaften der Welt‘ in ‚kognitive Strukturen‘ umzuwandeln, durch die das gesamte Universum schrittweise ‚transparent‘ wird und damit ’sich selbst‘ nahezu beliebig ‚umbauen‘ könnte. Wie wir heute wissen, lässt sich jede Form von uns heute bekanntem Wissen und Denken über minimale Potentialsysteme realisieren, die beliebig vernetzbar sind. Von diesem Leitgedanken aus liegt es nahe, die Vielfalt der Eigenschaften biologischer Systeme unter dieser Rücksicht zu analysieren. Dies führte zur Idee des minimalen Differenzsystems, vernetzbar, energetisch betrieben, kopierbar mit Veränderungen. Alles keine wirklich neue Gedanken.

 

(15) ‚Leben‘ wäre dann also jenes Phänomen im Universum, das in der Lage ist, ausgehend von den freien Energien einer nicht-maximalen Entropie beliebig skalierbare Differenzsysteme erzeugen zu können, die sich variierend kopieren lassen, und die mit ihren jeweiligen Umgebungen (und damit mit sich selbst) interagieren – und das heißt auch: kommunizieren – können. Mit welchem konkreten Material und unter welchen konkreten Randbedingungen dies auftritt, ist unwesentlich. Das ‚Geistige‘, das sich in Gestalt von ‚Lebensformen‘ zeigt, ist letztlich eine implizite Eigenschaft der gesamten umgebenden Materie-Energie, weswegen es nicht klar ist, was das Verschwinden eines konkreten Körpers (‚Tod‘) für das Phänimen des ‚Geistes‘ letztlich bedeutet. Seiner ‚Natur‘ nach kann ‚Geist‘ nicht ’sterben‘, nur eine bestimmte Realisierungsform kann sich ändern.

 

 

 Unsere Verwandten die Tiere 1

 

 

Eine Übersicht über alle bisherigen Blogeinträge findet sich hier.

 

 

 

LITERATURHINWEISE

 

Gale, J.; Astrobiology of Earth. The Emergence, Evolution, and Future of Life on a Planet in Turmoil. New York: Oxford University Press, 2009

 

Storch, V.; Welsch, U.; Wink, M.; Evolutionsbiologie. 2.Aufl. rev. and ext., Berlin – Heidelberg: Springer Verlag, 2007

 

Ward, P.D.; Brownlee, D.; Rare earth. Why Complex Life is Uncommon in the Universe. New York: Springer-Verlag New York, Inc., 2000

GEN — MEM — SEM

(1) Bei der Betrachtung der Entwicklung des (biologischen) Lebens auf der Erde tritt als markantes Ereignis (vor ca. 3.5 Mrd Jahren) die Verfügbarkeit von selbstreproduktiven Einheiten hervor: DNA-Moleküle werden dazu benutzt um unter Zuhilfenahme anderer Moleküle Proteinstrukturen in einer geordneten Weise so zu organisieren, dass daraus wieder Zellen, multizelluläre Organismen entstehen.

 

(2) In einem Abstraktionsprozeß wurden mathematische Modelle entwickelt, die die Struktur eines DNA.-Moleküls in solch einem selbstreproduktiven Kontext als ‚Informationseinheiten‚ identifizierten, die auch als ‚Gene‚ bezeichnet wurden. Der gesamte Informationsprozess wurde als ‚Genetischer Algorithmus (GA)‚ rekonstruiert. Gegenüber dem biochemischen Modell enthält er Vereinfachungen, zugleich bilden diese aber auch eine ‚Generalisierung‚, die eine mathematische Behandlung zulassen. Dadurch konnten sehr weitreichende Untersuchungen angestellt werden.

 

(3) Die Uminterpretation von genetischen Algorithmen als Classifier Systeme betrachtet die genetische Informationen als Wenn-Dann-Regeln (auch mehrere hintereinander). Je nachdem, welche Bedingungen vorliegen, werden nur bestimmte ‚Wenns‘ ‚erfüllt‘ und nur diese ‚Danns‘ werden aktiviert. Eine ‚Wenn-Dann-Regel‘ bildet einen ‚Classifier‚. Während genetische Informationen als solche eigentlich nur einmal im Leben eines (biologischen) Systems verändert werden (in der Realität natürlich auch durch Fremdeinwirkungen öfters), nämlich bei der Weitergabe der Informationen nach bestimmten Mustern/ Regeln geändert werden können (letztlich gibt es nur zwei Fälle (i) Rekombination nach einer festen Regel oder (ii) Zufällige Veränderung), können die Informationen, die als eine Menge von Classifiern kodiert sind, durch jedes einzelne Verhalten eines Systems geändert werden. Dies entspricht eher dem Organisationsniveau des Nervensystems bzw. dem des Gehirns in einem biologischen System.

 

(4) Betrachtet man Classifier Systeme auf der Organisationsebene des Gehirns, dann liegt auf der Hand, sie primär als Modell eines einfachen Gedächtnisses (Memory) zu sehen. Die ‚Wenns‘ (Engl. if) repräsentieren dann wichtige ‚Wahrnehmungszustände‘ des Systems (sensorische wie propriozeptive oder mehr), die ‚Danns‘ (Engl. ‚then‘) repräsentieren jene Aktionen des Systems, die aufgrund solcher Wahrnehmungen ausgeführt wurden und damit potentiell über die Veränderung einer (unterstellten) Situation zu einer Veränderung dieser Situation geführt haben, die wiederum die Wahrnehmung ändern kann. Da man mathematisch Wenn-Dann-Regeln (also Classifier) als Graphen interpretieren kann mit den ‚Wenns‘ als Knoten und den ‚Danns‘ als Übergänge zwischen den Knoten, sprich Kanten, bilden die Classifier als Graph den Ausgangspunkt für ein mögliches Gedächtnis.

 

(5) Nennen wir den ersten Graphen, den wir mittels Classifiern bilden können, Stufe 0 (Level 0), dann kann ein Gedächtnis mit Stufe 0 Wahrnehmungssituationen speichern, darauf basierende Handlungen, sowie Feedback-Werte. Feedbackwerte sind ‚Rückmeldungen der Umgebung (Engl. environment). Biologische Systeme verfügen im Laufe der 3.5 Miliarden dauernden Evolution mittlerweile über ein ganzes Arsenal von eingebauten (angeborenen, genetisch fixierten) Reaktionsweisen, die das System zur Orientierung benutzen kann: Hungergefühle, Durstgefühle, Müdigkeit, diverse Schutzreflexe, sexuelle Erregung usw. Im Englischen spricht man hier auch von drives bzw. verallgemeinernd von speziellen emotions (Emotionen). In diesem erweiterten Sinn kann man biologische Systeme auf der Organisationseben des Gedächtnisses auch als emotionale Classifier Systeme (emotional classifier systems) bezeichnen. Wenn man diese systemspezifischen Rückmeldungen in die Kodierung der Wenn-Dann-Regeln einbaut — was bei Classifiern der Fall ist –, dann kann ein auf Classifiern basierendes Gedächtnis die Wirkung von wahrgenommenen Situationen in Verbindung mit den eigenen Handlungen gespeichert (store) werden. Darüberhinaus könnte man diese gespeicherten Informationen mit geeigneten Such- und Auswertungsoperationen in zukünftigen Situationen nutzen, in denen man z.B. Hunger hat und man sich fragt, ob und wo und wie man an etwas Essbares kommen könnte.

 

(6) Der Begriff mem wurde in der Literatur schon vielfach und für sehr unterschiedliche Sachverhalte benutzt. In diesem Kontext soll ein mem* einen Knoten samt aller verfügbaren Kanten in einem Classifiersystem bezeichnen, das als Gedächtnis benutzt wird. Meme* sind dann — analog wie Gene — auch Informationseinheiten, allerdings nicht zur Kodierung von Wachstumsprozessen wie bei den Genen, sondern als Basis für Handlungsprozesse. Meme* ermöglichen Handlungen und die durch Handlungen ermöglichten Veränderungen in der unterstellten Umwelt können auf das handelnde System zurückwirken und dadurch die Menge der Meme* verändern.

 

(7) Wie wir heute wissen, haben biologische System — allerdings sehr, sehr spät — auch Zeichensysteme entwickelt, die schließlich als Sprachen zum grundlegenden Kommunikationsmittel des homo sapiens wurden. Kommunikation ermöglicht die Koordinierung unterschiedlicher Gehirne.

 

(8) Die allgemeine Beschreibung von Zeichen ist Gegenstand der Semiotik als Wissenschaft der Zeichen und Zeichenprozesse. Allerdings ist die Semiotik bis heute kaum anerkannt und fristet vielfach nur ein Schattendasein neben anderen Disziplinen. Dafür gibt es dann viele Teildisziplinen wie Phonetik, Linguistik, Sprachwissenschaften, Sprachpsychologie, Neurolinguistik usw. die nur Teilaspekte der menschlichen Zeichen untersuchen, aber es historisch geschafft haben, sich gesellschaftliche Anerkennung zu verschaffen.

 

(9) Eine Schwäche der Semiotik war — und ist es bis heute –, dass sie es nicht geschafft hat, eine einheitliche Theorie der Zeichen zu erarbeiten. Schon alleine die Vielzahl der ‚Gründer‘ der Semiotik (wie z.B. Peirce, de Saussure, Morris und viele andere) und deren unterschiedlichen begrifflichen Konzepte macht es schwer bis unmöglich, zu einer einheitlichen Zeichentheorie zu kommen.

 

(10) Ich habe mehrfach versucht, die beiden sehr unterschiedlichen Ansätze von Peirce (bewusstseinsbasiert) und Morris (Verhaltensbasiert) zu formalisieren und zu vereinheitlichen. Es scheint so zu sein, dass man bei Erweiterung des classifier-basierten Mem*-Konzeptes einen formalen Rahmen hat, der es erlaubt, sowohl die bewusstseinsorientierte Sicht von Peirce wie auch zugleich die verhaltensorientierte Sicht von Morris zusammen zu führen, ohne dass man deren Konzepte ‚verunstalten‘ müsste. Im Falle von Peirce kann man sein komplexes (und in sich selbst nicht konsistentes) System von Kategorien — so scheint es — drastisch vereinfachen.

 

(11) Stark vereinfachend gesagt kann man den Zeichenbegriff verstehen als eine Beziehung  zwischen einem Zeichenmaterial (das sowohl verhaltensrelevant  wie auch wahrnehmungsrelevant vorliegt) und einem Bedeutungsmaterial (das ebenfalls entweder verhaltensrelevant UND wahrnehmunsrelevant vorliegt oder NUR wahrnehmungsrelevant). Allerdings existiert eine solche Bedeutungsbeziehung nicht als wahrnehmbares Objekt sondern ausschliesslich als gewusste Beziehung im ‚Kopf‘ bzw. im ‚Gedächtnis‘ des Zeichenbenutzers. In Anlehnung an die griechische Philosophie möchte ich ein Zeichen als sem* bezeichnen. Ein sem* basiert zwar auf potentiell vielen memen*, stellt aber als ausgezeichnete Beziehung zwischen memen* etwas Eigenständiges dar. In diesem Sinne kann — und muss — man sagen, dass seme* eine neue Ebene der Organisation von Informationen eröffnen (was grundsätzlich keine neue Einsicht ist; ich wiederhole dies hier nur, da dies die Voraussetzung für die nächste Organisationsebene von Informationen ist).

 

Fortsetzung folgt.