Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay. Teil 3

PDF

ÜBERBLICK

Voraus ging ein anderer  Beitrag, siehe HIER.

Im Folgenden weitere Aspekte zur Wiederentdeckung Gottes auf dem Planet Erde … Wir sind da. Die Dinge sind da. Wir selbst sind ein ‚Ding‘. Raum und Zeit. Konservierte Zeit.

WAS DA IST

Naturgesetz im Alltag

  1. Wenn etwas, was da ist, so da ist, weil es nach unserem Verständnis einem ‚Naturgesetz‘ folgt, dann ist es nach unserem alltäglichen Verständnis erzwungener Maßen da, notwendigerweise, deterministisch. Bei gleichen Voraussetzungen würde es immer genau so sich wiederholen. Der berühmte Apfel löst sich aus dem Baum, fällt ’nach unten‘ und bleibt liegen.

Gegenstand im Raum

  1. Und es ist auch wahr, dass in unserem alltäglichem Erleben der Apfel nicht isoliert vorkommt sondern als abgrenzbares Etwas in dem, was wir ‚Raum‘ nennen; an derselben Stelle, an der sich der Apfel befindet, kann kein zweiter Apfel sein, und der Apfel hat eine ‚Umgebung‘, die wir hemdsärmelig mit ‚Oben‘, ‚Unten‘, ‚links‘, ‚rechts‘, ‚vorne‘ und ‚hinten‘ usw. beschreiben. In unserem alltäglichen Raum fällt der Apfel immer nach ‚unten‘, nie nach ‚oben‘.
  2. Auf den Apfel können wir als Gegenstand, als Objekt hinweisen, ihn abgrenzen von seiner Umgebung; auf den Raum können wir nicht direkt hinweisen; der Raum ist kein Objekt wie der Apfel. Der Raum ist wie eine Art ‚Behälter‘ aber ohne Begrenzung. Für uns erscheint der Raum in der alltäglichen Erfahrung quasi ‚unendlich‘. Wir sprechen über den Raum relativ durch Bezug über das, was ‚in dem Raum‘ vorkommt. Wir kennen ‚Objekte‘ nur als ‚in einem Raum vorkommend‘. Die Erfahrung von Objekten und Raum ist simultan.
  3. Was ist, wenn jemand blind ist, absolut nichts sieht? Ist der Raum dann weg?
  4. Wenn wir unsere Augen schließen können wir (im Normalfall (was ist ’normal?)) mit unseren Händen Oberflächen spüren, denen wir durch Bewegung unserer Finger, Hände, Arme, eventuell auch des Körpers, folgen können. Die Bewegung unseres Körpers verändern die jeweilige ‚Stellung‘ von Körperteilen, Muskeln, Knochen… Diese ‚Stellungen‘ sind subjektiv, sie spiegeln sich ‚in uns selbst‘ wieder; wir können sie im Erleben unterscheiden. ‚In uns‘ versammeln wir alle diese Erlebnisse unterschiedlicher Stellungen und können sie ‚in Beziehung‘ setzen: wenn das Objekt selbst sich nicht verändert, dann sind diese Stellungen nicht beliebig. Das Verhältnis der verschiedenen erlebbaren Stellungen bildet ein Beziehungsgeflecht, das man auch als ‚räumlich‘ interpretieren kann, das dann auch ein ‚oben‘, ‚unten‘, ‚links‘ und ‚rechts‘ usw. zulässt. Die unterschiedlichen Stellungen markieren dann in diesem Beziehungsgeflecht eine ‚Position‘. Mit anderen Worten: auch ohne Sehen, nur mit unseren körperlichen Bewegungen zusammen mit den Tastempfindungen ist unser Erleben von etwas anderem, von Gegenständen, von Objekten, mit der ‚Vorstellung eines Raumes‘ verbunden.
  5. Wenn wir ‚Sehen‘ und ‚Tasten‘ können, dann lässt sich der ‚Seh-Raum‘ und der ‚Tast-Raum‘ miteinander in Beziehung setzen.

Wir sind auch ein Objekt

  1. Eine Besonderheit ist, dass wir in beiden Räumen ‚uns selbst‘, ‚unseren Körper‘ als Teil des Raumes, als Gegenstand neben anderen Gegenständen erleben können. Wir erleben uns als Gegenstand, als Objekt in einem ‚Raum‘ von vielen Objekten. Die Gegenstände erscheinen als ‚endlich‘, der Raum als ‚unendlich‘.

Sprache kann verbinden

  1. Wenn wir weder sehen noch tasten können, wird es schwierig. Mir persönlich versagt da die Vorstellung, und unsere Sprache verliert den Weltbezug, den sie braucht, um zwischen verschiedenen Menschen zu funktionieren. Was immer ein einzelner Mensch ‚in sich‘ erlebt, sofern jeder Mensch als Objekt in einem Raum von Objekten vorkommt, den er mit einem anderen Menschen teilt, so lange kann er mittels der Sprache ein gemeinsames Bezugssystem aufspannen, innerhalb dessen er sich selbst und sein Erleben ‚verorten‘ kann.

Zeit subjektiv

  1. Die Situation des fallenden Apfels lässt aber noch mehr erkennen. Es ist nicht nur ein ‚Raum‘, der sich mit dem Apfel zum Erleben bringt, es ist auch etwas, das wir ‚Zeit‘ nennen.
  2. Wie selbstverständlich sagen wir im Alltag, dass der Apfel ‚zuerst‘ am Baum war, und ‚dann‘, ’später‘ auf dem Boden lag. Wir verfügen (als Menschen) über die Fähigkeit, nicht nur den ‚jeweiligen Augenblick‘ erleben zu können, sondern wir können auch ‚vergangene Augenblicke erinnern‘, weil wir uns Erlebnisse ‚merken‘ können (nicht unbedingt 1-zu-1), und weil wir ‚vergangene Augenblicke‘ erinnern können, können wir zwischen einem ‚aktuellen Augenblick‘ und einem ‚erinnerten Augenblick‘ vergleichen. Im aktuellen Augenblick liegt der Apfel z.B. auf dem Boden, wir können aber erinnern, dass es einen Augenblick gab, da war der Apfel noch am Baum, also ‚vorher‘ an einer anderen Position im Raum als ‚jetzt‘.

Konservierte Zeit

  1. Diese Unterscheidung von ‚vorher‘ und ’nachher‘ relativ zu einem ‚jetzt‘ können wir erleben, weil wir erinnern können. In der Welt des Raumes für sich, ohne das menschliche Erleben, gibt es nur ein Jetzt! Die Raumwelt ist reine Gegenwart, allerdings, wenn man die Gegenwart der Raumwelt ‚lesen‘ kann, dann kann man in der Gegenwart der Raumwelt ‚Hinweise‘ finden, ‚Indizien‘, die auf eine ‚andere (vorausgehende) Gegenwart‘ hindeuten können. In der Gegenwart des Raumes ist die Zeit des Entstehens quasi ‚konserviert‘, ‚eingefroren‘, ‚eingebrannt‘ in die Welt. Die Raumwelt enthält ihre ‚Geschichte‘ quasi ‚in sich selbst‘, ‚an sich‘.
  2. Am Beispiel des fallenden Apfels ‚lernt‘ schon jedes Kind, dass Äpfel, die am Boden liegen, vorher am Baum hingen und dann irgendwann herunter fallen. Wenn also ein Kind einen Apfel liegen sieht, erinnert es sich an die ‚Regel‘ die es gelernt hat, und schließt vom Apfel am Boden mittels dieser Regel darauf, dass es ‚vorher‘ einen Zustand gegeben hat, bei dem der Apfel am Baum war. Mit der gelernten Regel wird der Apfel am Boden zu einem Anzeichen, einem Hinweis, einem Indiz, dass es vorher einen anderen Zustand gegeben hat.
  3. Es war eine große Sternstunde der menschlichen Wissenschaft, als die Geologen — wie jedes Kind — lernten, in der Gegenwart der Erde ‚Spuren‘, ‚Hinweise‘, ‚Indizien‘ zu entdecken, die darauf hindeuteten, dass aktuelle Erdschichten ‚Ablagerungen‘ sind aus vorausgehenden Zeiten, und dass diese Ablagerungen mit ihren spezifischen Eigenschaften Hinweise enthalten auf die Besonderheiten dieser vorausgehenden Zeiten.
  4. So konnten die Geologen durch Vulkane der Gegenwart lernen, wie ihre Ablagerungen aussehen, und dadurch auf Vulkane der Vergangenheit schließen. Durch die Meere der Gegenwart konnte man auf Meere der Vergangenheit schließen, die oft da waren, wo heute Land ist oder gar Wüste. Und sie entdeckten, dass die heutigen Kontinente in Bewegung sind; dass sie vor vielen Millionen Jahren anders angeordnet waren. Dass sich das Klima im Laufe von vielen Milliarden Jahren mehrfach dramatisch geändert hatte; es gab allein in den letzten 2.5 Millionen Jahren abwechselnd 50 Kalt- und Warmzeiten, und insgesamt gab es viele große Eiszeiten mit Dauern von Millionen von Jahren. Dabei schwankte die ‚Höhe‘ des Meeresspiegels um viele hundert Meter. Und vieles mehr.
  5. Parallel zu den Geologen konnten dann auch die Biologen die Funde aus den verschiedenen Ablagerungen verschiedenen Zeiten zuordnen und so schrittweise entdecken, dass die Formen des Lebens sich seit mindestens 3.5 Milliarden Jahre beständig verändert haben. Von unfassbar klein und vielfältig bis immer komplexer, mit großen dramatischen Einbrüchen bedingt durch dramatische Veränderungen der Geologie und des Klimas (Supervulkanausbrüche, Asteroideneinfall auf der Erdoberfläche, lange Eiszeiten, Trockenheiten, …). Seit kurzem können die Biologen auch über die Struktur der Zellen und Moleküle Beziehungen zwischen den verschiedenen Lebensformen über ihre direkte biologische Abstammung aufgrund ihrer ‚Baupläne‘ untersuchen; vorher waren sie allein auf den Körperbau und das Aussehen (den Phänotyp) angewiesen.
  6. Und noch mehr. Parallel zu Geologie und Biologie haben auch die Physiker entdeckt, dass es in der Gegenwart des physikalischen Universums Hinweise auf eine mögliche Vergangenheit gibt. Und, wie so oft, wenn erst einmal eine Entdeckung gemacht wird, zieht diese viele weitere nach sich. Schrittweise konnte man rekonstruieren, dass das Universum sich immer noch ausdehnt, von daher zurück verweist auf einen physikalischen Anfangspunkt, den man ‚Big Bang‘ nannte, von dem aus sich Energie in Teilchen verwandelte, Atome, Moleküle, dazu gigantische Gaswolken, Sternenbildung, Bildung von Galaxien und Superclustern, Neuwerdung von Sternen, aber auch das Sterben von Sternen, Verschmelzung von Galaxien, und vieles mehr.
  7. Zu beachten ist hier, dass die subjektive Zeit des Erlebens und die Zeit der Physik zwei verschiedene Sachverhalte bezeichnen.

Technische Zeit: Uhren

  1. Die subjektive Zeit des Erlebens basiert auf der Erinnerung von vorausgehenden Augenblicken und erlaubt durch Vergleich von aktuellem Jetzt und erinnertem Jetzt eine ‚relative‘ Bestimmung von ‚Vorher‘ und ‚Nachher‘. Dieses ‚Vorher-Nachher‘ lässt sich mit konkreten Objekten und deren Eigenschaften verknüpfen, z.B. auch mit periodischen Vorgängen in unserem Erlebnisraum wie ‚Wachen – Schlafen‘, ‚Tag und Nacht‘, ‚Jahreszeiten‘ oder auch Vorrichtungen zur künstlichen Erzeugung von periodischen Ereignissen, die wir ‚Uhren‘ nennen.
  2. In der Physik gibt es kein ’subjektives Erleben‘ (nur indirekt, über das Erleben der Physiker, das aber ausgeklammert werden soll). Wenn die Physik von ‚Zeit‘ spricht, dann nur als ein theoretischer Begriff innerhalb einer formalen Theorie, die sich mit einer definierten Messprozedur zur empirischen Welt in Beziehung setzen lässt. Und hier gibt es in der Physik mindestens zwei Szenarien.
  3. In dem einen Szenario hat die Physik z.B. die Zeitdauer von ‚1 Sekunde‘ an Eigenschaften einer technischen Vorrichtung gekoppelt, die man ‚Atomuhr‘ nennt. Innerhalb eines bestimmten Genauigkeitsgrades sind alle Atomuhren ‚gleich‘ (andererseits, wenn eine Atomuhr in Nordamerika steht, eine andere in Europa, wieder eine andere in Asien, usw., dann erfordert die Abstimmung der ‚Gleichzeitigkeit‘ eine Kommunikation zwischen den Betreibern der Atomuhren. Diese Kommunikation erfolgt mittels elektromagnetischer Wellen durch die Atmosphäre. Diese Kommunikation ist um Dimensionen langsamer und ungenauer als die Atomuhren selbst. Dennoch sprechen die zuständigen ‚Behörden für die Zeit‘ (meistens die nationalen metrologischen Institute) von einer gleichen Zeit. (Es ist eine interessante Aufgabe, zu verstehen, wie dies möglich ist). Ferner ist zu beachten, dass der Alltag der Menschen primär natürlich nicht von den Atomuhren bestimmt wird, sondern von den Tag-Nacht Perioden und den Jahreszeiten, auf die auch alle Kalender aufbauen. Die Physik muss also ihre Atomuhren-Zeit mit den Erdzeiten abgleichen. Da die Erdzeiten nicht vollständig exakt zu der Atomzeit passen, müssen immer wieder ‚Zeit-Ausgleiche‘ vorgenommen werden. Im Alltag haben wir die Kalender und unsere ‚Normaluhren‘, hinter der Oberfläche haben wir aber eine exakte Atomzeit, die den Physikern hilft, die Zeit des Alltags immer wieder auszutarieren.

Die Zeit des Lichts

  1. Mitten in einem schier unendlich erscheinenden Universums wird das Beobachten zu einem Problem: wenn alles in Bewegung ist, wo ist der gemeinsame, stabile Bezugspunkt? Im Alltag setzen wir voraus, dass die Situation, das Land, die Erde ’stabil‘ genug ist, so dass wir diese Umgebung als gemeinsamen Bezugspunkt benutzen können (Landkarten, Navis, …). Im Universum gibt es aber keinen festen Punkt; alles bewegt sich, auch der Beobachter auf der Erde, die sich um sich selbst dreht, die sich zur Sonne hin unterschiedlich neigt, die sich um die Sonne bewegt, und der Beobachter bewegt sich auf der Erde, vielleicht fliegt er mit einem Flugzeug, einem Raumschiff … Woran soll man sich hier noch festmachen?
  2. Glücklicherweise konnten die Physiker herausfinden, dass das Licht eine konstante Geschwindigkeit c hat (siehe: \url{https://de.wikipedia.org/wiki/Lichtgeschwindigkeit}). Je nach dem umgebenden Medium kann sich diese zwar verringern, aber man kann für jedes Medium ermitteln, wie stark das Licht verlangsamt wird, so dass man am Ende heraus rechnen kann, wie schnell das Licht unterwegs war und ist. Mit diesem Wissen kann man unter Berücksichtigung der verschiedenen Beobachter dann Entfernungen fixieren und eine Gleichzeitigkeit ermitteln. Im mathematischen Konzept der Raum-Zeit hat Einstein diesen Überlegungen mit seiner speziellen Relativitätstheorie (SRT) einen konzeptuellen Rahmen gegeben.
  3. Wie schon angemerkt, kann die Umgebung des Lichts dessen Geschwindigkeit verändern. Eine besondere Beeinflussung geschieht auch durch die sogenannte ‚Gravitation‘, die durch die Masse der Körper aufeinander stattfindet. Die Gravitation kann den Weg des Lichts im Raum beeinflussen, indem es dieses ‚ablenkt‘. Das Licht breitet sich dann nicht ‚gerade‘ aus, sondern wird ‚gebogen‘. Für einen Beobachter bewirkt dies, dass er die Lichtquelle (ein Stern) mit einer anderen Form/ Gestalt wahrnimmt, als sie tatsächlich hat. Um diese besondere Wirkung der Gravitation berücksichtigen zu können hat Einstein dann den begrifflichen Rahmen der speziellen Relativitätstheorie zur allgemeinen Relativitätstheorie (ART) erweitert.  Das Konzept der Raum-Zeit wurde durch den Aspekt der Raum-Zeit-Krümmung erweitert, d.h. man gab dem physikalischen Phänomen der Beeinflussung der Lichtbahn durch die Gravitation eine mathematische Deutung als ‚Krümmung‘ in einem geometrischen Modell.
  4. Obwohl mit der speziellen wie mit der allgemeinen Relativitätstheorie bislang sehr viele physikalische Phänomene ‚erklärt‘ werden konnten, indem man sagen konnte, dass das B, was man im aktuellen Augenblick beobachten kann, von einem vorausgehenden A kommt, und der Weg von A nach B durch die spezielle oder der allgemeinen Relativitätstheorie beschrieben werden kann, herrscht in der Physik die Überzeugung, dass man noch nicht am Ende der theoretischen Erklärungen angekommen sei, da eine Vereinigung der Quantenphysik und der allgemeinen Relativitätstheorie noch ausstehe.

UND WIR?

  1. Wenn man den Gesprächen der Physiker lauscht, dann kann man ergriffen werden von einem großen Wundern und Staunen über dieses Universum, seinen unfassbaren Dimensionen, die uns umgeben. Zugleich kann es auch nieder schmettern, das Gefühl einer tiefen Verlorenheit erzeugen, wir, auf dieser Erde, so winzig in einer Galaxie, diese so winzig in einem Meer von Galaxien, alles auseinander fliegend … und man selbst so klein, so endlich in der Zeit. Was sind schon 100 Jahre Lebenszeit angesichts dieser Millionen, ja Milliarden von Jahren?

Fortsetzung folgt.

Pausenmusik 🙂

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS UNIVERSUM MIT DEN AUGEN VON Lawrence M.Krauss. Gedanken zu seinem Buch A UNIVERS FROM NOTHING, Teil 3

Lawrence M.Krauss, a universe from nothing. Why there is something rather than nothing. London: Simon & Schuster UK Ltd, 2012

KONTEXT

  1. Diesem Teil ging Teil 1 voraus, der im Vorwort einige allgemeine Bemerkungen enthält.
  2. Im Teil 2 ging es dann um die Feststellung, dass das Universum ein expandierendes Universum ist. Dazu werden einige Fakten angeführt, die diese Aussage illustrieren. Aufgrund der Sprünge im Text, ist es nicht leicht, den historischen Ablauf zu rekonstruieren. Auch fehlen nahezu überall Quellenangaben, so dass man auf eigene Faust recherchieren muss, will man die Aussagen präzisieren, was getan wird.
  3. In der Diskussion zum Kap.1 werden von den vielen möglichen Punkten nur drei angesprochen: zum einen wird die Geschichte der Kosmologie als Beispiel für die Entstehung von Wissen betrachtet. In dieser Geschichte spielt die Einsicht eine zentrale Rolle, dass man sich auf die empirischen Phänomene beschränken muss, also jene Phänomene, die sich von allen anderen dadurch abheben, dass sie unabhängig von unserem subjektiven Wollen, Wünschen und Vorstellen sind. Ein weiterer Aspekt ist die Rolle eines speziellen symbolischen Ausdruckssystems, heute als Mathematik bezeichnet. Vorteile und Probleme werden kurz angesprochen. Weiterhin ist beeindruckend, wie dieses moderne Wissen eine tiefliegende Struktur jenseits der Individualität der beteiligen Forscher enthüllt. Obgleich die Geschichte zeigt, dass manche Gedanken mehrfach erfunden wurden, weil man voneinander zu wenig wusste, ist es doch so, dass jeder von den beteiligten Forschern nicht im luftleeren Raum operiert hat. Jeder von ihnen war vielfältig verflochten sowohl mit Teilen der Vorgeschichte und mit gegenwärtigen Forschern und Forschungsaktivitäten. Jede neue Erkenntnis ist nur verstehbar aufgrund der Vorarbeiten anderer.

KAP.2: DAS UNIVERSUM WIEGEN

Ergänzende Informationen zu Krauss Kap.2

Ergänzende Informationen zu Krauss Kap.2

  1. In diesem Kapitel geht es zentral um die Frage, wie das Universum, in dem wir vorkommen, und das offensichtlich einen Anfang hat, enden wird. Hat es ein Ende? Aktuell entfernen sich die Galaxien voneinander. Unterstellt man mit Newton die Kraft der Gravitation, dann müsste man anhand der auftretenden Massen errechnen können, ob diese Massen ausreichend sind, um diese Fluchtbewegung irgendwann zu stoppen. Für diese Berechnung benötigt man aber empirische Daten zu den astronomischen Objekten, den Sternen (und ihre Kontexte), z.B. ihre Entfernung von der Erde oder zueinander, ihre Masse, letztlich auch ihr Alter (da von diesem viele wichtige physikalische Eigenschaften abhängen), oder ihr Spektrum (das etwas über ihre chemische Zusammensetzung sagt). Und da die Gravitation sich u.a. darin auswirkt, dass das Licht im Raum abgelenkt und abgeschwächt werden kann, sind die Messungen, die auf Licht basieren, nicht einfach.
  2. So zitiert Krauss Arbeiten von Vera Rubin (und Kollegen), nach denen sich die Objekte in unserer Galaxie, der Milchstraße, schneller bewegen, als es die beobachtbaren Massen erlauben würden. Sie folgert daraus [Anmerkung: wie auch schon andere vor ihr, Aussage Rubin (1997)], dass es in der Galaxie mehr Masse geben muss, als bislang beobachtet werden konnte. (vgl. S.24)
  3. Alle Befunde zusammen genommen müsste das Verhältnis von nicht-sichtbarer Materie (oft ‚dunkle Materie‚ genannt (‚dark matter‘)) zu sichtbarer Materie etwa 10:1 sein, um die beobachtbaren Bewegungen zu erklären.(vgl.S.25)
  4. Krauss folgert aus diesen Befunden ferner, dass die dunkle Materie nicht aus Protonen und Neuronen bestehen kann, da es dafür nach den bekannten theoretischen Modellen nicht genug Protonen und Neuronen gibt. (vgl. S.25)
  5. Damit stellt sich die Frage nach der dunklen Materie und der Entstehung des Universums neu.(vgl. S.25f)[Anmerkung: Einige der hier offenen Fragen finden sich auf der anregenden Webseite von DESY von Joan Baez (2012)]
  6. Seit Einsteins Theorie der allgemeinen Relativität (1919) wurde das newtonschen Modell in ein Raum-Zeit Modell überführt. In der Raum-Zeit Struktur kann sich in Gegenwart von Materie oder Energie die Raum-Zeit Struktur verändern. (Eine erste empirische Bestätigung von Einsteins Modell ergab sich 1919.) (vgl. S.26)
  7. Krauss folgert in diesem Rahmen, dass es, abhängig von der Menge der Materie im Universum, dann drei Geometrien geben kann: eine offene, eine geschlossene, und eine flache. (vgl.S.27)
  8. Ein geschlossenes Universum muss nach Einstein irgendwann zusammenstürzen (‚big crunch‘)(vgl. S.27)
  9. Ein offenes Universum wird unendlich expandieren.(vgl. S.27)
  10. Ein flaches Universum [Anmerkung: ‚flach‘ hier nicht in der Bedeutung von 2-dimensionaler Ebene. Auch das ‚flache‘ Universum spielt sich in einer 4-dimensionalen Raum-Zeit ab] ist beständig an der Grenze zum Stoppen, ohne aufzuhören.(vgl. S.27)
  11. Für die Abschätzung der tatsächlich auftretenden Masse des Universums benutzt Krauss die Struktur der Supercluster: ein Supercluster enthält tausende von Galaxien und erstreckt sich über 10tausende von Millionen Lichtjahren. Die Milchstraße gehört beispielsweise zum Virgo-Cluster, dessen Zentrum ca. 60 Mio Lichtjahre entfernt ist.(vgl. S.28)
  12. Bei der Bestimmung der Masse von Supercluster soll die Gravitation helfen [Anmerkung: was nicht ganz einfach ist, da ja die Gravitationskonstante bis heute nur sehr ungenau bestimmt werden konnte].(vgl. S.28)
  13. Bei dieser Abschätzung wird zurück gegriffen auf eine Notiz von Einstein (1936), der die Beobachtung des Amateurastronomen Rudi Mandl zum Anlass genommen hatte, zu zeigen, dass der Raum selbst als Linse wirksam werden kann (Erkenntnisse, die Einstein schon 1912 mal notiert hatte)(vgl. S.28f) D.h. Die Strahlen eines Objektes O1 hinter einem Objekt O2 werden von O2 zunächst abgelenkt, gelangen aber dann doch zum Beobachter, wenngleich geringfügig versetzt. (vgl. S.29f)
  14. In diesen Kontext passt die 1933 von Astronom Fritz Zwicky gemachte Beobachtung zu den relativen Bewegungen von Galaxien im Coma-Cluster. Dabei hatte er festgestellt, dass sie aufgrund der Schnelligkeit ihrer Bewegung eigentlich schon längst das Cluster hätten verlassen müssen. Unter Benutzung von Newtons Gravitationsgesetzen war die Nichtzerstörung des Clusters nur erklärbar bei der weiteren Annahme, dass es eine 100fach größere Masse geben musste als beobachtet werden konnte.(vgl. S.31)
  15. In einem Kurzartikel 1937 beschrieb Zwicky drei Nutzungsmöglichkeiten für den Gravitations-Linsen-Effekt. Die dritte und wichtigste Nutzung war die Messung von Quasaren bei dazwischenliegenden Galaxien. 1986/7 konnte Tony Tyson und Kollegen dies am Beispiel demonstrieren.(vgl. S.32)
  16. Die Berechnungen ergaben, dass nahezu 40x soviel Masse (dunkle Materie) zwischen den Galaxien anzunehmen war wie beobachtbare Materie in den Galaxien. Nimmt man nur die beobachtbare Masse in den Sternen selbst, dann ist es sogar 300x mehr Masse. (vgl. S.34)
  17. Für ein flaches Universum benötigt man laut theoretischem Postulat etwa 100x mehr dunkle Materie als beobachtbare Materie.(vgl. S.34)
  18. Berücksichtigt man das theoretische Modell für die Prozesse im BigBang (siehe auch oben), dann gibt es nach den bekannten Daten ein Vielfaches an dunkler Materie als es das Modell voraussagt.(vgl. S.34) Da die dunkle Materie offensichtlich nur sehr schwach mit der normalen Materie interagiert, erhebt sich die Frage, wie man sie dennoch messen kann.(vgl. S.35)
  19. Die Temperatur der Röntgenstrahlen (X-rays) der Cluster steht in direkter Beziehung zur Masse der Quelle.(vgl. S.36)
  20. Nach allen bisherigen Beobachtungen und Berechnungen liegt die Gesamtmasse des Universums aber nur bei 30% der Menge, die für ein flaches Universum notwendig wäre.(vgl. S.36) Wenn diese Beobachtungen und Schlussfolgerungen stimmen, würden wir in einem offenen Universum leben, das ewig expandiert.(vgl. S.27)

DISKUSSION

  1. Bei dem Versuch, dieses Kapitel (so kurz es ist), zusammen zu fassen, habe ich sehr viele zusätzliche Artikel und Wikipedia-Einträge gelesen, um die benutzte Begrifflichkeit zu verstehen. Bei dieser Lektüre wurde sichtbar, dass hinter jedem Begriff eine komplexe Geschichte steht, von der die Namen im beigefügten Bild nur eine winzige Auswahl darstellen.
  2. Damit stellt sich die Frage, ob diese Art des Vorgehens Sinn macht. Krauss nennt sein Buch ‚populär‘, weil es im normalen Englisch geschrieben ist und weitgehend auf Formeln verzichtet, aber da er weder direkt auf Quellen verweist noch die einzelnen Begriffe wirklich erklärt, erscheint diese Verständlichkeit nur als eine Pseudo-Verständlichkeit. Um also den Text wirklich verstehen zu können, muss man über den Buchtext hinausgehen und sich ein eigenes Bild machen.

Ob eine Fortsetzung im gleichen Stil erfolgt, ist daher fraglich.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER.

FOLGT AUS DER ANNAHME VON EMERGENZ DIE FUNKTION-IN-MATERIE HYPOTHESE? Anmerkungen zu Monod, Dawkins, Wilson und speziell Kauffman

Here You can find an audio-version in English, which is not a direct translation of the German text below. Rather it is
an unplugged version of the ideas without a given English Text.
Please excuse my bad English. I did it as a special tribute for Stuart Kauffman, who did such a great Job with his ‚Reinventing the Sacred‚.

  1. Die letzten beiden Blogeinträge standen unter dem Eindruck des evolutionär ungeheuerlichen Phänomens der neuen Geistigkeit eines homo sapiens sapiens (hss, Mensch), der in der Lage ist, die Gegenwart eines Jetzt zu überwinden, indem er über Gedächtnis, Abstraktion, Vergleich, Schlussfolgern und weiteren kognitiven Eigenschaften verfügt, die es ihm ermöglichen, das jeweilige Jetzt einzureihen in eine Folge von Jetzten, in Veränderungen, in Prozesse, in darin waltenden Beziehungen/ Relationen/ Regeln.
  2. Diese Beobachtungen sind nicht singulär. Angeregt durch Gespräche mit meinem Freund MaFa wurde ich ausdrücklich aufmerksam auf jene soziobiologische Diskussion, die sich im Kontext von Personen wie Jacques Monod, Richard Dawkins und Edward O.Wilson findet.
Monod-Dawkins-Wilson

Monod-Dawkins-Wilson

  1. Das Leitthema von Monod, Dawkins und Wilson lässt sich vielleicht zusammenfassen in der These, dass die beobachtbaren Phänotypen und Verhaltensweisen von biologischen Systemen grundlegend und primär von ihren Genen bestimmt wird. Was immer die verschiedenen biologischen Systeme tun (einschließlich des hss), sie folgen in ihrem Tun den grundlegenden Interessen der Gene.
  2. Diese Gedanken sind primär stimuliert durch die Erkenntnisse der modernen Evolutionsbiologie, Molekulabiologie und Genetik. Ein Blick in die mikrobiologischen chemischen Prozesse von Selbstreproduktion lässt wenig Raum für andere Gedanken. Was wir dort sehen sind Moleküle, die miteinander wechselwirken und in diesen Wechselwirkungen neue Moleküle, ganze Zellen generieren, die wieder das Gleiche tun. In dieser Perspektive ist kein Raum für irgend etwas anderes.
  3. Schon stark abstrahierend könnte man die Struktur des DNA-Moleküls (das von anderen Molekülen als Informationsträger interpretiert wird) als Speicher vergangener Erfolgsrezepte deuten und die nicht voraussagbare Variabilität innerhalb des Reproduktionsprozesses als zufälliges Geschehen, das keinerlei außen geleitete Beeinflussungen (Monod) erkennen lässt.
  4. Auffällig ist, dass alle Autoren, insbesondere aber Monod und Dawkins, diese Beobachtungen und Überlegungen zum Anlass nehmen, neben den biologischen Sachverhalten noch kulturelle Interpretationsmuster und -praktiken zu kritisieren, die sich als Religionen darstellen und die das Wort Gott dazu benutzt haben/ benutzen, um dem grundlegend biologischen Geschehen eine spezielle religiöse Deutung unter zu legen: diese beobachtbaren biologischen Prozesse seien letztlich in einem größeren Kontext zu sehen, nämlich dass es einen umfassenden schaffenden Gott gibt (Creator, Schöpfer), der dies alles angestoßen hat und ermöglicht.
Stuart Kauffman - Benutze Texte

Stuart Kauffman – Benutze Texte

  1. Stuart Kauffman, der sich Jahrzehnte mit den physikalischen, biochemischen und molekularbiologischen Grundlagen des Lebens auseinander gesetzt hat, der aber zugleich komplexe mathematische Modellbildungen und Simulationen einbezogen hat, kommt bei den Themen der vorgenannten Autoren zu anderen Schlussfolgerungen.
Abrahamitiche Religionen nd moderner Reduktionismus

Abrahamitiche Religionen nd moderner Reduktionismus

  1. Zunächst einmal macht er darauf aufmerksam, dass in der Tat historisch die abrahamitischen Religionen (Judentum, Christentum, Islam) das Wort Gott sowohl für die letzten umfassenden Erklärungen benutzt haben (Gott als Schöpfer) wie auch als letzte Quelle jeglicher Moralität. Und es war die moderne empirische Wissenschaft, die mit ihrem neuen methodischen Zugang zur Erforschung der Welt zwar neue, starke, belastbare Fakten geschaffen hat, aber keinen Raum mehr lässt für Werte oder spirituelles Erleben. Mit der Kritik an einer problematischen Verwendung des Wortes Gott wurden gleich viele einschlägige Phänomene mit beerdigt. Der modernen Gesellschaft mangelt es daher an jeglicher Basis, um solche Wertsysteme zu schaffen, die jede moderne – und globale – Gesellschaft benötigt, um zu funktionieren.
  2. Kauffman sieht hier eine Art Überreaktion der modernen Wissenschaft, die vor lauter Bemühen, unberechtigte Deutungsansprüche seitens der etablierten Religionen abzuwehren, dabei auch Aspekte ausklammert, die eigentlich zum legitimen Phänomenbereich der Wissenschaften gehören sollten. Diese Überreaktion macht sich fest an einer Denkhaltung, die er Reduktionismus nennt.
  3. Die Diskussion über Reduktionismus ist nicht neu und hat schon zu vielen theoretischen Diskursen vor Kauffman Anlass gegeben. Kauffman greift diese Debatte aber wieder auf und macht anhand zahlreicher Beispiele deutlich, dass die Rückführung komplexer Phänomene auf einfache Bestandteile vielfach zu absurden Rekonstruktionen führt, die im Endeffekt das auslösende komplexe Phänomen praktisch zum Verschwinden bringen, nicht aber wirklich erklären.
  4. Anders gesagt, sei KP ein komplexes Phänomen mit Verhaltenseigenschaft f_kp, das man in Beziehung setzt zu einfacheren Bestandteilen E={e1, …, en}. Dann müsste man Gesetzmäßigkeiten f_e für die Bestandteile E finden, die so sind, dass sich ihre Funktionalität f_e direkt parallelisieren lässt mit der komplexen Funktionalität f_kp. Also ein Zustand S1_e mit Elementen E geht mittels f_e über in einen anderen Zustand S2_e, und parallel, synchron geht ein Zustand S1_kp über in einen anderen Zustand S2-Kp mittels der Funktion f_kp.
  5. Beispiel: ich tippe (komplexes Phänomen KP) bei meinem Computer die Taste ‚A‘ und auf dem Bildschirm erscheint ein ‚A‘. Tief unten im Computer, sagen wir auf der Ebene der logischen Gattern (elementare Bestandteile ) , realisiert in der Hardware, gibt es tausende, hunderttausende oder mehr elektrische Potentiale, wild verteilt im Mehr von vielen Milliarden elektrischen Potentialen, die ihren Zustand ändern, ohne dass man an den vielen logischen Gattern irgend eine Eigenschaft erkennen könnte, warum gerade diese nun ihr Potential ändern und nicht andere. Eine Beschreibung von Potentialänderungen auf der Gatterebene ist zwar möglich, wäre aber wenig hilfreich, um die vielen hunderttausend unterschiedlichen Phänomene auf der Nutzerebene zu unterscheiden. Dies wäre noch schwieriger, würde man noch tiefer steigen und auf die Ebene der Atome zurückgehen, die letztlich jedem logischen Gatter in der Hardware zugrunde liegen. Damit würde jeder Versuch einer systematischen Zuordnung zu komplexen Phänomenen sinnlos.
  6. Analog wäre dies, wenn man die Vielfalt biologischer Phänotypen auf das Verhalten zugrunde liegender Atome zurückführen würde. Man würde alle jene Phänomene verlieren, die gerade das Besondere ausmachen.
  7. Damit stellt sich die Frage, wie man denn komplexe Phänomene anders betrachten kann als im Stil eines Phänomen-vernichtenden Reduktionismus ohne dabei Wissenschaftlichkeit einzubüßen?

EMERGENZ

Emergenz - Enige Thesen von Kauffman

Emergenz – Enige Thesen von Kauffman

  1. Kauffman bringt an dieser Stelle den Begriff Emergenz ins Spiel und erklärt ihn in dem Sinne, dass er sagt, dass erkenntnistheoretisch (epistemologisch) die Rückführung eines Komplexen auf seine Bestandteile dann sinnlos wird, wenn man von den Bestandteilen selbst aus das Komplexe nicht konstruieren könnte. In diesem Fall kommt dem Phänomen eine ontologische Geltung zu, d.h. das Phänomen ist empirisch real, existierend und damit ein mögliches Objekt der empirischen Wissenschaft. Statt es also weg zu interpretieren durch einen sachfremden Reduktionismus muss man stattdessen nach neuen wissenschaftlichen Erklärungen suchen, die dem Phänomen gerecht werden.
  2. So sind es ja auch nicht die Gene selbst, die dem Selektionsprinzip der Natur unterworfen werden, sondern nur jene emergenten Eigenschaften der Phänotypen (Körper), die als reale Phänomene in der empirischen Welt real wechselwirken und darin entweder Leben erhalten oder Leben verlieren können. Die Gene profitieren nur indirekt von diesem Geschehen, insofern sie Teile eines größeren Ganzen sind, das als dieses Ganze eine funktionale Rolle spielt und nur insofern das Ganze überlebt dann auch mit überleben. Die Gene als solche sind nicht überlebensfähig, wohl aber als Teil eines Ganzen, das mehr ist als seine Teile!
  3. Insofern müsste man sagen, dass emergente Phänomene solche sind, die als Ganzes eine Funktionalität, ein Verhalten zeigen, das möglich ist in dieser umfassenden Konstellation. Die Rückführung auf die einzelnen Teile des komplexen Phänomens würde dieser komplexen Verhaltensweise die materielle Basis nehmen. (Etwas Ähnliches haben wir ja auch bei vielen physikalischen Phänomenen. So ist das Phänomen der Gravitation zwar als Wirkung (Verhalten, Funktionalität) zwischen Körpern beobachtbar, aber bei Betrachtung eines einzelnen Körpers alleine wäre sie nicht vorhanden.)
  4. Dies führt – über Kauffman hinausgehend – zu der Überlegung, dass komplexe (emergente) Phänomene nur möglich sind, weil ihre Funktionalität (Verhaltensweise) grundsätzlich in den beteiligten materiellen Komponenten angelegt ist. Diese Verhaltensweisen können sich aber nur zeigen, wenn eine entsprechende Anordnung/ Konstellation der beteiligten materiellen Komponenten vorliegt. Ich nenne dies die Funktion-in-Materie Hypothese. D.h. das, was wir Materie nennen, das ist ein Material, das implizit potentiell nahezu unendlich viele Funktionalitäten (Verhaltensweisen) erlaubt, je nachdem , wie man das Material anordnet.
  5. So wissen wir aus der Chemie, dass sich mit den bekannten Atomen als Bausteinen je nach Kontext nahezu unendlich viele Atomkombinationen (Moleküle) erzeugen lassen, die jeweils ganz andere Verhaltensweisen (Funktionalitäten) zeigen. Diese Funktionalitäten sind real, sie sind nicht zufällig, sondern sie sind die realen Manifestationen von realen Eigenschaften der beteiligten materiellen Komponenten. Sie müssen nicht erfunden werden, sondern sie sind implizit schon immer fester Bestandteil der materiellen Komponenten.
  6. So ist auch die Frage nach dem Ursprung des biologischen Lebens, die sich erst seit kurzem einer möglichen Antwort nähert, letztlich keine Frage nach einem unerklärbaren Wunder, sondern nur die Frage nach jener Konstellation von Materie (Atomen, Molekülen, Kontextbedingungen), durch die genau jene Funktionalitäten zum Zuge kommen konnten, die einerseits implizit zur Verfügung sehen, die sich aber andererseits erst bei entsprechender (auch komplexer) Anordnung zeigt.

BEWUSSTSEIN

  1. Dies lässt möglicherweise auch das Phänomen des (menschlichen) Bewusstseins bzw. die Phänomene des Geistigen in einem neuen Licht erscheinen. Für viele (auch für mich) ist das Phänomen des menschlichen Bewusstseins auf jeden Fall ein emergentes Phänomen im vollen Sinne (nicht erklärbar durch seine Teile, sprich hier die neuronale Zellen).
  2. Für manche (Kauffman, Edelman, …) impliziert die Besonderheit dieses Bewusstseins u.a., dass es von der physikalischen Kausalität seiner Bestandteile abgekoppelt ist, und man versucht diese spezielle Autonomie des Denkens und Wollens durch Rückgriff auf quantenphysikalische Überlegungen zu erklären. Möglicherweise sind diese akrobatischen Denküberlegungen nicht notwendig.
  3. Einmal gibt es seit der Einführung des philosophisch-mathematischen Konzepts der Turingmaschine den logisch-mathematischen Beweis, dass selbst das Verhalten einer voll deterministischen endlichen Turingmaschine, deren Beschaffenheit vollständig bekannt ist, prinzipiell nicht in allen Fällen vorausgesagt werden kan; es ist nicht entscheidbar,  was diese Machine im nächsten Schritt tun wird (das berühmte Halteproblem). Wäre also unser Gehirn formal einer Turingmaschine äquivalent (was manche bezweifeln, weil sie glauben, das Gehirn sei komplexer als eine Turingmaschine), dann wäre das Verhalten des Gehirns nicht in allen Fällen voraussagbar. Wäre das Gehirn noch komplexer, würde sich jede Aussage über ein mögliches Verhalten erübrigen; wir wüssten nicht einmal, wie wir die Frage formulieren sollten.
  4. Zum anderen impliziert ja der Begriff der Emergenz, dass sich das komplexe Phänomen gerade nicht aus seinen Bestandteilen ableiten lässt, sonst hätten wir gar kein emergentes Phänomen. Genauso wenig, wie man aus den logischen Gattern eines Computers irgendeine der komplexen Verhaltensweisen ableiten könnte, die die Programmierung für die Benutzer zur Verfügung stellen, genauso (und noch viel weniger) kann man aus den Neuronen des Gehirns seine erfahrbare komplexe Funktionalität ableiten. Es ist eben so, dass bei einem emergenten Phänomen die simultane Koexistenz der Bestandteile eine Funktionalität sichtbar und möglich macht, die originär ist, nicht herleitbar und erklärbar aus seinen Bestandteilen. Die vielen Diskussionen um Willensfreiheit und deren Infragestellung durch Messungen elektrischer Potentiale einzelner Neuronen ist in diesem Kontext theoretisch absurd und lächerlich.
  5. Dieses hier unterstellte Verständnis von Emergenz wirft allerdings ein neues Licht auf die ganze Frage von Bewusstsein und Geist im philosophischen Sinne.
  6. Generell ist es zwar schwierig, überhaupt über Geist zu reden, da die vielen philosophischen Texte mit so unterschiedlichen Begriffen, Methoden und Blickweisen operieren, aber jeder kann ja sein eigenes Bewusstsein betrachten, seine eigene Geistigkeit, und an dieser ablesen, dass alle unsere Vorstellungs- und Denkinhalte so sind, dass man von diesen in keiner Weise auf die Art ihrer Hervorbringung, nämlich durch eine komplexe neuronale Maschinerie, schließen kann. Das Bewusstsein bildet ein geschlossenes System von Phänomenen, die einer eigenen Logik folgen, die sich zwar eines Körpers und einer unterstellten Außenwelt bedienen kann, aber zugleich in einer speziellen Weise autonom ist: prinzipiell kann alles gedacht werden, alles kann abgeändert werden, alles kann gewollt werden. Im Bewusstsein, im menschlichen Geist, erscheint alles beliebig klein oder groß, alles erscheint möglich. Man kann sogar die ermöglichende materielle Welt als solche untersuchen, beschreiben, neu denken, abändern. Jeder Versuch, diese Phänomene des Bewusstseins, des menschlichen Geistes, auf die ermöglichenden materiellen Bestandteile, zu reduzieren, ist vollständig unsinnig, geradezu absurd.

AGENCY, WERTE

  1. Es ist vor diesem Hintergrund nicht verwunderlich, dass Kauffman in all den emergenten Phänomenen des Lebens – beginnend bei der einfachsten Zelle – eine neue Qualität von Realität am Werke sieht, die er Agentenschaft (‚agency‘) nennt, eine Struktur des autonomen Handelns, die sich in diesem Handeln in keiner Weise mit physikalischen Gesetzen voraussagen lässt. Im Lichte dieser neuen universellen biologischen Agentenschaft werden die bloßen Fakten eingebettet in Verhaltensdynamiken, die nicht mehr nur und alleine von den beschreibbaren Fakten bestimmt/ determiniert sind, sondern die aufgrund ihrer jeweiligen Autonomie neue Zusammenhänge, neue Bewertungen der Fakten sichtbar machen, die die Bedeutung von Fakten für mögliche Lebensprozesse generieren, die als Anhaltspunkte für eine universelle Bewertung von Leben auf der Erde bzw. im ganzen Universum dienen können. Diese neue Form von Bewertungen jenseits bloßer Fakten kann man Werte nennen.
  2. In der bekannten Kulturgeschichte des hss finden sich immer und überall unterschiedliche Bewertungen (Werte) von Verhaltensweisen. Zum Teil kann man ihre Verwurzelung in konkreten Lebensabläufen nach vollziehen, z.T wurden sie aber daraus losgelöst und mit speziellen Autoritäten (oft mit den Namen von Göttern) verknüpft, um ihnen eine über die momentane Situation hinausgehende Geltung zu verschaffen. So verständlich diese Überhöhung von Geltungen für manche Interessengruppen sein mag, auf lange Sicht sind sie lebensfeindlich, da sie die konkreten Bedingungen ihrer Geltung verwischen und sie damit einer notwendigen Transparenz und Kritisierbarkeit entziehen. Emergente Lebensprozesse brauchen Erkenntnisse über lebensfördernde oder lebensfeindliche Wirkungen von Verhalten. Entzieht man diese Erkenntnisse der direkten Kontrolle (durch unhinterfragbare Autoritäten), dann macht man emergente Lebensprozesse blind. Alle bekannten Religionen haben sich dieser Werteverschleierung schuldig gemacht. Alle bekannten Diktaturen benutzen die Methode der Werteverschleierung, um ihren speziellen, letztlich lebensfeindlichen, Prozesse zu begründen. Leider muss man die Wissenschaft, sofern sie reduktiv argumentiert, hier einbeziehen. Durch reduktive Denkstrategien werden nahezu alle lebenswichtigen emergente Phänomene verbal, denkerisch (zum Glück nicht ontologisch) vernichtet.

HEILIGER STUART KAUFFMAN 🙂

  1. Wenn man bedenkt, welch harten Denkweg Start Kauffman von der Physik, Molekularbiologie, Komplexitätstheorie – um nur die wichtigsten Felder zu nennen – hin zu den emergenten Phänomenen zurückgelegt hat, und dann sieht, wie er viele wichtigen emergenten Phänomene (auch Bewusstsein, auch Spiritualität) dem wissenschaftlichen Denken wieder zugeführt hat, dann kommt ihm – aus meiner Sicht – eine große Ehrung zu. Es dürfte nicht all zu viele geben, die ihm in dieser Rolle, in diesem umfassend komplexen Denken mit Offenheit für die emergenten Phänomene, gleich tun. Das eben gehört zum Wunder von Agency, von lebensbasierter Spiritualität, von Emergenz, von menschlicher Geistigkeit.

Eine Übersicht über alle Blogeinträge von cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 14.August 2015 – THERMODYNAMIK, BIOLOGISCHE SYSTEME. Viele offene Fragen

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

Letzte Aktualisierungen: 14.Aug.2015, 18:45h

1. Der Ausflug in die Thermodynamik im Zusammenhang mit einer Definition des biologischen Lebens erweist sich als äußerst fruchtbar (es gab schon frühere Blogeinträge zum Thema. Einige findet man, wenn man unter www.cognitiveagent.org auf der rechten Seite bei den Kategorien die Kategorie ‚Energie – freie‘ anklickt. Hier besonders interessant vielleicht der Eintrag zu einem Buch von Paul Davies). Als hervorragende Quelle zum Thema benutze ich das Buch „ASTROBIOLOGY. A Multidisciplinary Approach“, von Jonathan I.Lunine (San Francisco – Boston – New York et al.: Pearson-Addison Wesley, 2005), dazu viele weitere Quellen.

2. Wir Menschen (‚homo sapiens‘) als einzige überlebende Art der Gattung ‚homo‘ sind ja nur ein Teil des umfassenderen Phänomens des biologischen Lebens auf er Erde (und soweit bis heute bekannt im ganzen bekannten Universum).

3. Das biologisch Leben wiederum ist nur ein kleiner Bereich im Gesamt des universalen Geschehens.

4. Die Physiker haben für dieses Gesamtgeschehen unterschiedliche Beschreibungsmodelle entwickelt, die bis heute weder vollständig sind noch völlig integriert. Vielleicht kann man hier von ‚Teiltheorien‘ sprechen, die jeweils eine Menge Phänomene gut ‚beschreiben‘, aber eben nicht alle.

5. Eine solche Teiltheorie ist für mich die Thermodynamik, die in Form ihrer vier Hauptsätze (0 – 3) eine Kernidee besitzt, die dann aber für die unterschiedlichsten Bereiche ‚angepasst‘, ’spezialisiert‘ wurden. Zugleich wurden mögliche weitere Sätze hinzugefügt. Man kann nicht behaupten, dass die Thermodynamik in dieser Form eine geschlossene Theorie darstellt; noch weniger ist sie überzeugend mit den übrigen physikalischen Teiltheorien integriert.

6. Interessant ist auch die Korrespondenzbeziehung der Thermodynamik zum Entropiebegriff. Aufgrund der durchgängigen Korrespondenz des Redens über ‚Entropie‘ und des Redens über ‚Thermodynamik‘ liegt es nahe, eine gemeinsame Struktur zu unterstellen, die beiden Begriffsnetzen zugrunde liegt, d.h. Dass es letztlich ein Modell dazu gibt. Der Ansatzpunkt dazu liegt in der Art und Weise, wie man in der Basis-Formel ΔE = Q + Q den Term ‚Q‘ (für Wärme) und ‚W‘ (für Arbeit) interpretiert. Wärme bezieht sich hier auf eine innere energetische Eigenschaft einer Materieeinheit (gebundene Energie und kinetische Energie) und Arbeit auf Zustandsänderungen des Systems. Je nach Anwendungsgebiet muss diese innere Energie und müssen die Zustandsänderungen in konkrete Eigenschaften ‚übersetzt‘ werden.

7. In der Thermodynamik im engeren Sinne spielt Gravitation keine Rolle. Da aber im realen physikalisch bekannten Universum u.a. die Gravitation überall wirksam ist, kann es keine Systeme geben, die ‚außerhalb‘ der Gravitation vorkommen. Dies bedeutet, dass Gravitation immer wirkt und damit ein Kraft ausübt, die umso stärker sichtbar wird, umso größer die beteiligten Massen sind, die dann zugleich ‚Druck‘ ‚auf sich selbst‘ und ‚aufeinander ‚ausüben. Wie bekannt ist es die Gravitation die zu Materieansammlungen geführt hat, zu Sternenbildungen, innerhalb der Sterne zu Fusionsprozessen, die unterschiedliche schwere Elemente erzeugt haben, die große Teile von Energie gebunden haben. Diese durch die Gravitation umgeformte Energie liegt in unterschiedlichen Zustandsformen vor. Sofern Energie über Temperatur ‚messbar‘ ist, spricht man zwar von ‚Wärme‘ (Q), aber die Wärme korrespondiert mit den inneren Eigenschaften der jeweiligen Systeme, die wiederum über ihre kernphysikalischen Eigenschaften definiert sind. ‚Wärme‘ erscheint insofern nur als ein Art Hilfsbegriff, um solche impliziten kernphysikalischen Eigenschaften zu beschreiben, durch die Energie kodiert ist.

8. Mit dem Entropiebegriff (S) kann man über viele kernphysikalische Spezialitäten hinwegsehen und und ein beliebiges System als eine Menge von Elementen betrachten, deren Verhalten statistisch maximal unsicher ist und damit maximal viele Freiheitsgrade besitzt (in physikalischen Systemen bei sehr hohen Temperaturen) oder wo alle Zustände maximal wahrscheinlich sind und minimale Freiheitsgrade besitzen (physikalisch bei sehr tiefen Temperaturen). Das Maximum der Entropie ist bei maximalen Freiheitsgraden gegeben.

9. Nach dem zweiten Hauptsatz der Thermodynamik tendieren geschlossene Systeme zum Zustand maximaler Entropie, da die Unterschiede in der Energieverteilung sich langfristig ‚ausgleichen‘.

10. Im bekannten Universum ist dieser Zustand noch nicht erreicht. Aufgrund der Wirkung der Gravitation gibt es viele Bereiche höherer Materiekonzentration und damit höherer Energiedichte. Diese lokalen Energiekonzentrationen folgen einer Prozesslogik, die zunächst immer mehr Energie anzieht, durch die begleitenden Drücke zu chemischen Prozessen führt, die viel Energie an die Umgebung abgeben, bis der Prozess in sich zusammenbricht. Die Energie, die in die Umgebung abgegeben wird erhöht einerseits die Entropie, stellt aber für andere Systeme ‚freie Energie‘ dar, die für/ in diesen anderen Systemen ‚Wirkungen‘ erzielen kann (z.B. in der Atmosphäre der Erde Wirbelstürme).

11. Im Falle biologischer Strukturen haben wir es mit Strukturen zu tun, die in der Lage sind, solche ‚freie Energie‘ aufzunehmen, diese für Zustandsänderungen zu nutzen, aber so, dass die thermodynamischen Verhältnisse abseits eines Gleichgewichtszustandes bleiben. Die aufgenommene Energie bewirkt Zustandsänderungen (= Arbeit), die wiederum den energetischen Zustand des Gesamtsystems beeinflusst, aber so, dass es seine Fähigkeit behält, weitere Arbeit zu verrichten. Ein biologisches System trägt zwar durch seinen ‚Abfall‘ zur Vermehrung von Entropie bei, aber durch die synchrone Neuaufnahme freier Energie und deren Nutzung wird diese Entropiezunahme zumindest für den Bereich des biologischen Systems wieder ausgeglichen (zu dieser Thematik sehr gut das Kap.7 von Lunine).

12. Das Auftreten von immer komplexeren biologischen Systemen stellt aus physikalischer Sicht extrem schwierige Fragen. Selbst schon die Anfänge biologischer Systeme im Rahmen der sogenannten chemischen Evolution sind bis heute in keiner Weise erschöpfend geklärt. Man kann dies als weiteren Hinweis darauf deuten, dass die heutigen physikalischen Theorieansätze möglicherweise entweder zu einfach sind (obwohl manche eher umständlich wirken), oder aber zu wenig Faktoren ernsthaft berücksichtigen (was gestützt wird durch die geringe Neigung, die schon heute vorhandenen Teiltheorien ernsthaft zu integrieren).

13. ANMERKUNG: Im Buch ‚THE ROAD TO REALITY‘ von Roger Penrose (2004) (veröffentlicht durch Random House, London) finden sich zu diesem Thema viele ausführliche Stellungnahmen. Unter anderem in den Kapiteln 27 und Kap.30 hebt er deutlich hervor, dass der gegenwärtige Zustand der physikalischen Theorien bzgl. Gravitation und Entropie unbefriedigend ist. Zugleich bietet er anregende Überlegungen, dass man die Thermodynamik, die Entropie, die Gravitation, die Einsteinsche Relativitätstheorie und die Quantentheorie zusammen bringen müsste. Ferner hat bei ihm die Entropie einen sehr allgemeinen Charakter. Mit Hilfe des 2.Hauptsatzes kann er sowohl das Auftreten des Big Bang motivieren, seine extreme Besonderheit, wie auch die Existenz und den Charakter der schwarzer Löcher. Überall spielt die Gravitation eine zentrale Rolle.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER