Archiv der Kategorie: Physik

DAS UNIVERSUM MIT DEN AUGEN VON Lawrence M.Krauss. Gedanken zu seinem Buch A UNIVERS FROM NOTHING. Teil 1

Lawrence M.Krauss, a universe from nothing. why there is something rather than nothing. London: Simon & Schuster UK Ltd, 2012

KONTEXT

  1. In den vorausgehenden Einträgen zu diesem Blog gab es schon einige Beiträge, die sich mit dem Blick von Physikern auf unser Universum beschäftigt haben. Allerdings fast immer mit dem Blick von Physikern auf das biologische Leben, auf die Evolution, auf die Zelle (mit dem Befund, dass die Physik zwar einiges sagen kann, aber bei den entscheidenden Phänomenen letztlich passen muss (noch). Die Perspektive der Physik auf das Ganze, auf das Universum, kam im Blog selbst bislang nicht explizit vor. Allerdings wurde das Standardmodell einer Entwicklung vom BigBang bis hin zur Evolution im Großen und Ganzen durchgehend unterstellt. Da die Physiker – wie in vielen anderen Disziplinen auch verbreitet – in der Regel ‚Physikalisch‘ schreiben, d.h. Eine Amalgam von Alltagssprache, durchmischt mit vielen Fachbegriffen, dazu – im Normalbetrieb – viele Formeln, ist es für einen Fachfremden in der Regel kaum möglich, diese Texte so einfach zu lesen (geschweige denn, sie überhaupt zu finden). Man ist darauf angewiesen, dass ein Physiker gelegentlich versucht, das komplexe Wissen seines Fachs in eine allgemein verständliche Sprache zu fassen. Dies führt zwar zu einem Verlust an fachlicher Genauigkeit, erschließt aber dafür das Verstehen von vielen Fachfremden. Das Buch von Lawrence M.Krauss ist so ein Buch. Im Folgenden wird versucht werden, seine Gedanken aufzugreifen und zu schauen, ob und wie diese in den bisher im Blog erarbeiteten Zusammenhang hinein passen.

VORWORT

  1. Im Vorwort stellt Krauss die Frage ins Zentrum Warum es so ist, dass eher Etwas da ist als Nichts. Seit je her gab es dazu verschiedene Antwortversuche, die in der Zeit vor den modernen Wissenschaften in religiösen oder philosophischen Versionen daher kamen. Je nach den Denkvoraussetzungen der jeweiligen Betrachter vermutete man erste Ursachen, erste Beweger, einen Schöpfer des Ganzen, also irgendetwas, was das Denken zu dieser Zeit so hergab. Krauss geht hier aber nicht auf Details ein. Er belässt es bei ein paar allgemeinen Bemerkungen. Seine eigene Position ist allerdings klar. Für ihn ist es ungewiss, ob wir jemals genügend empirisches Wissen haben werden, um diese Frage klar beantworten zu können. (vgl. S.xiii)
  2. [Anmerkung: Von heute aus betrachtet muss man festhalten, dass sich die Interpreten der Vergangenheit selten Gedanken darüber machten, ob und in welcher Form sie überhaupt über genügend Wissen verfügten, die Frage zu beantworten (deutlich fassbar in den Texten der drei Offenbarungsreligionen). In einem naiven Denken denkt man einfach, ohne sich darüber Rechenschaft zu geben, unter welchen Bedingungen man denkt, was Denken überhaupt ist, usw. Mit dem Erstarken des philosophischen Denken (zu unterschiedlichen Zeiten an unterschiedlichen Orten unterschiedlich stark; wichtiges Beispiel: die antike Philosophie in Griechenland) begannen Philosophen, ihr eigenes Denken zu erforschen. In Ermangelung moderner Erkenntnisse über den Körper, das Gehirn, die Materie waren die Bilder dieses Denkens über das Denken zwar auch einfach, aber es entstanden doch erheblich differenziertere Bilder der Wirklichkeit im Lichte von Denkmodellen. Ein Platon und ein Aristoteles benutzen dann ihre Modelle des Denkens, um über die Welt im Lichte dieser Denkmodelle zu spekulieren. So beeindruckend diese Spekulationen (speziell im Falle des Aristoteles) sind, so wenig hilfreich sind sie aufs Ganze gesehen, weil ihre Voraussetzungen zu viele Schwachstellen aufweisen. Wenn dann eine Offenbarungsreligion wie das Christentum sich für Jahrhunderte mit diesen bedingt gültigen philosophischen Denkmodellen verbindet, werden die resultierenden Aussagen nicht wahrer.]
  3. Krauss liefert sich im Vorwort außerdem ein kleines Scharmützel mit jenen philosophischen und theologischen Positionen, die den Begriff Nichts (’nothing‘) im Gegensatz zum Begriff Irgendetwas (’something‘) so konstruieren wollen, dass das mit dem Begriff ‚Nichts‘ Gemeinte radikal nichts ist, in keiner Weise irgendetwas (Er nennt allerdings keine konkrete Autoren oder Texte). Eine solche Feststellung hält er für eine intellektuelle Bankrotterklärung, da für ihn, Kraus, das mit ‚Nichts‘ Gemeinte genauso etwas Physikalisches ist wie das mit ‚Irgendetwas‘ Gemeinte. Und – unter dieser Voraussetzung – kann es für das mit ‚Nichts‘ Gemeinte, wenn überhaupt, nur eine empirische Definition geben. (vgl. S.xiv)
  4. [Anmerkung: Nimmt man diese letzte Feststellung ernst, dann geht Krauss davon aus, dass das Reden über die Wirklichkeit nur in Begriffen empirischer Wissenschaft stattfinden kann. Diese Annahme ist (wie in vielen Blogbeiträgen zuvor schon angesprochen) eine unzulässige Vereinfachung des menschlichen Erkenntnisstandpunktes. (i) Die empirische Phänomene sind eindeutig nur eine echte Teilmenge der erlebbaren Phänomene überhaupt. Über diese nicht-empirischen Aspekte unserer Wirklichkeit zu sprechen ist nicht nur Alltag legitim, sondern selbst für einen strengen empirischen Wissenschaftsbetrieb bis zu einem gewissen Grad unausweichlich! Die intellektuelle Bankrotterklärung läge in diesem Punkt dann eher bei Krauss und nicht bei den andern. Im übrigen (ii) ist eine moderne empirische Theorie eine Synthese von empirischen Daten und formaler Mathematik als Ausdrucksmittel. Die Mathematik, die eingesetzt wird, enthält Begriffe, die in keiner Weise empirische verifiziert werden können, abgesehen davon, dass die in der Physik benutzte Mathematik grundsätzlich nicht vollständig entscheidbar ist (Goedel 1931, Turing 1936/7). Die moderne Mathematik selbst ist im Ansatz nicht empirisch, sondern vom Grundkonzept her metaphysisch. Darüber haben bislang schon viele Wissenschaftsphilosophen nachgedacht. Krauss offenbar nicht.]
  5. Als stärkste Motivation, dieses Buch zu schreiben, benennt Krauss die Entdeckung, dass sich der größte Teil der Energie im Universum in einem Zustand befindet, der von der Wissenschaft bislang nicht wirklich erklärt werden kann. Diese Entdeckung hat die gesamte Wissenschaft verändert, und auch sein Leben als Physiker. Denn sie führte dazu, dass er sich jahrelang genau diesem Phänomen gewidmet hat und nun über seine Erkenntnisse berichten möchte.

Eine Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

WO IST DER STANDPUNKT VON JEDEM EINZELNEN? Eine Notiz

ANGEREGT VON

  1. Angeregt von dem Buch von Matt Ridley Ehe Evolution of Everything. How small Changes Transform our World (2015) ergaben sich viele interessante Fragen. Eine ausführlichere Diskussion des Buches wird im Blog noch erfolgen. Vorab aber erste Impressionen zu der speziellen Frage, die sich mir stellte, ob sich für jeden Menschen skizzieren lässt, was eigentlich der individuelle Ausgangspunkt für den gesamten Weltbezug ist (eine Abstimmung dieser Überlegungen mit den vielen vorausgehenden Beiträgen im Blog könnte zusätzlich hilfreich sein).

ALLGEMEINE BEDEINGUNGEN FÜR LEBEN

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)
Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)
  1. Im Lichte des verfügbaren empirischen Wissens könnte man versucht sein, vier Dimensionen aufzuspannen:
  2. Den allgemeinsten Rahmen gibt die Naturgeschichte des Universums mit ca. 13.8 Mrd Jahren bislang, durch die die allgemeinsten Rahmenbedingungen festgelegt werden. Ohne diese zu verstehen kann man eigentlich gar nichts verstehen (Übergang von Energie in den Zustand von Materie mit Bewegung und Raum, Bildung von Atomen, Molekülen im Kontext von Gas- und Sonnenbildungen, Galaxien, usw.).
  3. Innerhalb dieses Rahmens haben sich seit ca. 3.8 Mrd Jahren biologische Strukturen herausgebildet, die unter Beachtung der allgemeinen physikalischen Gesetze eine Eigendynamik entwickelt haben, die sich deutlich von den allgemeinen physikalischen Gesetzen abheben.
  4. Sehr spät – also ca. ab 200.000 Jahren vor unserer Zeit – kann man innerhalb der biologischen Strukturen ein Phänomen beobachten, das mit Populationen des homo sapiens sapiens nur sehr unzulänglich beschrieben ist. Populationen des homo sapiens sapiens (hier abgekürzt hss-Populationen) zeigen eine Dynamik, die sich von der allgemein biologischen Dynamik nochmals deutlich abhebt.
  5. Dies neue Art von hss-Dynamik wird initiiert von jedem einzelnen Mitglied einer hss-Population, also von jedem einzelnen Exemplar eines homo sapiens sapiens; diese hss-Exemplare sollen hier Menschen genannt werden.
  6. Jeder einzelne Mensch (kurz für hss-Exemplar) zeigt spezifische Dynamiken im Vergleich zu allen anderen biologischen Individuen, setzt aber alle allgemeinen biologischen und physikalischen Gesetze voraus. Ohne diese kann man ihn nicht verstehen. Zusätzlich zeigt der Mensch aber besondere Dynamiken, die im Wechselspiel mit anderen Menschen im Rahmen von jeweiligen Gesellschaftssystemen zu immer wieder neuen Konstellationen führen können.
  7. Soweit eine erste Sichtweise aus der Sicht der empirischen Wissenschaften. Bei dieser Sichtweise wird vorausgesetzt, dass es eine Menge von wissenschaftlichen Beobachtern OBS gibt, die alle in gleicher Weise diese empirischen Phänomene sehen und beurteilen können.

EMPIRISCHER BEOBACHTER UNVOLLSTÄNDIG

  1. Wie wir aber heute wissen (können) (Anmerkung: siehe z.B. die 9 Blogeinträge HIER; es gab dazu noch viele weitere Blogeinträge), ist der von den empirischen Wissenschaften unterstellte homogene Beobachter eine starke Idealisierung. Diese Idealisierung ermöglicht zwar die Erklärung vieler Begriffe im Kontext der empirischen Wissenschaften, verdeckt aber die ganze komplexe Maschinerie, die notwendig ist, dass der idealisierte empirische Beobachter überhaupt funktionieren kann.
  2. Bezieht man diese komplexe Maschinerie ein, dann betritt man das aufregende unbekannte Land der aktuellen Forschungen, in denen von der einen Seite aus die empirischen Wissenschaften versuchen, das faszinierende Phänomen des Menschen mit empirischen Mitteln aufzuhellen, auf der anderen Seit die sogenannten Geisteswissenschaften, mit zusätzlichen, nicht-empirischen Methoden. Leider herrscht in diesem Forschungsgebiet des Phänomens Mensch eine große Unübersichtlichkeit, wechselseitig viel Unverständnis und unnötige Verteufelungen, natürlich auch schlichte Abgrenzungskämpfe um selbst möglich viel von den knappen Forschungsgeldern zu bekommen. Das interessanteste Phänomen des bekannten Universums, der Mensch, wird also vielfach zerrieben zwischen den Kämpfen der beteiligten Disziplinen.
  3. Ein beliebter Konfliktpunkt im Wechselspiel der vielen beteiligten Disziplinen ist die grobe Unterscheidung zwischen dem empirischen Standpunkt des Beobachters aus der sogenannten 3.Person-Perspektive und und dem subjektiven, introspektiven Standpunkt des Beobachters (als Selbstbeobachter) aus der sogenannten 1.Person-Perspektive.
  4. Die Kritik der empirischen Disziplinen an Untersuchungen im introspektiven Modus ist natürlich berechtigt, da introspektive Untersuchungen sich interaktiv nur sehr schwer (bis gar nicht) zweifelsfrei kommunizieren und überprüfen lassen.
  5. Auf der anderen Seite kulminiert das Besondere des Phänomens Mensch gerade in der Fähigkeit, auf der Basis seines Körpers mit dem Gehirn eine Art Innensicht des Systems genannt Bewusstsein auszubilden, das den Menschen in die Lage versetzt, genau diese Besonderheit an Dynamik zu entwickeln, die Populationen von Menschen deutlich abhebt von anderen biologischen Populationen. Außerdem besteht zwischen der 3.Person-Perspektive und der 1.Person-Perspektive kein absoluter Gegensatz. Die sogenannte 3.Person-Perspektive ist genuiner Teil des Bewusstseins, also der 1.Person-Perspektive. Mathematisch kann man davon sprechen, dass die Perspektive des empirischen Beobachters eine echte Teilmenge der Perspektive der 1.Person ist. Zum vollen Verständnis des empirischen Beobachters muss man letztlich sogar von dieser Teilmengeneigenschaft Gebrauch machen, sonst kann man das Funktionieren des empirischen Beobachters gar nicht erklären.
  6. Dieses spezifische Abhängigkeitsverhältnis des empirischen Beobachters von dem introspektiven Beobachter wurde bislang in den Wissenschaften kaum (oder gar nicht?) tiefer gehender diskutiert und untersucht. Man belässt es gerne bei der Abgrenzung.

SPEZIFISCHE DYNAMIK DES BIOLOGISCHEN

  1. Kommen wir nochmals zurück zur Behauptung, dass sich die biologischen Strukturen von den allgemeinen physikalischen Strukturen durch eine spezifische Dynamik auszeichnen und innerhalb der biologischen Strukturen sich die menschliche Population auch nochmals durch eine spezifische Dynamik auszeichnet. Viele (die meisten?) Wissenschaftler würden solche Feststellungen eher ablehnen. Die Grundtendenz ist (nachvollziehbar und bis zu einem gewissen Grad angemessen), die Vielfalt der Phänomene auf möglichst wenig Grundprinzipien zurück zu führen. Das ist das Erfolgsprinzip der empirischen Wissenschaften bis heute. Allerdings zeigt die Geschichte der Wissenschaften, dass gerade aufgrund dieses Prinzips nicht alles zu einem Einheitsbrei zusammen gedampft wurde, sondern dass gerade im Versuch der Vereinfachung sich auch Besonderheiten gezeigt haben. Die Vielfalt der heute bekannten Materieteilchen (subatomar, atomar, molekular…) kann man zwar auf allgemeine Prinzipien zurückführen, die schließlich alle im Superbegriff der Energie versinken, aber die Vielfalt der Phänomene im Universum allgemein wie speziell auch auf der Erde mit den biologischen Strukturen kann man nicht erklären, indem man im abstraktesten Allgemeinen verweilt.
  2. Ein Charles Darwin hat (im Kontext vieler anderer Denker, die damals ähnliche Phänomene untersuchten) zwar einerseits die Vielfalt biologischer Phänomene auf einige wenige Prinzipien der möglichen Entstehung zurückgeführt, aber diese Rückführung führte nicht zur Aufhebung der Vielfalt selbst. Nein, die Vielfalt blieb erhalten und es kamen Ideen auf, wie nicht nur diese Vielfalt sondern noch ganze andere Vielfalte entstehen könnten. In gewisser Weise erschien die beobachtbare Vielfalt als Manifestation eines Prinzips, das offensichtlich wirkte und genau durch die wechselnden Vielfalte sichtbar wurde. Dass dieses Prinzip dann den Namen Evolution bekam ist fast nebensächlich, Wichtig ist nur, dass überhaupt ein Prinzip entdeckt werden konnte, das mathematisch als Funktion, Abbildung interpretierbar ist:
  3. evol: BIOL x ENV —> ENV x BIOL
  4. Etwa umschreibar mit: gegebene biologische Systeme (BIOL) in bestimmten Umgebungen (ENV) können neue biologische Systeme hervorbringen und dabei zugleich verändernd auf die Umgebung einwirken. Die spezifischen Aktivitäten, Veränderungen dieser vielfältigen Formen werden hier allgemein als Dynamik bezeichnet.
  5. In dieser Allgemeinheit lässt das Evolutionskonzept noch nahezu nichts Konkretes erkennen, fokussiert aber den Blick darauf, dass der kontinuierliche Strom der Formen nicht rein zufällig stattfindet, sondern von Bedingungen abhängt, die nach einem bestimmten Muster neue Formen hervorbringt. Diese Dynamik deutet damit auf eine bestimmte Prozessstruktur hin, auf eine bestimmte mathematisch beschreibbare Logik des Geschehens, die sich nicht in der Beschreibung der einzelnen Teile erschöpft, sondern nur und gerade in der Beschreibung von Abfolgen und Zusammenhängen, durch die sich diese unterstellte Logik manifestiert.
  6. Der Begriff der Emergenz, der in diesem Zusammenhang oft und gerne benutzt wird, erscheint dem Autor dieser Zeilen zu schwach, um der Konkretheit dieser Logik und ihrer massiven Wirkung gerecht zu werden.
  7. Nach Darwin konnte das postulierte Prinzip der Evolution schrittweise immer weiter konkretisiert werden. Mit der Entdeckung von Zellstrukturen, von Molekülen, speziell dem DNA-Molekül, dem Reproduktionsmechanismus der Zellen mit Hilfe von DNA- und anderen Molekülen, dem epizyklischen Geschehen und vielem mehr konnte man die postulierte Logik des Geschehens an immer konkreteren Strukturen festmachen und damit die unterstellte Prozessstruktur verfeinern. Mittlerweile gibt es sogar weitreichende Modelle, die sogar die Entstehung der komplexen Zellen selbst aus einfacheren Bestandteilen unter bestimmten Umgebungsbedingungen plausibel machen können. Auch hier handelt es sich letztlich mathematisch um Abbildungsprozesse, die die Genese/ Konstruktion von komplexen Strukturen aus einfacheren Elementen unter Beteiligung von Wirkprinzipien andeuten. Die Wirkprinzipien selbst jenseits der beteiligten materiellen Komponenten sind nicht direkt beschreibbar, nur in ihren Wirkungen (so wie auch z.B. die Gravitation sich nur indirekt durch das Verhalten der beobachtbaren Materiekonstellationen erschließen lässt).
  8. Die entscheidend Botschaft ist hier also, dass sich in der Dynamik biologischer Strukturen Wirkprinzipien manifestieren, die charakteristisch für das Biologische sind, die auf implizite Eigenschaften der beteiligten Komponenten hinweisen, die sich nur in bestimmten Konstellationen zeigen. Letztlich sind es Eigenschaften der Materie, die sich überall im Universum zeigen können, wenn entsprechende Bedingungen gegeben sind.

ENDLICHE UNENDLICHKEIT

  1. Während ein einzelner Mensch am Beispiel seines Körpers mit dem klaren Beginn (Geburt) und dem klaren Ende (Tod) das Modell eines endlichen Prozesses am eigenen Leib erleben kann (und natürlich vielfältig im Laufe seines Lebens mit anderen Phänomenen), gibt es aus Sicht eines Menschen aber Phänomene, die sein Leben überdauern, die länger als 100 Jahre andauern. Die Endlichkeit wird damit immer ungreifbarer, erscheint immer mehr wie eine quasi Unendlichkeit. Und im Denken kann ein Mensch den Begriff der Unendlichkeit formen als Gegensatz zur Endlichkeit. Es bleibt zwar offen, ob und wieweit dem der gedanklichen Unendlichkeit irgendeine Realität entspricht, aber zumindest gibt es ein Etwas, ein Gedachtes, als Gegensatz zur konkreten Endlichkeit.

UNTERBRECHUNG

  1. Mit diesem angedeuteten Koordinatensystem kann man nun viele bekannte Phänomene diskutieren und zueinander in Beziehung setzen. Vielleicht geschieht dies mit weiteren Blogeinträgen.

Einen Überblick über alle Blog-Beiträge des Autors cagent nach Titeln findet sich HIER.

BLICK IN DAS INNERE DES UNIVERSUMS – NICK LANE – LIFE ASCENDING – BESPRECHUNG – Teil 2

Nick Lane, „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT

  1. Im vorausgehenden Teil 1 wurde nach einer kurzen Einleitung die Entstehung des Lebens im Lichte neuerer Erkenntnisse skizziert. Wer dadurch neugierig geworden ist, sei ermuntert, den Text von Lane und die angegebenen zusätzlichen Artikel und Bücher selbst zu lesen. In dieser Besprechung können nur die großen Linien angesprochen werden und mögliche Zusammenhänge mit dem Thema dieses Blogs. Interessant vielleicht auch die Nachbemerkungen zur Besprechung in Teil 1.
  2. Nachdem in Teil 1 neuere Forschungsergebnisse andeuten, wie sich das biologische Leben (= das Leben) im Rahmen der allgemeinen physikalischen (und chemischen) Gesetze in Form von grundlegenden hoch stabilen metabolischen Prozessketten formieren konnte, stellt sich die Folgefrage, wie der Weg von diesen komplexen, und doch – verglichen mit den späteren biologischen Strukturen – noch so einfachen Strukturen zu den eigentlichen Selbstreproduktionsmechanismen kommen konnte.

DNA – Der Code des Lebens (SS.34-59)

  1. Lane beginnt mit dem Sachverhalt, dass die Reproduktion einer Zelle letztlich gesteuert wird vom sogenannten Genom, das aus einer endlichen Menge von DNA-Molekülen besteht, wobei jedes DNA-Molekül jeweils in einem Doppelstrang ausgeführt ist. In diesem Doppelstrang bildet jedes Element ein Paar aus zwei Basen.
  2. [Anmerkung: ein DNA-Molekül bildet zusammen mit weiteren Elementen ein Chromatin. Ein Chromosom enthält – je nach Zellphase – entweder genau ein Chromatin oder ein Chromatin und seine Kopie (bei der Zellteilung werden diese beiden auf auf zwei neue Zellen als Schwester-Chromatine aufgeteilt). Die Gesamtheit der Chromosome bildet das Genom.]
  3. [Anmerkung: ein Grundelement (Nukleotid) der DNA besteht aus einem Strukturelement (einem Zucker-Phosphat Molekül), an das sich eine Base anlagern kann. Zwei solche Nukleotide können sich dann über die Basen komplementär zu einem Paar verbinden. (vgl. CELL S.3)]
  4. Es gibt vier Basen Adenin (A), Thymin (T), Guanin (G) und Cytosin (C). Dazu gibt es die starke chemische Tendenz, dass A sich nur an T bindet und C nur an G. Dadurch sind die beiden Stränge komplementär. (vgl. S.34f) Die Anordnung nutzt also eine vorgegebene chemische Bindungstendenz aus.
  5. Die Gesamtzahl der Nukleoide in einem menschlichen Genom wird auf ca. 3 Mrd (10^9) geschätzt. Bei ca. 15 Billionen (10^12) Körperzellen [Anmerkung: neuere Schätzungen gehen auf ca. 34 Billionen) bedeutet dies, dass das Genom 15 Billionen Mal (und öfters, da ja Körperzellen absterben und wieder ersetzt werden müssen) kopiert werden muss. Bei einer geschätzten Fehlerrate von 1 Nukleotid in 1 Mrd bedeutet dies, dass bei einer Kopie ca. 3 Fehler auftreten. Der Unterschied zwischen Menschen wird auf ca. 1 Unterschied pro 1000 Nukleotide geschätzt, also ca. 3 Mio; Lane spricht von 6-10 Mio. (vgl. SS.36-38)
  6. Beispiel: Die Trennung vom Schimpansen soll ca. vor 6 Mio Jahren geschehen sein. Die empirisch ermittelte Abweichungen werden mit 1,4% angegeben, also jede Art hat ca. 0.7% ihres Genoms in dieser Zeit verändert [Anmerkung: Bei einer angenommenen Generationendauer von 30 Jahren ergäben sich ca. 1050 Änderungen an Nukleotiden pro Generation auf jeder Seite].(vgl. S.38)
  7. Das Wissen um die Kombinatorik der Basen auf einem DNA-Molekül nützt allerdings letztlich nur dann etwas, wenn man auch weiß, welche potentiellen Strukturen und ihre lebensweltbezogenen Funktionen damit kodiert werden.(vgl. S.39) In der Zeit vor der Entdeckung von Watson und Crick 1953 waren die Details der biochemischen Maschinerie unbekannt.(vgl. S.40f)
  8. Nur langsam entdeckte man, dass die Proteine außerhalb des Zellkerns über die Zwischenstationen Messenger RNA (mRNA) (erste Kopie von DNA-Abschnitten) und Transfer RNA (tRNA) (Rückübersetzung) und Ribosom (Zusammenbau von Aminosäuren anhand der tRNA-Informationen) erzeugt werden. Und nur langsam entdeckte man, dass jeweils vier Nukleotide aus der DNA ein Codon bilden, das für genau eine Aminosäure steht, deren Aneinanderreihung ein Protein (bei kürzeren Formen spricht man von einem Peptid) ergibt. Während 4^4 = 64 Kombinationen mit einem Codon möglich wären, schätzten Crick und Watson damals die Zahl der relevanten Aminosäuren für biogene Proteine auf 20. [Anmerkung: im menschlichen Körper kommen 21 verschiedene Aminosäuren vor. Insgesamt sind heute 23 Aminosäuren bekannt, die bei Proteinen Verwendung finden (wobei heute mehr als 400 Aminosäuren bekannt sind, die biologisch wichtig sind aber nicht in Proteinen vorkommt).] Es stellte sich heraus, dass der Kode redundant ist: es können mehrere verschiedene Codons die gleiche Aminosäure kodieren. Drei von 64 Codons dienen als STOP-Signal. Da dieser Kode universell für alle Lebensformen gilt wird daraus geschlossen, dass alle diese Lebensformen einen gemeinsamen Vorläufer gehabt haben müssen, von dem diese Kodierung übernommen wurde. (vgl. SS.39-45) Crick entwickelte daraus die These (1981), dass das Leben von außerhalb der Erde kam (Raumschiff, Aliens,…), und sich dann hier ausgebreitet hat.
  9. Die Hypothese von Crick wurde durch den Gang der Forschung überholt. Generell erschien die Hypothese von Crick auch nicht sehr plausibel, da das Auftreten von komplexen Molekülen ohne entsprechende Umgebungen wenig Chancen bietet, dass diese Moleküle überleben.(vgl. S.45f)
  10. Realistischer erschienen solche Hypothesen, die aufzeigen können, wie die Elemente von Aminosäuren aus Vorläufermaterial aus vorgegebenen Umgebungen rekrutiert werden konnten.(vgl. S.46)
  11. Und in der Tat, man entdeckte nach und nach, dass es einen Kode in den Codons gibt! Die Codons mit ihren vier Elementen haben Positionen 1-4. Ein einzelnes Codon steht nicht nur irgendwie für eine bestimmte Aminosäure, sondern die Abfolge der Elemente im Codon steuern sehr stark auch den Prozess der Aminosäurebildung! So fand man heraus, dass es folgenden Zusammenhang gibt: ein C an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein alpha-ketoglutarate benutzt werden soll; ein A an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein oxalocetate benutzt werden soll; ein T steht für pyruvate; ein G steht für eine beliebige Anzahl von einfachen Vorläufern.(vgl.S46f und Fußnote 5)
  12. Die zweite Position im Codon reguliert, wo im Spektrum zwischen hydrophob und hydrophil sich die Aminosäure ansiedeln soll: die fünf häufigsten hydrophoben Elemente korrespondieren mit T an Position 2; die meisten hydrophilen Elemente mit dem Element A; G und C stehen für Elemente in der Mitte des Spektrums.(vgl. S.47)
  13. Position 3 und 4 lassen keine feste Kodierung erkennen. Dies deutet darauf hin, dass die frühen Vorformen des DNA-Kodes möglicherweise nur 2 Elemente hatten, die stark deterministisch waren. Experimente mit Punktmutationen zeigen, dass der genetische Kode verglichen mit zufälligen Anordnungen extrem stabil ist. Er stellt eine interessante Kombination dar aus einem sehr konservativem Anteil (Position 1-2), und einem experimentellen Anteil (Positionen 3-4).(vgl. SS.47-49)
  14. Bleibt als Frage, wie kam der Prozess zustande, in dem DNA eine Proteinproduktion steuert, wo aber DNA spezifische Proteine für ihr Funktionieren voraussetzt und die spezifischen Proteine eben DNA?(vgl.S.49)
  15. Eine Lösung deutet sich an über RNA Moleküle: diese sind flexibler und können als Katalysatoren wirken, die zur Bildung jener ersten Proteine geführt haben, die wiederum Vorformen von DNA-Molekülen ermöglichten.(vgl.49-51)
  16. Allerdings, wo kommen diese RNA-Moleküle her? Man weiß, dass RNA-Moleküle sich nur bei hohen Konzentrationen bilden können, da sie beim Zusammenbau Nukleotide verbrauchen. Wo findet man solche hohen Konzentrationen? Die Entdeckung der unterseeischen Schlote eröffnet ein mögliches Szenario. Modellrechnungen zeigten, dass die Wahrscheinlichkeit sehr hoch ist, dass sich in solchen Schloten (speziell in den Poren des Gesteins) solche hohen Konzentrationen von RNA-Molekülen bilden können. Simuliert man RNA-Moleküle isoliert, dann tendieren sie dazu, sich nur mit einer minimalen Struktur fortzupflanzen, nur genau so viele Elemente, wie zur Reproduktion notwendig sind (die berühmten ‚Spiegelmann Monster‘). Dieses Modell ist offensichtlich nicht dazu geeignet, die Bildung komplexer RNA-Moleküle, dazu noch in Kooperation mit Proteinbildung zu erklären. Eine Lösung muss in einem umfassenderen Rahmen gesucht werden, in dem die RNA-Moleküle nur eine Teilkomponenten sind. Dieser umfassenderer Rahmen wurde wieder in der Struktur der unterseeischen Schlote gesehen. Die Poren bilden natürliche Umgebungen, die wie eine Zelle wirken, in der komplexere metabolische Prozesse ablaufen können, in deren Kontext die RNA-Moleküle nur eine Teilfunktion haben.(vgl. S.53-55)
  17. Zum Thema umfassender Rahmen gehören auch die Entdeckungen, dass aufgrund genetischer Strukturen die Eukaryotischen Zellen (jene mit einem Zellkern) von den Archaeen abstammen, diese wiederum haben sehr viel mit den Bakterien gemeinsam. Letztere beiden unterscheiden sich aber bei der DNA Replikation, was so gedeutet wird, dass beide einen gemeinsamen Vorläufer haben müssen, von dem sie sich unterschiedlich weiter entwickelt haben.(vgl.S.55f)
  18. Die Arbeitshypothesen laufen darauf hinaus, dass die flexibleren RNA-Moleküle zwischen Proteinerzeugung und DNA-Bildung vermittelt haben (nach dem Muster von Retroviren?). Erst in dem Maße, wie sich die stabileren DNA-Moleküle bilden konnten, war auf Dauer eine Reproduktion gesichert. Für die beiden chemischen Unterschiede von RNA- und DNA-Molekülen gibt es genügend chemische Bestandteile in der unterseeischen Schlotumgebung, so dass eine DNA-Erzeugung aus RNA-Molekülen prinzipiell möglich erscheint.(vgl. SS.55-59)

DISKURS

  1. Die Details der neuen Erkenntnisse können einen erschlagen, und doch ist dies ja nur die berühmte Spitze des Eisbergs. Hinter diesen Fakten verbergen sich hochkomplexe Prozesse und entsprechend aufwendige Forschungen, die hier natürlich nicht beschrieben werden können. Nick Lane macht das großartig.
  2. Aber, treten wir ein paar Schritte zurück und fragen uns, was sich in diesen vielen Fakten an allgemeineren Strukturen andeutet.
  3. Offensichtlich nimmt man aktuell an, dass man mindestens die folgenden Strukturen unterscheiden sollte:
  4. Die heutigen eukaryotischen Zellen (Z_eu) (Zellen mit einem komplexen Kern und vielen Teilstrukturen inklusive ganzer ehemaliger Bakterien).
  5. Die heutigen Prokarytischen Zellen (Z_pro) als Bakterien (Z_ba) und die Archaeen (Z_ar)
  6. Eine Erzeugungsbeziehung zwischen Archaeen und Eukaryoten (g_ar.eu : Z_ar —> Z_eu)
  7. Bei dieser Erzeugungsbeziehung sind weitere Einflussfaktoren durch horizontalen Genaustausch nicht völlig ausgeschlossen.
  8. Es soll einen gemeinsamen Vorläufer (Z_pre) von Archaeen und Bakterien geben.
  9. Entsprechend muss es auch eine Erzeugungsbeziehung geben: g_pre.ar.ba: Z_pre —> Z_ba u Z_ar.
  10. Diese Strukturen und Erzeugungsbeziehungen haben nicht im Nichts stattgefunden, sondern haben geeignete Umgebungen ENV benötigt, die sowohl in großen Mengen und kontinuierlich die notwendigen Ausgangsmaterialien M0 bereit halten konnten wie auch die notwendigen Temperaturgefälle DT für die Ermöglichung der chemischen Prozesse: ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu>
  11. Ferner wird angenommen, dass die allgemeinen physikalisch-chemischen Gesetze (G) gelten und ausschließlich diese für das Auftreten und das Reagieren der verschiedenen beteiligten Materialien zuständig sind, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu, G>
  12. Dazu gehören auch jene Entstehungsprozesse, die aus den Ausgangsmaterialien M0 die Vorläuferzelle Z_pre hat entstehen lassen, also g_0: ENV x TD x M0 —> Z_pre, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_0, g_pre.ar.ba, g_ar.eu, G>
  13. Für den Bereich der eukaryotischen Zellen Z_eu werden mindestens angenommen DNA-Moleküle, Boten-RNA (mRNA), Transfer RNA (tRNA), ribosomale RNA (ribRNA) und Proteine PROT. Dazu weitere Großstrukturen wie Chromatin(e), Chromosomen, Mitochondrien, usw.
  14. Im Bereich der Erzeugungsprozesse muss man ferner eine Art zeitliche und logische Abhängigkeit annehmen, indem der jeweils spätere Hervorbringungsprozess andere frühere voraussetzt, also: G < g_0 < g_pre.ar.ba < g_ar.eu.
  15. Jeder dieser Hervorbringungsprozesse wiederum zeigt sich nicht im Nichts sondern nur beim Vorhandensein spezifischer Materialien M, die in ihrem beobachtbaren Verhalten phi indirekt das Wirken spezifischer Gesetze manifestieren. Ohne die Beobachtbarkeit spezifischer Materialien und deren Verhalten (Newtons berühmter Apfel, die Planetenbahnen der alten Astronomen, magnetische Kräfte, Vulkanausbrüche, geologische Ablagerungen usw.) wäre es nicht möglich, auf dahinter/ darunter/ damit .. wirkende Kräfte phi zu schließen, die man dann in Form von symbolischen Darstellungen als gesetzmäßige Beziehungen (Relationen, Funktionen, Axiome) beschreibt.
  16. Während das menschliche Denken beim Vorliegen von irgendwelchen beobachtbaren Materialien, deren Eigenschaften und Veränderungen spontan dazu neigt, diese als gegeben, als auftretend, als seiend, als objektiv, als Objekte zu unterstellen, tut sich das gleiche Denken sehr schwer, das durch diese Materialien sichtbare werdende Verhalten phi in gleicher Weise als gegeben, seiend, objektiv vorkommend zu denken.
  17. Obgleich die beobachtbaren Materialien ohne dieses unterstellte Verhalten sich in keiner Weise verändern würden, zögern wir, aus den beobachtbaren Veränderungen auf eine interne Eigenschaft der Materialien zu schließen. Im Falle von tierischen Lebewesen wissen wir mittlerweile, dass das gesamte Verhalten in einem Nervensystem gründet, das im Innern des Systems angeordnet ist und von da aus das Verhalten steuert. Aber wir tun  uns schwer, in analoger Weise anzunehmen, dass das überall beobachtbare Verhalten von Materialien nicht auch von Strukturen abhängig ist, die im Innern der Materialien zu verorten sind.
  18. Bei chemischen Molekülen unterstellt man die atomare Struktur mit den unterschiedlichen Bestandteilen, Ladungen und Reaktionstendenzen, die in Wechselwirkung mit der jeweiligen Umgebung sich spezifisch verändern können.
  19. Bei Atomen bleiben einem nur noch die unterscheidbaren Teilchen, aber auch diese haben mathematisch beschreibbare ( wenngleich in Form von Möglichkeitsräumen) Verhaltenstendenzen.
  20. Dann bleibt als letzter Referenzpunkt nur die reine Energie E. Diese kann man nicht direkt beobachten, nur in ihren Wirkungen. Mit anderen Worten, die Energie E enthält sowohl alle potentiellen Materialeigenschaften wie auch die dazu gehörigen Verhaltenstendenzen. In diesem Sinne repräsentiert die Energie E eine Art Superobjekt, in dem die in der Makrowelt bekannte Unterscheidung zwischen materiellen Strukturen und Verhalten nicht mehr gilt. Energie als Superobjekt beinhaltet Materie und deren Verhalten in einem. Um diesen Sachverhalt auszudrücken, ist die bekannte Formel von Einstein e = mc^2 möglicherweise zu ungenau. Sie bietet keine Möglichkeit, zwischen materiellen Strukturen und Verhalten zu unterscheiden. Das beobachtbare Verhalten ist aber genau die Sprache, in der sich das Innere der Dinge mitteilt. Alles,was uns Menschen fasziniert, das sind die Erscheinungen der Veränderungen, ihre Vielfalt, ihre Abfolge. Liebe enthüllt sich nur im Gewandte solcher Veränderungen, genauso wie Hass oder Treue. Wissen ist eingeflochten in eine Vielzahl von Strukturen und deren Veränderungen.
  21. Sowohl die Entwicklung des Universums vor dem ersten Auftreten von Leben wie erst recht dann mit dem Auftreten biologischer Strukturen ist ein Prozess immer komplexerer Verhaltensweisen, die in ihrer Dynamik Gesetze, Regeln, Strukturen erkennen lassen, die den Blick immer tiefer in das Innere aller Dinge öffnen. Das ist eigentlich unfassbar fantastisch, aber es scheint niemand besonders zu rühren.

Keine direkte, aber inhaltlich passende Fortsetzung könnte DIESE sein.

WEITERE QUELLEN/ LINKS (Selektiv)

  • Freie Protein-Datenbank: http://www.ebi.ac.uk/pdbe/ (siehe auch http://proteopedia.org/wiki/index.php/Main_Page )
  • Visualisierung von Proteindaten: https://de.wikipedia.org/wiki/Jmol und http://wiki.jmol.org/index.php/Jmol_Application#Starting_Jmol_Application
  • Proteine (Peptide): https://de.wikipedia.org/wiki/Protein
  • Aminosäuren: https://de.wikipedia.org/wiki/Aminos%C3%A4uren
  • Alpha-Ketoglutarate: https://en.wikipedia.org/wiki/Alpha-Ketoglutaric_acid
  • oxalocetate: https://en.wikipedia.org/wiki/Oxaloacetic_acid
  • Pyruvate: https://en.wikipedia.org/wiki/Pyruvic_acid
  • Punktmutation: https://de.wikipedia.org/wiki/Punktmutation
  • Spiegelmann Monster: https://de.wikipedia.org/wiki/Spiegelmans_Monster
  • Bakterien: https://de.wikipedia.org/wiki/Bakterien
  • Achaeen: https://de.wikipedia.org/wiki/Archaeen
  • Eukaryoten: https://de.wikipedia.org/wiki/Eukaryoten
  • Retroviren: https://de.wikipedia.org/wiki/Retroviren
  • Chromosom: https://de.wikipedia.org/wiki/Chromosom
  • Chromatin: https://de.wikipedia.org/wiki/Chromatin
  • CELL: B.Alberts, A.Johnson, J.Lewis (und andere), Molecular Biology of THE CELL, 6.Aufl., 2015, New York: Garland Science, Taylor and Francis Group, LLC.
  • V.Storch, U.Welsch, M.Wink (und andere), Evolutionsbiologie,3.überarbeitete und aktualisiere Aufl., 2013, Berlin – Heidelberg: Springer-Verlag
  • Francis Harry Compton Crick, Nobelpreisrede: http://www.nobelprize.org/nobel_prizes/medicine/laureates/1962/crick-lecture.html
  • Francis Harry Compton Crick Life Itself: Its Origin and Nature (Simon & Schuster, 1981) ISBN 0-671-25562-2
  • DNA WikiEN: https://en.wikipedia.org/wiki/DNA
  • RNA: https://de.wikipedia.org/wiki/Ribonukleins%C3%A4ure
  • Harold Morowitz: https://en.wikipedia.org/wiki/Harold_J._Morowitz (ein großes Thema: Wechselwirkung von Thermodynamik und Leben)
  • Michael J.Russel et al: http://www.gla.ac.uk/projects/originoflife/html/2001/pdf_articles.htm: The Origin of Life research project by Michael J. Russell & Allan J. Hall , University of Glasgow, May 2011
  • Krebs-Zyklus: https://en.wikipedia.org/wiki/Citric_acid_cycle
  • Martin W, Russell MJ., On the origin of biochemistry at an alkaline hydrothermal vent. , Philos Trans R Soc Lond B Biol Sci. 2007 Oct 29; 362(1486):1887-925.
  • Martin W, Baross J, Kelley D, Russell MJ., Hydrothermal vents and the origin of life., Nat Rev Microbiol. 2008 Nov; 6(11):805-14.
  • Harold Morowitz und Eric Smith , Energy flow and the organization of life , Journal Complexity archive, Vol. 13, Issue 1, September 2007, SS. 51 – 59 ,John Wiley & Sons, Inc. New York, NY, USA

Einen Überblick über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann ($latex R: M \longmapsto O$). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Wie alles anfing

Die Überlegungen im vorausgehenden Kapitel beziehen sich auf das, was heute ist, auf die Gegenwart. Wie können z.B. Philosophen die Innensicht ihres Bewusstseins beschreiben; wie können Psychologen das beobachtbare Verhalten untersuchen. Was können die Gehirnforscher über die Struktur und die Funktionen des Gehirns feststellen. Diese Aufgabe ist groß genug, dass man damit mehr als ein Leben ausfüllen kann. Hätte man diese Beschreibungsaufgaben vollständig erfüllt — bislang fehlt da noch einiges –, würden dennoch wichtige Teile am Bild fehlen, vielleicht sogar die wichtigsten, ohne die das Ganze nicht verständlich ist: der reale Entstehungsprozess; wie es zum heutigen Zustand kommen konnte? Wie ist es möglich, dass sich solch komplexen Strukturen im Universum, als Leben auf der Erde herausbilden konnten, ohne dass man eine ‚äußere‘ Einwirkung erkennen kann? Was soll das Ganze? Wohin wird dies führen? Wohin kann dies führen? Welche Rolle spielen wir Menschen dabei? Sind wir nur eines von vielen vorübergehenden Phänomenen des Lebens, das wieder vergehen wird, bevor es bemerkt wurde?

Zeichen der Veränderung

Beginnend mit dem 19.Jahrhundert kam es in Westeuropa zu grundlegenden Änderungen im bis dahin vorwiegend christlich-biblisch geprägten Menschen- und Weltbild. Immer mehr Phänomene in der Veränderung von Lebensformen im Kontext unterschiedlicher Ablagerungsschichten im Gestein und Erdreich wurden entdeckt (Anmerkung: Aus meiner Sicht ein sehr hilfreiches Buch für diese Zeit ist u.a. Peter J.Bowler, „Evolution. The History of an Idea“, Berkeley, Los Angeles (CA): University of California Press, 1983, rev.ed. 1989).

Im Falle der Fossilien waren es berühmte Naturforscher wie z.B. Cuvier (1769 — 1832) , Étienne Geoffroy Saint-Hilaire (1772 – 1844) und Charles Robert Darwin (1809 — 1882), die neben der Vielfalt auch die Veränderungen in den unterschiedlichsten geologischen Schichten erkannten. Im Fall der geologischen Schichten waren es Männer wie William Smith (1769 — 1839), Roderick Impey Murchison (1792 — 1871), Adam Sedgwick (1785 — 1873), John Phillips (1800 – 1874) und Charles Lyell (1797 — 1875), die es schafften, erste Klassifikation von Erdschichten und deren chronologischer Abfolge mit Korrelation zu Fossilien aufzustellen. Insgesamt entstanden durch viele verschiedene, z.T. kontrovers diskutierte, Untersuchungen die ersten Umrisse eines Bildes, in dem die aktuelle Gestalt der Erde und der Lebensformen eine Folge von Veränderungen, eine Geschichte, beinhalten. Die Details dieser Geschichte (Vulkanismus, Klimaänderungen, Plattentecktonik, Baupläne,…) waren in ihren genauen Wirkungen lange Zeit zwar nicht eindeutig entscheidbar, ‚dass‘ die Erde und das Leben auf der Erde aber Veränderungen durchlaufen hatten und immer noch durchlaufen, das erschien jedoch immer mehr unabweislich.

Wie lange zurück reichte diese Geschichte? Neue thermodynamische Überlegungen von William Thomson, besser bekannt als Lord Kelvin (1824 – 1907), schränkten den zur Verfügung stehenden absoluten Zeitraum für die Entwicklung der Erde und des gesamten Universums im Laufe seines Lebens immer mehr ein, schließlich bis auf eine zweistellige Millionenzahl. Wie viele seiner Zeitgenossen ging er davon aus, dass die Erde und die Sonne sich kontinuierlich abkühlen, ohne dass neue Energie zur Verfügung steht, die dieser Abkühlung entgegen wirken könnte. Es brauchte die ersten Jahrzehnte des 20.Jh. um mit Hilfe der neuen Erkenntnisse aus der (Nuklear-)Physik bzw. aus dem Spezialgebiet der Teilchenphysik verstehen zu können, dass Sterne und Planeten eigene Energievorräte besitzen und über Prozesse verfügen, durch die diese Energie in Form von beobachtbaren Veränderungen (Sonnenstrahlen, Klima, Vulkanismus, Erdbeben, …) wirksam werden können.

Immer kleiner

1905 hatte Albert Einstein ganz allgemein u.a. die Äquivalenz von Masse und Energie mit seiner bekannten Formel $latex E=mc^{2}$ aufgezeigt, es brauchte aber noch weiterer gehöriger Anstrengungen, bis im Februar 1939 Lise Meitner (1878 – 1968) eine theoretische Beschreibung des ersten Kernspaltungs-Experiments veröffentlichen konnte, das Otto Hahn Ende Dezember 1938 zusammen mit seinem Assistent Fritz Straßman durchgeführt hatte. Im gleichen Jahr konnte Hans Albrecht Bethe (1906 – 2005) sein theoretisches Modell der Kernfusionsprozesse in der Sonne veröffentlichen (für die er 1967 den Nobelpreis bekam). Damit war die Tür zur Erkenntnis der verborgenen Energie in der Materie, in den Sternen, im Universum soweit geöffnet, dass dem Forscher ein glutheißer Atem entgegen schlug.

Es folgten stürmische Jahre der vertiefenden Erforschung der nuklearen Zusammenhänge, stark geprägt von den militärisch motivierten Forschungen zum Bau von Nuklearwaffen. Immer mehr Teilchen wurden im Umfeld des Atoms entdeckt, bis es dann ab den 70iger Jahren des 20.Jh zum sogenannten Standardmodell kam.

Obwohl sich dieses Standardmodell bislang in vielen grundlegenden Fragen sehr bewährt hat, gibt es zahlreiche fundamentale Phänomene (z.B. die Gravitation, die Expansion des Universums, dunkle Materie), für die das Modell noch keine erschöpfende Erklärung bietet.

Big Bang – Zeitpunkt Null

Ausgestattet mit den Erkenntnissen der modernen Physik lassen sich die Hypothesen aus dem 19.Jahrhundert zur Welt als Prozess ausdehnen auf das ganze Universum. Fasst man alle heutigen Erkenntnisse zusammen, wie dies in der sogenannten
Big Bang Theorie geschieht, nach 1990 gefasst als Lambda-CDM-Modell, führt dies auf ein Ereignis vor jeder physikalisch messbaren Zeit zurück. Ein solches Ereignis gilt den Physikern als eine Singularität. Da es im Universum auch andere Formen von Singularitäten gibt, nenne ich jene Singularität, mit der das bekannte Universum begann, hier die erste Singularität.

Durch die Weiterentwicklung der Relativitätstheorie von Albert Einstein konnten Stephen William Hawking (geb.1942),
George Francis Rayner Ellis (geb.1939) und Roger Penrose (geb.1931) aufzeigen, dass die Größen Raum und Zeit mit der ersten Singularität beginnen.

Von heute aus gesehen trat die erste Singularität vor 13.8 Mrd Jahren auf. Beginnend mit einer unendlich extremen Dichte und Hitze begann aus dem Ereignis heraus eine Ausdehnung (Raum und Zeit), die begleitet war von einer zunehmenden Abkühlung. Gleichzeitig kam es zur Herausbildung von subatomaren Teilchen, aus denen sich einfache Atome formten (Anmerkung: Die Entstehung der ersten Atome wird in der Zeitspanne 10 Sek – 20 Min verortet.). Gigantische Ansammlungen dieser ersten Elemente führten dann aufgrund der Gravitation zu Verdichtungen, aus denen Sterne und Galaxien hervorgingen (Anmerkung: Erste Sterne, die das dunkle Weltall erleuchteten werden nach ca. 100 Mio Jahren angenommen. Erste Galaxien etwa 1 Mrd Jahre später.). In den Sternen fanden Kernfusionsprozesse statt, die im Gefolge davon zur Bildung von immer schwereren Atomen führten. Ferner wird seit etwa 6.5 Mrd Jahren eine Beschleunigung bei der Ausdehnung des Universums beobachtet. Man vermutet, dass dies mit der ‚dunklen Energie‘ zu tun hat. Viele Fragen sind offen. Nach letzten Messungen geh man davon aus, dass das bekannte Universums zu 73% aus dunkler Energie besteht, zu 23% aus dunkler Materie, zu 4.6% aus ’normaler‘ Materie und zu weniger als 1% aus Neutrinos (Anmerkung: Jarosik, N. et al. (WMAP Collaboration) (2011). „Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Sky Maps, Systematic Errors, and Basic Results“. NASA/GSFC. p. 39, Table 8. Retrieved 4 December 2010).

Fortsetzung mit Kapitel 5

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

VORGESCHICHTE

1) In der Vergangenheit wurde in diesem Blog schon öfters über das Emerging Mind Project gesprochen; zu Beginn noch unter einem anderen Namen. Wobei letztlich – wer diesen Blog intensiv liest, wird es merken bzw. gemerkt haben – der ganze Blog im Grunde auf dieses Projekt hingeführt hat – was sich natürlich erst im Nachhinein so feststellen lässt.
2) Einige Blogeinträge, die einen besonders deutlichen Bezug haben zum Emerging Mind Project sind etwa die folgenden: Erste öffentliche Idee zu einem Projekt; damals noch ‚Reengineering Goethes Faust‘ genannt.; Treffen im Cafe Siesmayer; die Projekt-Idee gewinnt weiter an Fahrt. Überlegungen zu ein paar theoretischen Begriffen; Im Anschluss an die Brasilienvorträge erste Konkretisierungen des ‚Geist‘-Begriffs im Kontext der Evolution; das zog weitere Kreise; die ausführliche Reflexion zu Kauffmans Buch brachte an vielen Punkten wertvolle Anregungen; Beobachtungen im Kontext des Komplexitätsbegriffs und seiner Verdichtung in der globalen Evolution; weitere Präzisierung zur Beschleunigung der Komplexitätsentwicklung.

ROLLE DES BLOGS FÜR EMP

3) Im Blog geht es auf der persönlichen Seite um die Klärung der eigenen Fragen und Gedanken; auf der offiziellen Ebene geht es um eine philosophische Auseinandersetzung mit dem heute verfügbaren Wissen um unsere gemeinsame Welt. Dabei kam es bislang schon zu erstaunlichen Umakzentuierungen. Aus meiner Sicht besonders stimulierend ist die Klärung des Verhältnisses von Philosophie und Wissenschaft (Wissenschaft als Untergebiet der Philosophie), Philosophie und Kunst (Kunst ist der kreative Teil des Denkens), Philosophie und Theologie (Theologie als jener Teil der Philosophie, der sich speziell mit der Frage der möglichen ‚Botschaft in allem‘ beschäftigt und den sich daraus ergebenden spezifischen Anforderungen an den einzelnen (Spiritualität)). Eine Konsequenz vom letzten Punkt scheint zu sein, dass alle bisherigen Religionen damit in einer einzigen Religion münden, in einem Universum, mit einem Sinn für alle (was nicht heißt, dass alle den einen Sinn in gleicher Weise ‚interpretieren‘).

EMERGING MIND PROJECT – INM 11.Juni 2013

4) Am 11.Juni 2013 gab es im Institut für neue Medien (INM)(Frankfurt) eine erste öffentliche Veranstaltung im Rahmen der unplugged heads Reihe, die sich offiziell dem Emerging Mind Projekt widmete. Michael Klein (Mitgründer und Direktor des INMs), Gerd Doeben-Henisch (Professur für ‚Dynamisches Wissen‘ an der FH Frankfurt, Mitgründer und Vorstand des INM), Manfred Faßler (Professor am Institut für Kulturanthropologie und Europäische Ethnologie an der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Seine Forschungs- und Lehrbereiche sind die Medienevolution und medienintegrierte Wissenskulturen. )
5) Dieses Treffen diente dem Zweck, das öffentliche Gespräch zum Projekt zu eröffnen und war – auch entsprechend der offenen Gesprächskultur der unplugged heads Reihe – sehr locker. Im Folgenden folgt keine Beschreibung dieses Gesprächs sondern ein paar Gedanken, die der Autor des Blogs im Anschluss an dieser Veranstaltung hatte.

EXPERIMENTELLE MUSIK

6) Wer rechtzeitig da war, konnte zur Einstimmung ein Stück experimentelle Musik hören mit dem Titel They Appear and Disappear von cagentArtist. Gegen Ende wurde auch noch das Stück Another Pattern-Cloud Exercise, extended aufgeführt, ebenfalls von cagentArtist. Bei dieser Musik handelt es sich nicht um Musik für den Konzertsaal, sondern um ‚Labormusik‘, die nach der ‚Radically Unplugged‘ Methode im Labor erzeugt wird zur Erforschung des Klangraums unter spezifischen Randbedingungen.

IDEENGESCHICHTLICHER WENDEPUNKT?

7) An diesem Abend kamen in sehr intensiven 3 Stunden sehr viele interessante Aspekte zur Sprache. Mir selbst wurde im Laufe des Abends bewusst, dass man die Geschichte der Ideen möglicherweise neu strukturieren könnte bzw. müsste. Der große ‚Umschaltpunkt‘ wäre dann die Zeit des Auftretens der neuen experimentellen und formalen Wissenschaften (ungefähr ab der Renaissance) bis zum Emerging Mind project. Denn bis zum Aufkommen und zur gesellschaftlich relevanten Etablierung der neueren Wissenschaften konnotierten die Menschen das ‚Lebendige‘ im Gegensatz um ‚Nichtlebendigen‘ mit etwas Besonderem, schrieben im besondere Eigenschaften zu, und einer der dabei benutzten Begriffe (mit jeweils anderen Worten in anderen Sprachen) war der Begriff ‚Geist‘, der insbesondere dem Lebewesen Mensch inne zu wohnen schien.

‚GEIST‘ FRÜHER

8) Der Begriff ‚Geist‘ ist aber – wie sich jeder in den Zeugnissen der Geschichte überzeugen kann – alles andere als klar und gebunden an eine Vielzahl von ‚Manifestationen‘, die alle Bereiche überdecken: normales Leben, Rhetorik, Handwerk, Kunst, Philosophie usw. Man kann diesen Begriff wie so eine Art ‚imaginären Fluchtpunkt aller Projektionen‘ ansehen, die man auf den Menschen aufgrund seines erfahrbaren Verhaltens richten konnte. Mit neuzeitlichen Begriffen könnte man mit Kant vielleicht von einer allgemeinen ‚transzendentalen Bedingung‘ sprechen, die man annehmen muss, um die verschiedenen Erscheinungsweisen des Menschen zu verstehen. Noch moderner könnte man von einer ‚Funktion‘ sprechen, die dem ‚Körper‘ des Menschen eben jene charakteristischen Eigenschaften verleiht, die wir als spezifisch ‚Menschlich‘ ansehen gelernt haben.
9) Nebenbei: Es gibt ein starkes Wechselverhältnis zwischen diesen Auffassungen von ‚Geist‘ und der Annahme einer menschlichen ‚Seele‘. Ich habe aber nicht den Eindruck, dass dieses Verhältnis bislang abschließend geklärt wurde. Dies mag darin begründet sein, dass beide Begriffe ‚geist‘ und ‚Seele‘ in sich weitgehend unbestimmt sind; sie leben von ‚Randbedingungen‘, von ‚Konnotationen‘, von ‚Manifestationen‘, von begrifflich-logischen Schlüssen, die wenig Anhaltspunkte in der Realität haben.

AUSTREIBUNG DES BEGRIFFES ‚GEIST‘

10) Für den Gesamtzusammenhang wichtig ist es, dass diese über viele tausend Jahre anhaltende vage Sprechweise von ‚Geist‘ mit der Entwicklung der experimentellen und formalen Wissenschaften immer mehr an Anhaltspunkten verloren hat. Die Erforschung der realen Natur und des Weltalls konnte zunächst nirgends ‚Geist‘ entdecken und trugen damit zum Bilde eines ‚toten, leeren Weltalls‘ bei. Parallel führten die Untersuchungen der Entstehung der Lebensformen und des Körpers dazu, dass man zwar immer mehr Details der Körper und ihres ‚Formenwandels‘ entdeckte, aber auch nirgends ‚Geist‘ dingfest machen konnte. Im Körper fand man über all nur Zellen; auch isolierte Zellen im Gehirn (ca. 100*10^6), und jede Zelle zerfällt in Moleküle, diese in Atome, diese in Quanten, usw. Nirgends traf man auf ‚Geist‘. Damit geriet das Selbstbild des Menschen, seine Besonderheiten immer mehr in einen Erklärungsnotstand. Theologische Interpretationen verlieren weitgehend ihre rationale Basis; sie hängen quasi ‚in der Luft‘.
11) Betrachtet man die verschiedenen einzelwissenschaftlichen Erkenntnisse, dann sind sie alle transparent, nachvollziehbar, wirken sie rational. Allerdings leiden nahezu alle diese Erkenntnisse an der einzelwissenschaftlichen Zersplitterung; keine Disziplin hat mehr die Zusammenhänge im Blick.

RÜCKKEHR DES ‚GEISTES‘ – MENS REDIVIVUS?

12) Die massivste Erschütterung dieses trostlosen Blicks auf unendlich viele Einzelteile, die sich im Dunst der Quanten und primären Anfangsenergie zu verlieren scheinen, kommt nun aber ausgerechnet nicht von den Geisteswissenschaften (dazu sind ihre Elfenbeintürme doch ein bisschen zu hermetisch geworden), auch nicht von der Anatomie und den Neurowissenschaften, sondern von jener Disziplin, die die Entzauberung des alten Weltbildes als erste begonnen hatte: von der Physik.
13) Es sind letztlich Physiker, die auf unterschiedliche Weise die Ungereimtheiten der Strukturbildungen seit dem Energieausbruch des Big Bang bemerken und beim Namen nennen. Schon der Übergang von reiner Energie zu Quanten gibt fundamentale Fragen auf. Während das Gesetz von der Entropie bei Vorliegen von Energieungleichheiten (sprich Strukturen) einen großen Teil von Vorgängen des gerichteten Ausgleichs beschreiben kann, versagt das Entropiegesetz vollständig für den umgekehrten Vorgang, für die Erklärung einer anhaltenden Strukturbildung, und nicht nur einer ‚Strukturbildung einfach so‘, sondern einer Strukturbildung mit einer sich exponentiell beschleunigten Komplexität.
14) Angestoßen von diesen drängenden Fragen der Physiker kann man beginnen, die verschiedenen Evolutionen (chemische, biologische, soziale, usw.) als ‚Hervorbringungen von immer komplexeren Strukturen‘ zu sehen, für die bestimmte ‚Strukturbildungsfunktionen‘ zu unterstellen sind, die weitab vom ‚Zufall‘ operieren.
15) Erste Indizien deuten darauf hin, dass die exponentielle Beschleunigung daraus resultiert, dass die zum Zeitpunkt t entstandenen Strukturen S mitursächlich dafür sind, dass die nächsten noch komplexeren Strukturen S‘ zum Zeitpunkt t+n gebildet werden können. Wir haben also eine Art Zusammenhang S'(t+n) = f(S(t)) mit ‚f‘ als der unbekannten Funktionalität, die dies ermöglicht.
16) Wenn man jetzt weiß, dass Funktionen (man denke nur an einfache Additionen oder Subtraktionen) nicht an den Elementen ablesbar sind (also man hat ‚4‘, ‚2‘, und nach der Addition hat man ‚6‘), sondern als Funktionszusammenhang in einem ‚anderen Medium‘ vorausgesetzt werden müssen, dann ist klar, dass die Analyse der Bestandteile von Körpern oder Zellen oder Atomen usw. niemals das zutage fördern, was eigentlich interessant ist, nämlich deren Funktionalität. Wenn nun also das mit ‚Geist‘ Gemeinte mit solchen zu unterstellenden (da sich in Ereignissen manifestierende) Funktionen konnotieren würde, dann wäre klar, dass die vielen einzelwissenschaftlichen Detailanalysen so gut wie keine interessanten Zusammenhänge enthüllen können; die ‚Unsichtbarkeit‘ von ‚Geist‘ wäre dann nicht der Tatsache geschuldet, dass es so etwas wie ‚Geist‘ nicht gäbe, sondern der Tatsache, dass wir nur ‚falsch hinschauen‘.
17) Hier bleibt einiges zu tun.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 4

Vorausgehender Teil 3

NICHTVORAUSSAGBARKEIT DER WIRTSCHAFT

1. Im Kapitel ‚The Evolution of the Economy‘ (‚Die Evolution der Wirtschaft‘) (SS.150-176) beschreibt Kauffman, wie sich die bislang aufgefundenen Eigenschaften der Nichtergodizität und der Präadaptation auch im Bereich der Wirtschaft – bei ihm in Anlehnung an die ‚biosphere‘ ‚ecosphere‘ genannt – wiederfinden, mit allerlei Konsequenzen. Z.B. folgt aus der Annahme der Gültigkeit seiner Modellvorstellungen, dass eine Wirtschaft – in der Theorie – am besten gedeihen kann, wenn es eine möglichst große Vielfalt gibt. Denn dann ist die Chance zur Bildung neuer, innovativer – koevolutionärer – Lösungen am höchsten. Das System stimuliert sich dann quasi ’selbst‘, immer mehr. Zugleich folgt aus seinem Modell die prinzipielle Nichtvoraussagbarkeit der diversen Entwicklungen. (vgl.S.150f)
2. Als ein Beispiel für die Schwierigkeit der Voraussagbarkeit des wirtschaftlichen Geschehens und der Nichtreduzierbarkeit dieser Vorgänge auf die Physik führt Kauffman das berühmte Arrow-Debreu Modell des kompetitiven Gleichgewichts an (heute ein Kern der General equilibrium theory). Das Arrow-Debreu Modell wird bisweilen auch Arrow-Debreu-McKenzie Modell genannt, da neben Kenneth Arrow und Gérard Debreu später Lionel W.McKenzie einige Verbesserungen in das Modell eingebracht hatte.
3. Die Nichtreduzierbarkeit auf die Physik sieht Kauffman dadurch gegeben, dass die teilnehmenden Markt-Akteure u.a. auch mit ‚Werten‘ operieren, die sie den verschiedenen handelbaren Gütern zuordnen. Da nach Kauffman physikalische Modelle nur über reale Ereignisse in der realen Welt operieren können, folgt für ihn aus dieser Annahme die Nichtanwendbarkeit der Physik. (vgl. S.155) [Anmerkung: Wie schon früher angemerkt, hängt diese Schlussfolgerung an einer bestimmten Definition von Physik. Wenn man davon ausgeht, dass die Physik sich prinzipiell mit der ‚ganzen‘ Natur beschäftigt, dann würde sich die Physik – mit wachsenden Einsichten in die Besonderheiten der Welt – konzeptuell beständig weiter ausdehnen! Vom Selbstverständnis einer Physik her wären dann auch Akteure mit Werturteilen nicht notwendigerweise aus einer physikalischen Theoriebildung ausgeschlossen. Dann aber wären alle heute bekannten wissenschaftlichen Disziplinen nur ‚Spielarten‘ der einen Disziplin Physik. Das wirkt auch nicht sehr überzeugend. Hier stellt sich die wissenschaftstheoretische Frage nach der Abgrenzbarkeit der verschiedenen Disziplinen voneinander bzw. nach ihrer möglichen inhaltlichen Beziehung. Ich habe nicht den Eindruck, dass diese Frage bislang irgendwo nennenswert diskutiert wird. Aus ökonomischen und politischen Überlebensinteressen heraus erscheint eine erfolgreiche Abgrenzung meist erfolgversprechender als eine diffuse Vereinigung.]
4. Die Nichtanwendbarkeit der ökonomischen Modelle – und damit die Unmöglichkeit einer seriösen Voraussagbarkeit – sieht Kauffman sowohl in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt tatsächlich vorhandenen Güter gegeben wie auch in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt neu erfundenen Güter.(vgl. S.155) Der tiefere Grund scheint in der Unmöglichkeit zu liegen, den ökonomischen Entwicklungsprozess selbst zu modellieren.(vgl. S.156).
5. Kauffman erwähnt auch die Theorien game theory (‚Spieltheorie‘) und rational expectations (‚Rationale Erwartungen‘). In beiden Fällen sieht er eine Nichtanwendbarkeit in der Realität, da diese Theorien – wie schon im Falle der zuvor erwähnten Gleichgewichtstheorie – die zugrunde liegenden nicht voraussagbaren Entwicklungsprozesse weder beschreiben noch in Rechnung stellen können. (vgl. SS.156-158)
6. [Anmk: In der grundsätzlichen Kritik würde ich Kauffman zwar folgen, aber die Frage ist, ob man damit diesen verschiedenen Theoriebildungen gerecht wird. Insofern die genannten Theorien einen ‚totalen‘ Erklärungsanspruch erheben, muss man sie sicher kritisieren, da sonst falsche Erwartungen geweckt werden. Aber der Wert dieser Theorien liegt in der Praxis meist darin, dass die beteiligten Wissenschaftler mit Hilfe solcher Theorien (= Modellen) versuchen, ihr Verständnis der wirtschaftlichen Vorgänge zu klären und zu schärfen. Ohne solche Modelle gäbe es nur ein Grau-in-Grau von Datenfluten ohne erkennbare Strukturen. Mit solchen Modellen zeigen sich mögliche interessante Strukturen, die Anlass geben können, weiter zu denken. Und in allen drei Fällen kann man beobachten, wie diese Modellbildungen eine anhaltende Diskussion erzeugt haben und erzeugen, die zu immer weiteren Klärungen voranschreitet, einschließlich massiver Kritik, warum das Modell als Ganzes oder Teile davon nicht anwendbar sind. ]

WIRTSCHAFT UND AUTOKATALYSE

7. Nachdem Kauffman drei sehr prominente Modelle ökonomischen Geschehens in dem Punkt kritisiert hat, dass sie den allem Geschehen zugrunde liegende Prozess der Entwicklung nicht beschreiben, stellt er selbst ein Modell für solch einen Entwicklungsprozess vor. Dazu benutzt er wieder sein schon mehrfach zitiertes ‚autokatalytisches Modell‘. Die Kernidee ist ja, dass es zu einem bestimmten Zeitpunkt eine bestimmte Menge von Gütern und Akteuren gibt. Zu einem Gut gibt es entweder ein ‚komplimentäres‘ Gut (ein Auto benötigt Reifen, eine Innenausstattung, usw.) oder ein ’substituierendes‘ Gut (z.B. statt Dampfantrieb ein Elektroantrieb). Diese komplimentären und ersetzenden Möglichkeiten stehen ferner in Wechselwirkungen mit einem an Akteure gebundenen Bedarf, der seiner Natur nach in keiner Weise umfassend und erschöpfend beschrieben noch vorweg genommen werden. Man kann leicht sehen, wie diese wechselseitigen ‚Stimulationen‘ umso vielfältiger und intensiver sein können, als die aktuelle Menge an verfügbaren Gütern und erwartenden Akteuren größer und vielfältiger ist. Kauffman spricht hier von Ko-Konstruktionen bzw. Ko-Evolution. Und, so wenig dieser gesamte Prozess des sich wechselseitigen Stimulierens und Hervorbringens in irgend einer Weise voraussagbar ist, so wenig ist auch das erfinderische Verhalten der beteiligten Akteure, der Menschen, als solches voraussagbar. (SS.158-163)
8. Auf den Seiten 163-172 stellt Kauffman dann konkrete Simulationen vor, die mit Computerversionen des Modells gerechnet worden sind. Die Details spielen hier keine Rolle. Allerdings zeigt sich in diesen Simulationen, dass verschiedene Phänomene in diesem Modell einem ‚Potenzgesetz‘ (‚power law‘) folgen. Damit stellt er eine Verbindung her zum Modell der ’selbstorganisierenden Kritikalität‘ Self-organized criticality (SOC), das in der Physik entdeckt worden war zur Beschreibung komplexer Phänomene in der Natur. Er selbst konnte in Experimenten nachweisen, wie sich die Verteilung der Lebenszeit von Individuen oder die Verteilung von Aussterbensereignisse mit solch einem Modell beschreiben lassen.(vgl. S.172f) Das Modell der selbsorganisierenden Kritikalität lies sich auch anhand der Daten der Lebenszeit von Firmen nachweisen. (vgl.S.174)

GRENZEN VON COMPUTERMODELLEN ZUR VORAUSSAGE WIRTSCHAFTLICHER PROZESSE

9. Abschliessend zweifelt er daran, dass man mittels Computersimulationen wirtschaftliche Prozesse so simulieren könne, dass man daraus belastbare Vorhersagen für die Zukunft gewinnen könnte.(vgl.S.174) Nochmals zitiert er Gödel mit seinem Unvollständigkeitsbeweis und stellt mit Blick auf die ökonomischen Modelle fest, dass die Ergebnisse von Gödel im Falle der Ökonomie auf jeden Fall auch zutreffen.
10. [Anmk: Eine detaillierte Diskussion der verschiedenen von Kauffman zitierten Modelle und Theorien ist in dem hier gesetzten Rahmen einer ersten Besprechung nicht geeignet. In anderen Kontexten werde ich verschiedene dieser Modelle noch genauer untersuchen und dann bei Gelegenheit im Blog darüber berichten. Die grundsätzliche Stossrichtung der Argumentation erscheint mir aber plausibel und wichtig. In der Tat ist es die innere Logik des Prozesses selbst, die interessant ist und die daraus sich ergebende Nichtvoraussagbarkeit der nächsten Prozesschritte. Dennoch geschieht das Ganze nicht vollständig ‚planlos‘, was sich aus verschiedenen Voraussetzungen ergibt. Hier zeigt sich eine interessante Paradoxie, die weiter zu ergründen ist.]

Zur Fortsetzung siehe Teil 5

Eine Übersicht über alle bisherigen Einträge in den Blog nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 3

Vorausgehender Teil 2

Letzte Änderung (mit Erweiterung): 24.März 2013

ZUSAMMENFASSUNG TEIL 1-2:

(1) Nach einer Charakterisierung des ‚Reduktionismus‘ am Beispiel der modernen Physik führte Kauffman verschiedene Argumente gegen diesen Reduktionismus an. Daraus und aus weiteren Argumenten formte er dann Argumente für die Nichtreduzierbarkeit des Biologischen auf das Physikalische. Diese führten dann zurück zum Ursprung des Lebens, zur unglaublichen Komplexität dieses Anfang und zugleich der anhaltenden Schwierigkeit, diesen Anfang plausibel erklären zu können. Kauffman präsentiert dabei auch ein eigenes Modell, das Modell der autokatalytischen Mengen, das — zumindest mathematisch – viele der wichtigen Fragen zu erklären scheint. Die dann folgenden Gedanken sind sehr ‚dicht‘ und kombinieren mehrere komplexe Konzepte: z.B. Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Handeln‘, ‚Handelnder‘, ‚Zeichen‘ als wichtige Eigenschaften des Biologischen. Dazu die Frage nach möglichen Vorläufern, nach ‚allerersten Handelnden‘, sozusagen ‚Protoagenten‘. Zusätzlich wird angenommen, dass sich auf das Verhalten eines biologischen Systems der Begriff ‚zielgerichtet‘ anwenden lässt, der weitere Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Absicht‘ und ‚Handelnder‘ impliziert. Schon auf der Ebene einer einzelnen Zelle sieht Kauffman alle wichtigen Eigenschaften als gegeben an: Zellen können ‚entdecken‘ (‚detect‘), sie haben eine ‚Wahl‘ (‚choice‘), und sie können ‚handeln‘ (‚act‘). Zusätzlich können sie sich ‚reproduzieren‘ und können mindestens einen ‚Arbeitszyklus‘ (‚work cycle‘ (im Sinne einer Carnot-Maschine) ausführen. Zusätzlich aber, und dies hebt Kauffman hervor, benötigen diese Systeme die Fähigkeit, diese Zufuhr von freier Energie zu organisieren. Dazu gehört die Fähigkeit der ‚Speicherung‘ von Energie und der Selbstreproduktion. Kauffman schlägt vor, diese ‚Zielgerichtetheit‘, die ein außenstehender Betrachter in solch einem evolutionären Prozess ‚erkennen‘ kann, als eine spezifische Eigenschaft solcher Systeme zu sehen, die er ‚Handlungsfähigkeit‘ (‚agency‘) nennt. Am Beispiel eines einfachen Bakteriums verdeutlicht Kauffman diese Begriffe weiter und führt an dieser Stelle fundamentale Begriffe kognitiver Prozesse ein wie ‚Semiose‘, ‚Zeichen‘, ‚Bedeutung‘, Absicht‘ usw. In diesem Zusammenhang erwähnt Kauffman nochmals David Hume (1711 – 1776), der die philosophische These aufgestellt hatte, dass man aus einem einfache ‚Sein‘, aus bloßen ‚Fakten‘, kein ‚Sollen‘ ableiten kann. Die zuvor von Kauffman vorgelegte Interpretation eines Proto-Handelnden würde dies einerseits bestätigen (der Gradient als solcher impliziert nichts), aber andererseits würde deutlich, dass ein Faktum (der Gradient) innerhalb der Beziehung zu einem System, das diesen Gradienten als ‚Zeichen‘ für etwas ‚interpretieren‘ kann, das für das System einen ‚Wert‘ darstellt, in den ‚Kontext eines Sollens‘ geraten kann, das vom interpretierenden System ausgeht. Während Arbeit für einen Physiker nach Kauffman beschrieben werden kann als eine ‚Kraft die über eine Distanz wirken kann‘, reicht dies nach Peter Atkins (Chemiker) nicht aus: Arbeit nimmt auch Bezug auf ‚Einschränkungen‘ (‚constraints‘), durch die die Freiheitsgrade verringert werden und diese Einschränkungen wiederum erlauben neue Arbeit. Er nennt dies das ‚Vorantreiben der Organisation von Prozessen‘ (‚propagating the organization of processes‘). Er erwähnt in diesem Zusammenhang den Unterschied zwischen ‚Wärme‘ (‚heat‘) und ‚Arbeit (‚work‘). Die maximale Verschiedenheit von Bewegungen in einem Gas liegt vor, wenn die Moleküle eine maximale Bewegungsfreiheit haben, also ein Minimum an Einschränkungen. Dieser Zustand erzeugt ‚Wärme‘ aber leistet keine ‚Arbeit‘. Um ‚Arbeit‘ zu verrichten muss man die Freiheitsgrade ‚einschränken‘. Kauffman kritisiert ferner das sehr verbreitete Konzept der ‚Information‘ nach Shannon bzw. das algorithmische Informationskonzept von Kolmogorov und meint, dass dieser Informationsbegriff zu kurz greift. Beiden Konzepten ist gemeinsam, dass sie letztlich nur nach der Menge der Informationen fragen, die übermittelt wird, aber vollständig offen lassen, ‚was‘ Information denn letztlich ist.
(2) [ANMERKUNG: Schon die bisherigen Ausführungen zeigen, dass Kauffmans Reflexionen sich komplexer Begriffe (‚Handelnder‘, ‚Semiose‘,…) bedienen, die er von ‚außen‘ an das ‚Phänomen‘ heranträgt. Die Phänomene selbst ‚zwingen‘ diese Begriffe ’nicht‘ auf; als reflektierender Beobachter kann man aber bei Kenntnis solcher Konzepte ‚Ansatzpunkte im Phänomen‘ sehen, die die Anwendung solcher Begriffe ’nahelegen‘. Folgt man seinen Deutungsvorschlägen, dann kann man in der Tat zwischen den Phänomenen und den vorgeschlagenen Begriffen eine Reihe von Zusammenhängen ‚erkennen‘, die die ‚reinen Fakten‘ in ‚komplexe Phänomene‘ ‚verwandeln‘, die sich einer aktuell möglichen physikalischen Interpretation entziehen.]
(3) Auf den SS.101-119 untersucht Kauffman unter der Überschrift ‚Order for Free‘ verschiedene mathematische Modelle, die emergente Phänomene simulieren. Auf die technischen Details gehe ich hier nicht weiter ein. [Anmk: Ich werde diese Modelle ab SS2013 im Rahmen meiner Vorlesungen testen und dann gelegentlich nochmal darüber berichten. Für die zentralen Aussagen der folgenden Kapitel spielen die Details keine Rolle.]

NICHTERGODISCHES UNIVERSUM

(4) Auf den SS 120-128 untersucht Kauffman das ‚Nichtergodische Universum‘ (Nonergodic Universe‘). Mit ‚Ergodizität‘ (‚Ergodicity‘) ist eine gewisse ‚Gleichheit‘ gemeint, die sich in der Gesamtheit der Ereignisse feststellen lässt, die unter Voraussetzung einer ‚Endlichkeit‘ eine ‚Wiederholbarkeit‘ impliziert. ‚Nichtergodizität‘ meint dann, dass nicht alle Ereignisse gleich häufig sind; damit wird das, was tatsächlich vorkommt, ‚besonders‘. Und Kauffman geht davon aus, dass die Entwicklung des Universums in allen bekannten Phasen in diesem Sinne besonders, ‚einzigartig‘ (‚unique‘) ist und sich hierin ’nicht wiederholt‘. (vgl. S.120f)
(5) Mittels einer Modellrechnung versucht er dies zu verdeutlichen: er nimmt das Beispiel von Proteinen mit jeweils L=200 Aminosäurebausteinen (tatsächliche Proteine können erheblich länger sein). Nimmt man an, dass 20 verschiedene Aminosäurebausteine verfügbar sind, dann ergibt sich die Menge aller möglichen Kombinationen als 20^200, dies entspricht 1.6 * 10^260. Als Alter des Universums nimmt er 10^17 s an. Ferner nimmt Kauffman beispielhaft an, dass für die Bildung eines Moleküls 10^-15 s benötigt würden. Er errechnet dann die Zahl von 10^67 Wiederholungen der gesamten Geschichte des Universums, um alle möglichen Poteine zu bilden [Anmk1: ich hatte 1.6*10^213 errechnet]. [Anmk2: Die Annahme von Kauffman setzt voraus, dass die Proteine nacheinander gebildet werden. Würde man annehmen, dass der Bildungsprozess parallel stattfinden würde, könnten natürlich zur gleichen Zeit viel mehr Proteine gebildet werden. Nimmt man – sehr idealisierend – an, dass sich innerhalb von 10^-15 s 10^80 Proteine bilden würden, dann wären dies innerhalb eines Durchlaufs des Universums vom BigBang bis heute 10^112 verschiedene Proteine. Das entspräche einem verschwindend kleinen Prozentsatz von 9.95*10^-111 % aller möglichen Proteine (der Länge 20). Das würde bedeuten, dass die Geschichte des gesamten Universums auch in diesem extrem unwahrscheinlichen Fall paralleler Erzeugung noch 1.6*10^148 mal wiederholt werden müsste, um alle möglichen Proteine der bescheidenen Länge L=200 zu bilden. Die Annahme eines ergodischen Universums für den Bereich der biogenen Moleküle erscheint also als stark unzutreffend.]
(6) Und Kauffman merkt an, dass dieser nicht-ergodische Charakter sich auf alle komplexen Phänomene oberhalb der Atome erstreckt.(vl. S.123). [Anmk: In Abwandlung der Kauffmanschen Überlegungen zu den autokatalytischen Prozessen könnte man auch folgende Überlegung formulieren: bei allen Prozessen, in denen sich komplexe Strukturen aus einfacheren Strukturen bilden, beobachten wir, dass in einem bestimmten Raumgebiet R_i sich eine spezifische Anfangsmenge S_j von Strukturen gebildet hat, deren Nachfolgezustand nf(S_j)=S_(j+1) sich durch Stattfinden bestimmter endlicher Veränderungen ’nf‘ (Operationen) bilden. D.h. die Menge der möglichen nachfolgenden Strukturen ist nachhaltig bestimmt durch die vorausgehende Stufe. Dadurch wird die Menge der ‚formal möglichen‘ Strukturen eingeschränkt auf die Menge der ‚historisch möglichen‘ Strukturen. Dies kann ’negativ‘ wirken im Sinne einer unnötigen Beschränkung. Man kann diesen Prozess aber auch so verstehen, dass die zu einem bestimmten Zeitpunkt ‚erreichten‘ Strukturen eine Art ‚Strukturgedächtnis‘ bilden von dem, was möglich ist. Die nachfolgenden Zeitpunkte müssen also nicht bei ‚Punkt Null‘ anfangen sondern können die ‚bisherigen Erfahrungen‘ nutzen. Das wiederum wäre im Sinn einer ‚Wissensbildung‘ ein ‚positiver‘ Fortschritt und wäre genau jene Form von ‚Beschleunigung‘, die die realen evolutionären Prozesse von den formalen Modellen reiner Zufälle unterscheidet. Da sich ferner nur solche Strukturen auf Dauer behaupten können, die sich im Kontext ‚bewähren‘, weil sie den ‚Gegebenheiten entsprechen‘, bilden solche ‚memorierten Strukturen‘ nicht nur eine ’neutrale, zufallsgesteuerte‘ Selektion, sondern eine ‚ko-evolutive‘ Entwicklung im Sinne eines strukturellen ‚Echos‘ auf das, was durch die Vorgabe der jeweiligen Umgebung ‚erwartet‘ wird.] Und nach weiteren spekulativen Modellexperimenten (vgl. S.123ff) folgert er dann, dass durch das Aufkommen von nichtergodischen = historischen Prozessen die Gewinnung von zureichenden Wahrscheinlichkeiten im realen Universum prinzipiell nicht möglich ist (höchstens unter sehr speziellen Randbedingungen). Damit gewinnt das Universum einen sowohl nicht-zufälligen Charakter und besitzt doch – quasi paradox — zugleich eine Nichtvoraussagbarkeit.(vgl.S.127f)

ADAPTION, PRÄADAPTION, KO-EVOLUTION

(7) Im folgenden Kapitel ‚Breaking The Galilean Spell‘ (etwa: Das Brechen von Galileis Zauber)(SS.129-149) versucht Kauffman nicht nur das, was er den ‚Zauber Galileis‘ nennt, ‚auszutreiben‘ (vgl.S.131), sondern auch – positiv – die Grundlage zu legen für seine ‚Wiederentdeckung des Heiligen‘.(vgl. S.130) Zur Erinnerung: Der ‚Zauber Galileis‘ besteht für Kauffman darin, dass die neue Form der wissenschaftlichen Beschreibbarkeit der Natur, die – natürlich nicht nur – mit Galilei begann und dann in den empirischen Wissenschaften (mit Newton, Schroedinger, mit Einstein usw.) eine ungeheuerliche Erfolgsgeschichte geschrieben hat, den Eindruck entstehen lies, als ob man das Verhalten der Natur mit einigen wenigen Gesetzen mathematisch vollständig beschreiben kann. Zeigten schon die Ausführungen in den vorausgehenden Kapiteln zur ‚Nichtergodizität‘ des Universums, dass diese Beschreibbarkeit nicht vollständig sein kann, so bringt jetzt Kauffmann nochmals speziell die biologische Evolution ins Spiel. Seine Hauptthese lautet: Das Biologische ist radikal nichtvorhersagbar und endlos kreativ. (vgl.S.130).
(8) Die zentralen Begriffe hier sind ‚Adaptation‘ und dann ‚Präadaptation‘. Mit ‚Adaptation‘ ist generell der Prozess gemeint, dass bestimmte genetisch kodierte Eigenschaften sich im Laufe der Interaktion mit den jeweiligen Umgebungen nicht nur generell ‚verändern‘ können, sondern dass es bestimmte Eigenschaften sind, die sich im Laufe der Zeit auf diese Weise ‚passend‘ zu einer bestimmten Umgebung ‚herausbilden‘. Diese biologische Eigenschaften (Kauffman macht dies am Beispiel der Entwicklung des Organs Herz fest) sind nach Kauffman weder erkenntnismäßig noch ontologisch mit den bekannten physikalischen Gesetzen voraussagbar. (vgl. S.131) Der Grund hierfür ist der Mangel an wiederkehrenden Eigenschaften. Weder sind jene Konstellationen voraussagbar, die zur Herausbildung des Herzens geführt haben, noch konnte man die dann tatsächliche Herausbildung des Herzens voraussagen, da die jeweiligen genetischen Kombinationen (nach Kauffman) prinzipiell nicht voraussagbar sind. ‚Prädaptation‘ ist eine Art Verfeinerung des Begriffs ‚Adaptation‘ dahingehend, dass es innerhalb einer genetischen Information Teilinformationen geben kann, die über lange Zeit hin keine besondere ‚Bedeutung‘ besaßen, bis irgendwann eine Konstellation Auftritt in der es plötzlich eine interessante ‚Verwendung‘ gibt. (vgl. S.131f) Berücksichtigt man den zusätzlichen Umstand, dass Adaptationsprozesse zeitgleich mit unzählig vielen anderen Adaptationsprozessen verlaufen, dann bilden solche Phänomene des sich ‚wechselseitig die Bälle Zuspielens‘ die Grundlage für das, was wir ‚Koevolution‘ nennen. Ein Adaptationsprozess alleine könnte noch so viele ‚Ansatzpunkte‘ (präadaptive Voraussetzungen) bieten; eine bestimmte Entwicklung würde nur stattfinden, wenn entsprechend parallel andere Entwicklungen zeitgleich auch verfügbar wären. Die in der Wechselwirkung sich dann zeigenden neuen Eigenschaften sagen etwas aus, über die beteiligten Prozesse, sind aber natürlich nicht voraussagbar im Sinne der klassischen Physik. Für eine Voraussagbarkeit würde man ein umfassendes Wissen aller möglichen künftigen Umgebungen benötigen samt der zugehörigen beteiligten adaptiven Prozesse. Nach Kauffman hat dieses Wissen niemand, es nicht verfügbar, also kann man auch nichts voraussagen. (vgl. S.132f).
(9) [Anmk: An dieser Stelle ist Vorsicht geboten. Zwar liegt hier sicher keine Voraussagbarkeit im Sinne der klassischen Physik vor, aber die klassische Physik wurde ja schon längst um die Quantenphysik erweitert. In der Quantenphysik weiß man deutlich weniger als im Falle von biologischen adaptiven Prozessen, und dennoch kann man quantenphysikalisch vieles ‚erklären‘. Ich halte es für möglich und wahrscheinlich, zu einer Theoriebildung im Zwischenbereich von Quantenphysik und klassischer Physik zu kommen, die mit beiden Bereichen ‚kompatibel‘ ist und die in der Tat die klassisch nicht voraussagbaren biologischen adaptiven Phänomene ‚erklären‘ und in gewisser Weise auch ‚voraussagen‘ kann. Dazu müsste man nur den Theoriebegriff entsprechend anpassen, was bislang – so scheint es – einfach noch niemand getan hat. Warum eigentlich nicht?]

KREATIVITÄT

(10) Durch diese wechselseitigen Abhängigkeiten der biologischen adaptiven Entwicklungen voneinander sind sie nicht nur schwer (bis garnicht) voraussagbar, sondern sie sind auch fragil, anfällig für ein kommendes Scheitern, wenn bestimmte Randbedingungen wieder wegfallen, die sie voraussetzen. (vgl. S.133) Identifiziert man diese ‚partiell gesetzlose‘ Situation mit ‚Kreativität‘ in dem Sinne, dass in einer ‚offenen‘ Situation beständig ’neue‘ Strukturen generiert werden, dann ist diese ‚endlose (‚ceaseless‘) Kreativität eine Form, die man mit dem Begriff ‚Gott‘ in Verbindung bringen kann, sozusagen eine natürliche Form von ‚Heiligkeit‘ (’sacred‘). (vgl.S.135) [Anmk: das englische Wort ’sacred‘, das Kauffman benutzt, ist eigentlich ein Adjektiv und kommt alleine als Substantiv eigentlich nicht vor. Er benutzt es aber so, wie wir im Deutschen das Wort ‚das Heilige‘ benutzen.]
(11) Auf die Frage, ob man die Gesetzeslosigkeit der biologischen adaptiven Prozesse ‚beweisen‘ könne, mein Kauffman mit Hinweis auf Goedels Unvollständigkeitsbeweis, dass die Voraussetzung für solch einen Beweis nicht gegeben seien, da mit der beständigen Erzeugung neuer nicht voraussagbarer Fakten kein vollständiges abgeschlossenes System vorliege, das einen solchen Beweis erlaube. (vgl.S.135)[Anmk: Das scheint mir zu wenig. Es geht ja hier nicht um die Fakten im einzelnen, sondern um die strukturellen Rahmenbedingungen, unter denen bestimmte Fakten auftreten bzw. nicht auftreten. Ich sehe zwar momentan auch niemanden, der einen solchen Beweis dafür oder dagegen bislang geführt hat, aber ich würde momentan nicht ausschließen wollen, dass wir zumindest mehr sagen können, als es Kauffman hier tut. Immerhin legt er hier den Finger auf die ‚Wunde’… ]

Teil 4

Einen Überblick über alle vorausgehenden Einträge in den Blog nach Themen findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST -Teil 2

(Dieser Beitrag bildet die Forsetzung von Überlegungen aus einem vorhergehenden Beitrag)

Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)
Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)

UPDATE EVOLUTION

In einem Diagramm vom Dezember 2009 (siehe Bilde oben) hatte ich eine ‚Gesamtschau‘ der Evolution ‚in einem Bild‘ versucht. Dabei hatte ich eine Aufteilung in ’subatomar‘ und ‚atomar und komplexer‘ vorgenommen. Die Überlegungen kreisten seitdem meistens um die Phänomene oberhalb der atomaren Komplexitätsebene. Dabei schälten sich dann diverse interessante Problemstellungen heraus. In den letzten Monaten war es vor allem das Problem der ‚Emergenz‘, das mich mehr und mehr beschäftigte (sofern die normale Arbeit dazu überhaupt Zeit lies). In mehreren Anläufen, Texten und Vorträgen kam ich bis zu dem Punkt, dass die sich in den emergenten Phänomenen zeigende Funktionalität in keiner Weise durch Rekurs auf die beteiligten Komponenten alleine erklärbar ist (kein ‚Reduktionismus‘, (z.B. der molekulare Prozess der Selbstreproduktion in struktureller Entsprechung zum mathematischen Konzept einer Turingmaschine)) sondern eine Funktionalität auf einer ‚höheren Ebene‘ voraussetzt. Als möglicher ‚Raum für Funktionalitäten‘ bietet sich hier aber nur jener ‚Raum‘ an, innerhalb dessen es zu diesen Prozessen kommt. Hier gibt es nur den Raum der Atome bzw. den subatomaren Bereich. Die heutige Physik beschreibt diesen Raum u.a. mit den Mitteln der Quantenphysik. Als Nichtphysiker hält man dazu gewöhnlich einen gebührenden Abstand (die für die Beschreibung quantenphysikalischer Phänomene benutzte Mathematik ist für einen Nicht-Quantenphysiker in der Regel ‚unverdaulich‘; Ausnahme aber z.B. die Vorlesungen von Feynman (siehe Lit. unten).

QUANTENPHYSIK

An dieser Stelle kam eine entscheidende Anregung bei der fortdauernden Lektüre (jetzt wieder) von Kauffman (‚Reinventing…). Im Kap.13 des Buches referiert er wichtige Positionen der Philosophie des Geistes (einschließlich neurobiologischer Interpretationen), zeigt deren logischen Aporien bei der Erklärung von ‚Geist‘ und ‚Bewusstsein‘ durch Reduktion auf neuronale Aktivitäten auf und spielt dann diverse theoretische Szenarien durch, für die er Erkenntnisse der Quantenphysik benutzt. Zuerst fand ich dies eigentümlich, aber bei weiterem Lesen und Nachdenken habe ich den Eindruck, dass diese Überlegungen höchst interessant sind und nach allem, was ich bislang weiß, den einzig erkennbaren theoretischen Ansatzpunkt liefern, der im Einklang mit den empirischen Wissenschaften steht und doch der Besonderheit der emergenten Phänomene Bewusstsein und Geist eventuell gerecht werden könnte.

Quantum space and Classical Space; Below bodies being open in the direction of quantum space
Quantum space and Classical Space; Below bodies being open in the direction of quantum space

Die Grundidee ist recht simpel. Die empirisch-mathematischen Details beliebig schwierig. Ich habe folgendes verstanden (siehe Handskizze):

1. Im Bereich der subatomaren Teilchen (Quanten) lässt sich nur noch messen, wenn man dabei das zu messende Objekt verändert (Heisenberg, Unschärferelation). Viele kreative Experimente (siehe dazu z.B. das Büchlein von Feynman) legen die Interpretation nahe, dass die Teilchen sich in einem kontinuierlichen Raum möglicher Zustände aufhalten, in dem sie alle Zustände (aus unserer Sicht) quasi ‚gleichzeitig‘ einnehmen (mit unterschiedlichen Wahrscheinlichkeiten). Alles, was ‚geht‘ (Freiheitsgrade), ‚wird gemacht‘. Durch Versuchsanordnungen wird der Möglichkeitsraum punktuell ‚eingeengt‘ und der Raum ‚passt sich‘ den Versuchsanordnungen ‚an‘. Man ‚misst als Phänomen, was sich bei Unterstellung der wahrscheinlichen Verteilungen ergeben würde. Dazu gehören viele spezielle Effekte, die ich hier beiseite lasse.
2. Neben diesem Quantenraum als ‚grundlegender Realität‘ für die messbaren Phänomene gibt es aber auch den konkret realisierten physikalischen Zustand, wie wir ihn als ‚real uns umgebende Welt‘ erfahren. Dieser ‚klassische physikalische Raum‘ erscheint von dem Quantenraum mit seinen floatenden Möglichkeiten ‚abgekoppelt‘ (‚decoherent‘). Er stellt genau eine von unzählig vielen Möglichkeiten dar, was ‚hätte passieren können‘. Abkopplung heißt hier u.a. ‚Verlust an Informationen‘, herausgenommen aus dem ‚Phasenraum‘ der floatenden Möglichkeiten.
3. Trotz der Realität des konkreten klassischen physikalischen Raumes müssen wir annehmen, dass damit der parallel bestehende Quantenraum nicht vollständig aufgehoben wird; er besteht weiter, wahrt eine Kontinuität, bildet weiter die ‚Grundlage‘ für neue ‚Realisierungen‘.
4. Soweit ich bislang sehe ist diese ‚Koexistenz‘ von Quantenraum und konkreter Realisierung bislang nicht vollständig geklärt, speziell nicht die Frage, wie beständig Realisierungen (Dekohärenzen) stattfinden können, ohne den Quantenraum aufzuheben. Darüberhinaus ist nicht wirklich klar, warum es genau zu den bestimmten Realisierungen kommt, die aus unserer Beobachtersicht gewisse ‚Regeln‘ einhalten, obgleich der Quantenraum aus sich heraus nicht auf eine bestimmte Realisierungen abonniert ist.

META-FUNKTIONALITÄT

Die vorausgehenden Überlegungen sind natürlich extrem vereinfachend, lassen dadurch aber vielleicht die großen Linien hervortreten.

Bezogen auf die von mir geäußerte Vermutung, dass die emergenten Phänomene durch vorauszusetzende Funktionalitäten erklärt werden müssen würde durch Einbeziehung des Quantenraums zumindest dahingehend eine Verstärkung erfahren, dass der Quantenraum beliebig komplexe Funktionalitäten ‚beherbergen‘ kann. Aber hier stehen wir noch ziemlich am Anfang.

Kauffman bringt in seinem Buch mehrere Beispiele (z.B. S.210f, Photosynthese), wo anhand konkreter biologischer (chemischer, physikalischer) Prozesse nachgewiesen werden konnte, wie diese konkreten Prozesse nur erklärbar sind durch die Annahme des zugleich bestehenden Quantenraumes.

GEFANGEN IM KÖRPER ALS KOGNITIVE TÄUSCHUNG

Macht man sich diese Fundierung aller Makrophänomene im Quantenraum klar, dann folgt daraus, dass die scheinbare ‚Gefangenheit‘ unseres ‚Geistes‘ in einem konkreten, endlichen Körper, nur eine scheinbare ist. Der Körper ist (mit viel Fantasie auf der Handskizze in der unteren Hälfte erkennbar) in dieser Sicht nur so eine Art ‚Ausstülpung‘ des Quantenraumes an einem bestimmten Punkt in eine ‚vorübergehende Konkretisierung‘ bei gleichzeitiger Aufrechterhaltung der Einbettung in den Quantenraum. Dies bedeutet, bei näherer Betrachtung, dass jeder Mensch ‚in Richtung des Quantenraumes‘ ‚offen‘ ist. Dies wiederum bedeutet, dass jeder Mensch durch seine Einbettung in den Quantenraum mit jedem Punkt des bekannten Universums direkt kommunizieren kann. Diese Kommunikation — so sie stattfindet — verläuft mindestens mit Lichtgeschwindigkeit. Anders gewendet, sofern wir in den Quantenraum ‚eingebettet‘ sind ist jeder von uns zum übrigen Raum hin ‚vollständig offen‘. Im Quantenraum gibt es keine lokale Abgrenzung. Diese wird nur mit Hilfe des transienten Körpers für eine verschwindend kurze Zeit künstlich eingerichtet, um punktuell ‚Individualitäten‘ sichtbar zu machen.

Warum der Quantenraum diese punktuellen transienten ‚Ausstülpungen‘ vornimmt erschließt sich uns bislang nicht. Aber wir stehen ja auch mit dem Erkennen hier erst ganz am Anfang.

LITERATURHINWEISE
Richard P. Feynman (Author), A. Zee (Introduction), „QED: The Strange Theory of Light and Matter“, Publisher: Princeton University Press (April 4, 2006), ISBN-10: 0691125759, ISBN-13: 978-0691125756

Gerd Doeben-Henisch, Kurze Review online: http://www.amazon.com/gp/cdp/memberreviews/A1D6994DSB8K4M/ref=cm_cr_dp_auth_rev?ie=UTF8&sort_by=MostRecentReview

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Eine Übersicht über alle bisherigen Blogeinträge anhand der Themen findet sich HIER