Archiv der Kategorie: Semantik

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500
Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER