Archiv für den Monat: August 2012

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER

 

DIE WAHRHEIT IST GANZ UND GAR NICHT KÄUFLICH

  1. In vorausgehenden Beiträgen (z.B. Wahrheit im Alltag (Konkrete Umstände), Gnoseologische, ontologische, teleologische Wahrheit – Fortsetzung 2 der Ueberlegungen zu N.Hartmanns Metaphysik der Erkenntnis (Erkennen als Relation O x O* –> {w,f} und die Probleme), WAHRHEIT ALS UEBERLEBENSNOTWENDIGKEIT; WEISHEIT ALS STRATEGIE (Weltanschauungen) sowie anderen) habe ich schon mehrfach Bezug genommen auf die ‚Wahrheit‘. In diesem Beitrag möchte ich einen bestimmten Aspekt herausgreifen, der eigentlich selbstverständlich ist, dessen sich aber anscheinend kaum jemand bewusst ist. Es geht um den ‚absoluten Charakter‘ von Wahrheit, der am Ende des letzten Beitrags erwähnt wird.

  2. Die exponentielle Vermehrung der Menschen seit mindestens 200 Jahren, die Überflutung des Alltags mit Varianten an Verhalten, Objekten, Anschauungen usw., die überall anzutreffenden Machtanmaßungen im Privaten, lokalen, regionalen, nationalen und globalen Bereichen, die Explosion des Wissens schlechthin können den Eindruck erwecken, als sei es letztlich beliebig, was wir tun, ‚anything goes‘, alles sei relativ da beliebig.

  3. Die täglichen Nachrichten belehren uns allerdings eines besseren (wenn wir es denn wissen wollen): das Klima kann ganze Regionen verdorren, in Wasser absaufen oder in Kälte erstarren lassen. Entsprechend lassen sich Nahrungsmittel anbauen oder nicht. Erdbeben sind zwar lokal, können aber verheerende Zerstörungen bewirken, durch die die Wirtschaft empfindliche Produktions- und Lieferausfälle zu beklagen hat. Viele Ressourcen sind endlich und knapp. Nicht erneuerbar werden sie sich absehbar erschöpfen (ein paar hundert Jahre zählen so gut wie gar nicht; in der Entwicklung des Lebens sind ein paar hundert Jahre weniger wie ein ‚Wimpernschlag‘). Abhängig von der Sonneneinstrahlung gibt es maximale Grenzen der Energieumwandlung für Nahrungsmittel, die niemand verändern kann, es sei denn, er könnte die Sonne kontrollieren (was grundsätzlich gehen würde, wenn man wüsste, wie). Der ‚Erfolg‘ des homo sapiens sapiens drängt immer mehr andere Arten zurück, löscht sie aus, biologische Arten, die aber für Kreislaufprozesse wichtig sind, von denen wir abhängen. Ihre irreversible Auslöschung entzieht uns selbst mehr und mehr den Boden, auf dem wir stehen. Darüber hinaus gibt es Wechselwirkungen zwischen einer Unzahl von Faktoren, die sich über Jahrmillionen eingespielt haben, deren Entwicklung bis zu Milliarden Jahren gedauert hat, die wir schrittweise außer Kraft setzen, beschädigen, zerstören. Diese Liste ließe sich verlängern.

  4. Der entscheidende Punkt ist jedoch, dass wir selbst durch und durch ein ‚Produkt‘ (!!!) eben dieser Prozesse sind, die wir so leichthändig beschädigen und zerstören. Wir haben uns nicht selbst erfunden. Wir wurden erfunden durch Prozesse, die nicht nur viele Milliarden chemische und biologische Evolution gebraucht haben, sondern zusätzlich auch noch viele Jahre einer physikalischen Evolution, von der ‚reinen Energie‘ über Atome, Gaswolken, Sonnen, Galaxien bis hin zu den Konstellationen, unter denen aller erst biologisches Leben entstehen konnte. Und die heute bekannten biologischen Lebensformen haben alle eines gemeinsam: sie verkörpern das Ergebnis des Zusammenwirkens eines (auch) zufällig arbeitenden generierenden Mechanismus (Kopieren, Mischen, Weitergeben von genetischen Informationen) mit einer ‚Leitlinie‘, nämlich der vorfindlichen Umgebung (in unserem Fall die Erde (die sich selbst allerdings im Laufe der Zeit z.T. dramatisch verändert hat!). Nur die genetischen Strukturen, die ‚hinreichend‘ zur vorfindlichen Umgebung Erde ‚passten‘, konnten ihre genetischen Produktionen fortsetzen. Dabei heißt ‚passen‘ auch ‚anpassen‘, da sich sowohl die Erde selbst als auch die Welt des Biologischen beständig ‚mit verändert‘ (Koevolution) hat (Räuber-Beute Konstellationen, Nischeneigenschaften,…).

  5. Es ist genau diese ‚Leitlinien‘-Funktion, auf die es hier ankommt. Wir sind so, wie wir sind, durch und durch für ein Leben auf dieser Erde ‚optimiert‘. Dazu gehört nicht nur die ‚Passung‘ für Sauerstoff, Klima, Tag-Nacht-Schema, bestimmte Nahrungsmittel, Erdanziehung usw., sondern auch für das Miteinander mit den anderen biologischen Formen (Pflanzen, Mikroorganismen, Tieren, andere Menschen…). D.h. wenn wir – ganz klassisch – ‚Wahrheit‘ als eine Relation auffassen wollen zwischen Organismen O die in einer Umgebung E ‚passen‘ (=wahr) oder ’nicht passen‘ (=falsch), dann besteht die physikalische/ chemische/ biologische Evolution darin, dass sie Objekte eines Komplexitätslevels O_i zu einer bestimmten Zeit in einer Umgebung E_t mittels bestimmter Konstruktionsprozesse P_i in Objekte mit einem Komplexitätslevel j i verwandelt, die überlebensfähig sind: X-evol: E x T x O_i —> E x T x O_j. Die primäre Wahrheit ist dann die Fähigkeit, zu überleben, und zwar ’nachhaltig‘!

  6. Interessant an diesem Prozess ist, dass die Überlebensfähigkeit mit der Zunahme an ‚Flexibilität‘ zunimmt. Letztere aber hängt u.a. daran, dass die jeweiligen Lebensformen im Organismus selbst (!) immer mehr über eine ‚Informationsverarbeitung‘ verfügen, die sie in die Lage versetzt, immer mehr Aspekte der Umgebung im Organismus so zu repräsentieren, dass das ‚eigene Verhalten‘ sich daran ‚orientieren‘ kann. Das immer bessere Erkennen von ‚Nahrung‘, ‚Gefahren‘, das ‚Vorwegnehmen‘ potentieller Situationen, das ‚Erfinden‘ von Hilfsmitteln, die ‚Koordinierung‘ mit anderen usw. sind unmittelbar hilfreich für das Überleben. Eine ‚Übereinstimmung‘ dieser inneren (=subjektiven) Repräsentationen mit den auslösenden externen (=empirischen, objektiven) Eigenschaften der Umgebung ist also eine fundamentale Eigenschaft dieser Informationsverarbeitung. Da die ‚Außenwelt‘ immer nur in Form der informatorisch aufbereiteten ‚Innenwelt‘ vorliegt, kann eine ‚Überprüfung‘ der ‚Korrektheit = Wahrheit‘ dieser modellierten Innenwelt immer nur indirekt geschehen durch ‚Hypothesenbildung‘: Unter der Annahme, dass die Innenwelt ’stimmt = wahr‘ ist, können mögliche ‚Folgezustände‘ ‚berechnet‘ (vorgestellt, gedacht, geplant,…) werden. Treffen diese Folgezustände dann so ein, dass die aktuelle Wahrnehmung mit der ‚erwarteten Wahrnehmung‘ ‚hinreichend übereinstimmt‘, dann kann sich der agierende Organismus bzgl. seines ‚Wissens‘ ‚bestätigt‘ fühlen. Das Wissen scheint ‚wahr‘ zu sein. Andernfalls muss er sein Wissen ‚in Frage stellen‘ oder es gar ‚verwerfen‘ (nicht bestätigt, ‚falsch‘).

  7. Es gibt damit mindestens zwei ‚Wahrheitsmechanismen‘ im Bereich des biologischen Lebens: (i) einen überindividuellen Mechanismus, der lebensfähige (= wahre) genetische Strukturen hervorgebracht hat und weiter hervorbringt; (ii) einen individuellen Mechanismus aufgrund interner Informationsverarbeitung, der im unterschiedlichen Umfang die interne ‚Kodierung‘ und ‚Manipulation‘ von externen Umwelteigenschaften zum Zwecke der Handlungssteuerung erlaubt. Dieser interne Mechanismus gewinnt seine Wahrheit aus der (begrenzten) Möglichkeit der ‚Bestätigung‘.

  8. In beiden Fällen ist aber ganz klar, dass die Organismen selbst nicht ‚im Besitz der Wahrheit‘ sind!!! Die Wahrheit als ‚Übereinstimmung‘ mit einer Vorgabe ist primär an der Vorgabe orientiert. Dies ist aktuell die Erde und das umgebende Universum. Kein Lebewesen kann diese Vorgabe für sich beanspruchen bzw. ‚außer Kraft‘ setzen. In existentialistischer Sprechweise sind wir in diesem Punkt alle in gleicher Weise ‚Geworfene‘, ‚Ausgesetzte‘. Keiner hat ‚von Natur aus‘ irgendwelche Vorrechte, mehr Rechte, Privilegien usw. (dass wir Menschen uns im Laufe der Jahrtausende ‚Pseudowerte‘ geschaffen haben wie ‚Rangstufen‘, ‚Adelshierarchien‘, ‚Kastensysteme‘, ‚Rassenideologien‘ und dergleichen mehr zeugt in erster Linie von Unwissenheit gepaart mit Machtinstinkten und Gruppenegoismen (wer per Konvention angeblich ‚besser‘ sein soll als jemand anderes hat es natürlich bequemer; er muss nicht erst beweisen, dass er tatsächlich ‚gut‘ ist). Auf Dauer sind solche falschen ‚Rankings‘ aber irreführend, falsch und damit schädlich. Sie verhindern die Entfaltung realer Potentiale, jener Potentiale, die wir alle brauchen, um die Zukunft hinreichend gut nachhaltig gestalten zu können. WAHRHEIT IST – in diesem Sinne — GANZ UND GAR NICHT KÄUFLICH.

 

 

Eine Übersicht über alle bisherigen Themen findet sich HIER

WANN IST EIN MENSCH AUTHENTISCH?

 

  1. Das gesprochene Wort ‚authentisch‘: ein einzelner Mensch kann das Wort ‚authentisch‘ im Deutschen ganz unterschiedlich aussprechen (langsam, schnell, laut, leise, mit speziellen Betonungen…). Beim Sprechen wird ein veränderlicher Schalldruck erzeugt, den man messen kann (z.B. mit einem Mikrophon, analog) und dann ‚digitalisieren‘. Diese besteht in einer periodischen (1x pro Sekunde, 10x, 1000x, …) Abtastung des analogen Signals mit einer bestimmten ‚Bitauflösung‘ (2 Bit, 4, 8, 16 ….). Damit entsteht eine Zahlenfolge, die jeweils verschieden ist. Ein Computerprogramm ohne ‚Vorwissen‘, könnte damit nicht viel anfangen. Sprecher der deutschen Sprache sind aber in der Regel in der Lage, die verschiedenen lautlichen Realisierungen des einen gesprochenen Wortes als ‚das gleiche Wort‘ zu erkennen. Dies bedeutet, dass unser Gehirn verbunden mit dem Gehörorgan in der Lage ist, bei unterschiedlichen Schallobjekten ‚Gemeinsamkeiten‘ zu erkennen, die nicht ‚unmittelbar‘ im Schall selbst präsent sind. Menschen können – bei ein bischen Training – ‚Lautbestandteile‘ an einem Wort unterscheiden (Konsonanten, Vokale, Halbsilben, Silben, Morpheme,…), die ein Computerprogramm nur mit erheblichem Aufwand zu identifizieren in der Lage ist (die heute (August 2012) käuflich erhältlichen Programme zum Diktieren können dies immer noch nur sehr begrenzt!). Zu fragen, was denn die ‚richtige‘ Aussprache des Wortes ‚authentisch‘ sei, hängt also von dieser besonderen Fähigkeit des menschlichen Gehirns ab und ist — von daher schwierig. Das, was jeder Mensch jeweils als ‚das Gemeinsame‘ in den unterschiedlichen Aussprachen (‚Realisierungen‘) des einen Wortes ‚authentisch‘ ‚erkennt‘, ist selbst nicht ‚vorzeigbar‘. Es existiert nur im individuellen Erkennen. Dass es dieses ‚Gemeinsame‘ gibt, erkennen wir indirekt daran, dass ein Mensch bei unterschiedlicher Aussprache immer das gleiche Wort auf einen Zettel ’schreiben‘ könnte (wobei das ‚Schreiben‘ eine eigenständige Leistung ist. Sogenannte ‚Analphabeten‘ können sprechen, aber nicht schreiben). Sprachgemeinschaften versuchen zwar, eine ‚offizielle Aussprache‘ zu ’normieren‘ (das ‚Hochdeutsche‘, das ‚Bühnendeutsch‘ der Nachrichtensprecher, usw.), doch können diese Normierungen letztlich nur grobe Leitlinien sein, die — aufgrund des Sachverhalts — niemals vollständig eindeutig sein können. Halten wir fest: schon das gesprochene Wort als primäres Mittel sprachlicher Kommunikation existiert in Realisierungsformen, die eine letzte Eindeutigkeit nicht zulassen; man braucht eine Vielzahl von Beispielen, man braucht Hypothesen (Annahmen, Vermutungen), man ’nähert sich an‘, man operiert mit einem ’subjektivem Konstrukt‘ auf der Basis ‚empirischer Ereignisse‘.

  2. Die Bedeutung des Wortes ‚authentisch‘: Ein Lautereignis als solches hat normalerweise keine Bedeutung. Wenn ich im Deutschen Laute äußern würde, die sich schriftlich in etwa als ‚Dididu‘, ‚Garseku‘, ‚Uklukl‘ usw. repräsentieren lassen, dann wird normalerweise niemand etwas damit anfangen können. Äußerungen, die sich schriftlich in etwa als ‚Haus‘, ‚Tasse‘, ‚Stuhl‘ usw. repräsentieren lassen (und die sich lautlich als ‚das gleiche Wort‘ identifizieren lassen), würde man sehr wohl als ‚bedeutsam‘ einstufen. Eine lautliche Äußerung, die sich als ‚Stuhl‘ aufschreiben lässt, verbindet man mit ‚etwas anderem‘, eben jenem, was man ‚meint‘, wenn man das Wort ‚Stuhl‘ äußert. Dieses ‚andere Gemeinte‘ konstituiert dann die ‚Bedeutung‘ des lautlichen Ereignisses ‚Stuhl‘. Dieses ‚Andere‘ zum gesprochenen Wort, das seine ‚Bedeutung‘ konstituieren kann, ist auch wieder – im einfachen Fall – ein ‚Wahrgenommenes‘ (sichtbar, hörbar, tastbar, schmeckbar,…), das in verschiedenen Realisierungen vorkommt: dasselbe ‚Stuhlobjekt‘ aus verschiedenen Perspektiven, mit verschiedenen Beleuchtungsverhältnissen in unterschiedlichen Kontexten, oder aber ‚unterschiedliche‘ Stuhlobjekte (Farben, Materialien, Abmessungen, Formen,…) (auch hier würde eine einfache Digitalisierung z.B. der visuellen Signale einer Videokamera Zahlenkolonnen erzeugen, die selbst bei dem gleichen Stuhlobjekt völlig verschieden wären. Ein Computerprogramm ohne ‚Vorwissen‘ würde nichts erkennen können). Aber auch in diesem Fall besitzt das menschliche Gehirn im Verbund mit den verschiedenen Sinnesorganen (Sehsinn, Höhrsinn, Tastsinn,…) die erstaunliche Fähigkeit, in der Vielzahl der Eindrücke ‚Gemeinsamkeiten‘ zu erkennen, aufgrund deren dann ein Mensch (z.B. ein Kind, das Sprache lernt) bei einem bestimmten Stuhlobjekt trotz wechselndem Standpunkt, wechselnder Perspektive, unterschiedlichem Abstand, unterschiedlicher Beleuchtung dieses Stuhlobjekt als das ‚gleiche Objekt‘ in den unterschiedlichen Wahrnehmungsrealisierungen zu erkennen. Diese Fähigkeit des Erkennens von ‚Gemeinsamkeiten‘ in ‚veränderlichen Details‘ ist eine entscheidende Fähigkeit zum Erkennen überhaupt (heute käufliche Computerprogramme zur Objekterkennung sind hier mittlerweile erstaunlich weit gekommen, zumindest wenn man auf bestimmte Teilaspekte abhebt (z.B. Gesichtserkennung)). Aber auch hier gilt, dass der entscheidende Aspekt des ‚Erkennens‘ nicht in der aktuellen Realisierung eines Objektes liegt, sondern in dem ’subjektiven Konstrukt‘ eines Gehirns, das sich anlässlich der unterschiedlichen ‚empirischen Realisierungen‘ eines Objektes ‚bildet‘. Dieses ’subjektive Konstrukt‘ Cog(Perc(EObj)) = CObj eines ‚kognitiven Objektes‘ anlässlich unterschiedlicher ‚empirisches Objekte‘ ist aber – wie schon im Falle des subjektiven Konstrukts des gesprochenen Wortes – selbst nicht ‚vorzeigbar‘, sondern existiert nur ‚intern‘, als ‚gewusstes Etwas‘, indirekt erkennbar an einem bestimmten ‚Verhalten‘, z.B. daran, dass ein Mensch bei ‚ein und demselben Objekt‘ immer das ‚gleiche Wort‘ benutzt, obwohl er das empirische Objekt unterschiedlich realisiert wahrnimmt. Dies hat zur Folge, dass die ‚gemeinte Bedeutung‘ eines Wortes wie ‚Stuhl‘ grundsätzlich niemals ‚eindeutig‘ sein kann noch jemals ‚abgeschlossen‘ ist. Neue Stuhlereignisse können das bisherige subjektive Konstrukt ‚verändern‘, und diese Veränderungen sind von Mensch zu Mensch verschieden und sie sind dem einzelnen Menschen selbst nicht notwendigerweise ‚bewusst‘! Man merkt solche Veränderungen des subjektiven Erkenntnisstandes oft erst dann, wenn man in einer Gesprächssituation feststellen darf, dass der Gesprächspartner aktuell einen anderen ‚Aspekt‘ des Objektes ‚thematisiert‘ als man selbst bereit oder fähig ist, zu thematisieren. Halten wir fest: die subjektive Bedeutung von empirischen Ereignissen ist der eigentliche Kern sprachlicher Bedeutungen, diese selbst sind dynamische Gebilde, als solche nicht vorzeigbar, teilweise dem Sprecher selbst nicht ‚bewusst‘ und bilden sich interaktiv in gemeinsame geteilten Sprechsituationen.

  3. Im Fall des Wortes ‚authentisch‘ kommt noch ein weiterer Aspekt hinzu: während ‚empirisch aufweisbare‘ Objekte wie ‚Stuhl‘, ‚Tisch‘, ‚Tasse‘ für alle beteiligten Sprecher einen ‚gemeinsamen objektiven Referenzpunkt‘ bilde können, an dem die verschiedenen Sprachteilnehmer ihre ‚Bedeutungshypothesen‘ ‚ausrichten‘, gibt es Worte – wie das Wort ‚authentisch‘ –, die nicht als ‚einfache empirische Objekte‘ vorkommen. Zu sagen, ein Mensch sei ‚authentisch‘ kann sich prinzipiell auf sämtliche Aktivitäten dieses Menschen beziehen, auf sämtliche Situationen, in denen er auftritt. Faktisch wird man sich meistens auf eine Auswahl beschränken, da normalerweise niemand das vollständige Verhalten eines Menschen untersuchen kann (wie ja auch der einzelne Mensch von sich selbst nur eine sehr begrenzte Kenntnis hat (weil man vieles vergisst, weil die Selbstwahrnehmung unvollständig ist, weil das Verständnis von einem selbst unvollständig oder unpassend ist,….). Man hat also normalerweise eine kleine Auswahl von Fragmenten eines komplexen Geschehens, dessen Randbedingungen einem nur unvollständig zugänglich sind (z.B. hat man keine direkten Kenntnisse von den inneren (subjektiven) Zuständen, die einen Menschen dazu bringen, etwas Bestimmtes zu tun). Will man in solch einer komplexen und unübersichtlichen Situation dennoch einen Bedeutungsinhalt konstruieren, der eine minimale ‚Gemeinsamkeit‘ zwischen verschiedenen Sprechern erlaubt, dann kann dies nur dadurch geschehen, dass es ‚Standardsituationen‘ und ‚Standardverhaltensweisen‘ gibt, die sich von allen Beteiligten hinreichend identifizieren lassen und die man als ‚Kriterium‘ benutzen kann, um zur ‚Einschätzung‘ zu kommen, jemand sei ‚authentisch‘ oder nicht.

  4. Fragt man sich, wie solche ‚Standardsituationen‘ und ‚Standardverhaltensweisen‘ aussehen könnten, dann benötigt man etwas ‚Allgemeines‘, das über einzelne konkrete Ereignisse hinausreicht, so, dass man sagen könnte, dass diese oder jene konkrete Verhaltensweise ‚Beispiele‘ für dieses ‚Allgemeine‘ sind (z.B.  Formulierungen wie ‚X kocht‘, ‚X hebt Geld ab‘, ‚X macht Musik‘, ‚X lernt gerade‘,… als Beispiele für etwas Allgemeines, dem sich ein konkretes individuelles Verhalten zuordnen lässt). Die Gesetzgebung — wie auch unterschiedliche Normierungen — sind ein Beispiel dafür, wie man versucht, mittels Texten Situationen so zu beschreiben, dass man im Einzelfall entscheiden kann, ob die Handlung einer Person solch einer Beschreibung subsumiert werden kann und ein Richter feststellen kann, ob eine Person mit diesem Verhalten im Sinne dieser Beschreibung ’straffällig‘ geworden ist oder nicht. Wie man aus der Praxis der Rechtsfindung weiß, ist dies alles andere als einfach und ganz selten eindeutig. Letztlich sind es die aktiven Richter, die darüber ‚befinden‘, ob bestimmte Ereignisse als unter eine Beschreibung ’subsumierbar‘ anzusehen sind oder nicht. Im alten lateinischen Spruch ‚in dubio pro reo‘ (Etwa „Im Zweifel für den Angeklagten“), drückt sich schlagwortartig diese Einsicht in die Begrenztheit der Erkenntnis aus, so dass man im Strafprozess einen Angeklagten aufgrund der notorisch schwierigen Erkenntnislage nicht verurteilen sollte, wenn Zweifel an seiner Schuld verbleiben.

  5. Was wären ‚Standardsituationen‘ für ‚authentische‘ Menschen? Wenn jemand – ohne erkennbare Not — sagt, er heiße ABC, laut Ausweis aber CAB heißt, wäre dies vielleicht ein Grenzfall (ein Scherz? Schauspielerei? Vorgauklung falscher Tatsachen?..). Wenn jemand (ebenfalls ohne Not) sagt, er übe Position XYZ in einer Institution aus oder den Beruf XYZ, tatsächlich aber nicht, wäre dies eher kein Beispiel für ‚Authentizität‘? Wenn jemand nichts vom modernen Modebetrieb hält, sich aber dennoch bestimmte Kleidungsstücke anzieht, weil dies die mediengesteuerte Mehrheit in einer bestimmten soziologischen Gruppe ’so tut‘, ist dies ‚Anpassung‘, ‚Unterwerfung‘ – und damit nicht authentisch – oder ist dies ‚Pragmatismus‘, ‚Klugheit‘ und dadurch noch authentisch? Wenn jemand in Gesprächen mit KollegenInnen eine ‚Rolle‘ spielt, von der er/sie meint, damit komme er/sie ‚gut an‘, obgleich er/sie tatsächlich andere Meinungen und Werte haben, wäre dies auch ein Grenzfall; eher kein Fall von Authentizität? Was aber, wenn bestimmte berufliche Positionen nur erreicht werden können, wenn man einer Mehrheit ‚gefällt‘, deren Meinung man nur bedingt teilt. Gibt man sich auf, ‚verrät‘ man sich, wenn man dann ’so tut‘, ‚als ob‘ man diese Meinungen vertritt, um die Position zu bekommen? Falls die Position selbst dann Handlungen ermöglicht, hinter denen man stehen kann, wäre der Weg zu dieser Position dann ein ‚Kompromiss‘ (?), um etwas ‚Gutes‘ zu erreichen. Wäre dies ‚authentisch‘? Wenn aber die Position selbst weitgehend Handlungen erfordert, hinter denen man nicht wirklich steht, würde dies jede ‚Authentizität‘ ausschließen?

  6. Schon diese wenigen Beispiele zeigen, dass offensichtlich Handlungen als solche nicht direkt etwas über ‚Authentizität‘ aussagen, da die Umstände von Handlungen sehr vielschichtig sein können und die ‚Bedeutung‘ einzelner Momente sich nur im Gesamtkontext erschließt.

  7. Was kann es aber unabhängig von bestimmten Handlungsabläufen geben, was sich in all den verschiedenen Situationen ‚durchhält‘? Ferner muss man auch fragen, ob es unbedingt ‚für andere erkennbar‘ sein muss? Kann es nicht sogar sein, dass ein Mensch ’sich selbst treu‘ bleibt, wenn er in verschiedenen Situationen und Lebensphasen ganz unterschiedliche Dinge tut, in denen ein ‚Außenstehender‘ nur ‚Widersprüchliches‘ erkennt obwohl es aus Sicht des Handelnden einen ‚roten Faden‘ gibt. Wäre solch ein Mensch ‚authentisch‘ … sozusagen mit einer verborgenen Authentizität? Wäre ‚das Authentische‘ dann eher eine subjektive Kategorie, ein ’sich selbst treu bleiben‘ im Laufe unterschiedlichster Situationen? Wenn wir aber annehmen müssen, dass das Bild von einem selbst sehr fehleranfällig, sehr unvollständig ist, dann wäre eine Authentizität, die sich an diesem problematischen Selbstbild orientiert, nicht minder problematisch und fehleranfällig.

  8. Möglicherweise haben wir hier einen ersten ‚Ankerpunkt‘ für die Bedeutung von ‚Authentizität‘. Da wir wissen, dass jede Form von Wissen grundsätzlich unvollständig und fehleranfällig ist, bleibt uns nur die bescheidene Möglichkeit, mit dem Wenigen, was wir haben, ’sorgsam umzugehen‘. Wir können versuchen, das Wenige, was wir tatsächlich meinen zu wissen und vom dem wir glauben, dass es ‚wichtig‘ sein könnte, dieses in jeder Hinsicht so ‚transparent‘ wie möglich zu ‚bewahren‘ und es zu ‚benutzen‘. Da wir nichts anderes haben als dieses ‚Wenige‘ entscheidet Sorgsamkeit, Ehrlichkeit, Transparenz darüber, ob wir mit diesem Wenigen ‚ein Stück mehr‘ erkennen können, ‚wie es ist‘ oder nicht. In diesem Sinne ist unser eigener Umgang mit dem Wenigen, was wir haben die Voraussetzung für nächste Schritte bzw. für die Integration von einzelnen Aspekten zu größeren Zusammenhängen. Ich könnte mir vorstellen, dass wir einen Menschen, der in diesem grundlegenden Sinne ’sorgsam‘, ‚ehrlich‘, ‚transparent‘ mit sich selbst und anderen umgeht, etwas ‚Authentisches‘ hat, dass er eine ‚Atmosphäre‘ ‚ausstrahlt‘, in der man ‚vertrauen‘ kann, sich ‚entspannen‘ kann usw. Ein authentischer Mensch in diesem Sinne repräsentiert daher einen ‚Raum von Transparenz, Ehrlichkeit, Sorgsamkeit, Verantwortlichkeit‘, von der aus sich im Prinzip alles erreichen lässt, was wichtig ist, allerdings in – meistens – vielen Schritten, längeren Zeiträumen, mit viel Energie, mit viel Arbeit, mit einer ’sich selbst speisenden‘ Motivation und Zufriedenheit, die sich nicht aus ‚Sachen‘ speist, sondern aus einer Haltung, einem Prozess, einem sich daraus ergebenden Zustand.

  9. Ich glaube nicht, dass man in irgendeinem Buch (Wörterbuch, Lexikon,…) dieser Welt im einzelnen nachlesen kann, was ‚authentisch‘ ist. Wer für sich selbst diesen ‚Zustand‘ nicht selber findet, wird niemals verstehen können, was es ist (wie mit allen wichtigen Dingen). Zugleich gibt es keinen harten Grund, warum nicht grundsätzlich jeder Mensch ein ‚authentischer Mensch‘ werden könnte, wenngleich Schmerzen, Folter, Terror, Überlebenskampf und dergleichen starke Faktoren sind, die einen Menschen darin behindern können. Doch gibt es viele Beispiele, wo Menschen selbst unter solchen extremen Umständen ihren authentischen Charakter beibehalten haben. Letztlich gibt es für uns Menschen auch keine wirkliche Alternative zum Authentischsein. Wer in den elementaren Dingen des Lebens Kompromisse mit dem Nicht-Authentischen eingeht, zerstört letztlich seine eigene Lebensgrundlage und damit meistens auch die Lebensgrundlage von anderen Menschen. Wir sind niemals alleine: weder im Empfangen noch im Geben. Die Vorstellung des Alleine-Seins ist ein tragischer Irrtum, der den Keim der Lüge und Unwahrheit von Anbeginn in sich trägt und mehr zur Selbstzerstörung beiträgt als alles andere. Jeder Mensch braucht den anderen Menschen, und zwar so authentisch wie möglich. Leider garantiert dies keinen Erfolgt im Überlebenskampf. Ohne diese Kunst des wechselseitigen Authentischseins kann es aber auch keinen nachhaltigen Erfolg geben, da Authentischsein die Voraussetzung für wahre Erkenntnis ist, diese wiederum ist die Voraussetzung für Theorien (und Technologien), die nachhaltig funktionieren. Große Teile unserer heutigen Lebensweisen und Technologien sind dabei, die Lebensgrundlagen fast aller Arten und damit auch die des Menschen nachhaltig zu zerstören. In diesem Sinne sind sie nicht ‚wahr‘, weil wir, die Urheber und Schöpfer, nicht ausreichend authentisch sind. Wir Verschließen unsere Augen, weil wir uns wechselseitig suggerieren, so schlimm sei es doch nicht, wenn wir es im Detail nicht so genau nehmen, wenn wir uns wechselseitig verletzen und ruinieren. Doch, mit der Wahrheit lässt sich nicht spielen. Sie war schon lange vor unseren modernen Unwahrheiten dar und sie ist unvergleichlich mächtiger. Unwahrheit führt unweigerlich zum Scheitern (dazu braucht man keine ‚Pseudogötter‘ zu beschwören. Die Wahrheit selbst reicht dazu völlig aus).

Spiegelung Umwelt im Gebaeude

Eine Übersicht über alle bisherigen Themen findet sich HIER