Archiv der Kategorie: Komplexitätsebene

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST …

KONTEXT

  1. Diesem Beitrag ging ein Blogeintrag voraus mit einer einleitenden methodischen Reflexion sowie die Identifizierung einer ersten Periode im Phänomen des biologischen Lebens auf der Erde.Periodisierung der biologischen Evolution nach speziellen Kriterien. Siehe Text.

UR-GEDÄCHTNIS, ABSTRAKTES WISSEN

  1. Ein wichtiger Punkt der ersten Periode des biologischen Lebens ist jene Struktur, welche erstmalig im Universum die Überwindung der Gegenwart durch eine gedächtnishafte Kumulierung von Eigenschaften und Beziehungen (Speichermolekül, Bauplan, Genom…) erlaubt, wodurch die Erfolge der Vergangenheit in die aktuelle Gegenwart hinein wirken können.
  2. Die Herrschaft des Augenblicks wird damit ansatzweise überwunden. Nicht mehr das aktuell Faktische (‚Seiende‘) ist die eigentliche Wahrheit,  sondern erinnerte Eigenschaften und Beziehungen werden zu einer höheren Wahrheit, einer Wahrheit zweiter Ordnung; das Abstrakte und darin Virtuelle erweist sich als die bessere Aussage über die Gegenwart. Das gegenwärtig Stattfindende, aktuell in die Sinne Springende, ist nur ein Aspekt an einem dynamischen Geschehen, das als Geschehen mehr von der Wirklichkeit, vom Leben enthüllt, als das jeweils aktuell Seiende.
  3. Rückblickend gewinnt damit der Prozess, der zur Entstehung der ersten Zelle führte, ein eminent philosophische Bedeutung: wie konnte die sogenannte tote und dumme, schlichtweg die geistlose Materie, in der Lage sein, im Meer der Atome und Moleküle auf der frühen Erde eine Prozessumgebung bereit zu halten, in der sich chemische Prozesse so abspielten, dass nicht nur neue Energieumwandlungs- und -nutzungskonzepte entstehen konnten, sondern zugleich der Prozess sich selbst in Form eines Moleküls so kodiert, dass er sich bei der Selbstreproduktion auch wieder dekodieren konnte. Für die molekularbiologischen Details dieses komplexen Prozesses sei auf entsprechende Literatur verwiesen (Neben z.B. Christian de Duve sei noch vierwiesen auf The Origin and Nature of Life on Earth: The Emergence of the Fourth Geosphere. Cambridge University Press, 2016, Smith, Eric and Morowitz, Harold J.). Philosophisch entscheidend ist  letztlich, was durch diese komplexen Prozesse an wirkender Struktur und Funktionalität oberhalb der molekularen Ebene entstanden ist, welche die sich selbst reproduzierende Zelle mit einer ersten Form von Wissen ausgestattet haben.

UR-AUTOMAT, UR-ALGORITHMUS

  1. Die Besonderheit dieses ersten Wissens (‚Proto-Wissen‘, ‚Ur-Wissen‘…) liegt in seinem algorithmischen Charakter: im Wechselspiel mit den dekodierenden Elementen einer Zelle zeigen diese Strukturen eine strukturelle Ähnlichkeit mit dem Konzept der Turingmaschine, das 1936 von Alan M.Turing entdeckt wurde, um das Phänomen der Berechenbarkeit zu beschreiben. Wie sich herausstellte, lassen sich alle Computer, die zeitlich nach Turing als reale Maschinen entwickelt wurden, bislang mit dem abstrakten Konzept der Turingmaschine beschreiben. [ANMERKUNG: Dass die neu entwickelten Quantencomputer von diesem Konzept abweichen, müsste erste noch bewiesen werden. Denn dass Prozesse ‚sehr schnell‘ sind, ‚parallel‘ stattfinden, und mehr als nur ‚zwei Zustände‘ kennen, sprengt das mathematische Konzept der Turingmaschine nicht notwendigerweise.]
  2. Diese Strukturähnlichkeit des Automatenkonzepts mit den elementaren Wissensnutzungskonzepten der ersten biologischen Zellen (und dann natürlich aller NachfolgerInnen) ist philosophisch von Interesse. Es legt die Vermutung nahe, dass das moderne algorithmische Informationsverarbeitungskonzept möglicherweise eine elementare Eigenschaft des biologischen Lebens selbst anzeigt, das ja nicht in einzelnen isolierten Komponenten besteht, sondern als ein dynamischer Zusammenhang auftritt, der auf der Basis der Eigenschaften der Materie in der Lage ist, solche Prozesse zum Laufen zu bringen, in denen sich dynamische Eigenschaften des Universums in geeignete abstrakte Kodierungen übersetzen lassen, die wiederum zu Befehlsketten für neue Prozesse werden können.

UR-ZEICHEN, UR-SEMIOTISCHER AKTEUR

  1. Mit Blick auf den weiteren Fortgang der biologischen Evolution ist auch noch folgender Perspektivwechsel von Interesse. Die Kodierung von Realität in eine repräsentierende Struktur mittels eines Materials für die Codeelemente (hier: Atomverbindungen im Kontext eines Moleküls) und die Dekodierung der im Material angeordneten Codeelemente mittels einer Dekodierungsvorschrift, kann man auch als semiotischen Prozess verstehen: die zu kodierende (auch prozesshafte) Realität bildet dann die Bedeutung (‚meaning‘), die in einem Zeichenmaterial (die Codeelemente) repräsentiert wird, und der Zusammenhang zwischen Zeichenmaterial und Bedeutung wird über eine Bedeutungsbeziehung hergestellt, welche immer eine prozesshafte Instanz sein muss, die sowohl die Kodierung wie auch die Dekodierung leisten kann. Innerhalb einer realisierten Bedeutungsbeziehung erscheint das Zeichenmaterial dann als Zeichen für die Bedeutung und umgekehrt wird die bezeichnete Realität zur Bedeutung des Zeichens.
  2. Außerhalb der Bedeutungsbeziehung gibt es weder Bedeutung noch Zeichen. Zeichen und Bedeutung sind an eine prozesshafte Instanz gebunden, durch die diese Beziehung generiert und realisiert wird. Nennt man jene prozesshafte Instanz, die Zeichenbeziehungen ermöglicht, einen semiotischen Akteur, dann ist die erste biologische Zelle der erste semiotische Akteur des Universums. Das Prozessmodell, das hier zum Tragen kommt ist – jenseits der molekularbiologischen Perspektive – das eines Automaten, das einer Turingmaschine, und damit repräsentiert die biologische Zelle – in philosophisch formaler Sicht – den ersten algorithmischen semiotischen Akteur des Universums.
  3. Zum Zeichenkonzept gehört auch, dass es konventionell ist: es ist beliebig, welches Ausdrucksmaterial die Prozessinstanz welchen möglichen Realitäten zuordnet. Das Beschränkende daran ist, dass die Zeichenbeziehung, die dann faktisch eingerichtet wurden, spezifisch sind: alle semiotischen Akteure, die die gleiche Zeichenbeziehung benutzen wollen, müssen sich bezüglich der Zeichenbeziehung koordinieren. Das Entgrenzende an einer Zeichenbeziehung ist, dass sie im Prinzip die gesamte Realität in sich aufnehmen kann. Durch einen semiotischen Prozess kann man die empirische Realität in eine abstrakt-virtuelle Realität transformieren und dabei zugleich verändern. Die veränderte virtuelle Realität kann dann dazu benutzt werden, um die empirische Realität im Hinblick auf mögliche zukünftige empirische Zustände zu befragen und neue Varianten voraus zu denken.
  4. Die Verfügbarkeit einer Zeichenbeziehung gibt damit einem individuellen System eine potentiell unbegrenzte Macht zum Verändern. Andererseits funktioniert dies nur, wenn der semiotische Akteur nicht alleine agiert, sondern als Teil einer Kollektion von semiotischen Akteuren. Jeder kann zwar die Zeichenbeziehung für sich ändern, sie gehört aber niemandem alleine. Es ist ein kollektives Wissen, das sich den einzelnen schafft und durch die Aktivität des einzelnen partiell, graduell modifizierbar ist.
  5. In der Phase der ersten semiotischen Revolution des Lebens wurde die Einheit der Zeichenbeziehung gewahrt durch die gemeinsame Nutzung der RNA- und DNA-Moleküle samt deren molekularen Kodierungs- und Dekodierungsstrukturen, die allen Zellen gleich sind. Und diese gesamte Zeichenstruktur war realisiert als eine universelle Turingmaschine.

 

REPRÄSENTATIONSPROBLEME

 

  1. Man kann sich fragen, in welcher Weise sich diese biologisch vorfindbaren Strukturen und Dynamiken im bisherigen Komplexitätskonzept identifizieren lassen? Wie lässt sich eine algorithmische semiotische Prozessstruktur mit Gedächtnis systemtheoretisch fassen? Was sagen schon Input-Output Mengen, interne Level, mit Blick auf solch komplexe Eigenschaften?
  2. Zeitlich punktuelle und beziehungsmäßig isolierte repräsentierende Strukturen können offensichtlich Phänomene, die sich in der Zeit erstrecken und in Wechselwirkungen stattfinden, nicht angemessen repräsentieren. Dazu kommen semiotische Eigenschaften und auch Erfolgskriterien der empirischen Systeme, die sich neben der Zeit auch in übergeordneten Strukturen repräsentieren (wenn überhaupt).
  3. Zusätzlich gibt es das Phänomen der Strukturveränderung STR im Laufe der Zeit, die zugleich einhergeht mit Verhaltensänderungen f. Und diese Veränderungen erfolgen nicht isoliert, sondern in einem Feld anderer Strukturen {<STR1,f1>, …, <STRn,fn>}(t1) ==> {<STR1,f1>, …, <STRn,fn>}(t1+1) und von Umgebungskontexten {C1, …, Cn}(t1)==> {C1, …, Cn}(t1+1) , die sich mit verändern.
  4. Jede einzelne biologische Struktur ist zudem Teil einer übergreifenden biologischen Population POP, die einen ähnlich kodierten Wissensspeicher G teilt, also POP = {Menge aller STRi für die gilt, dass ihr kodiertes Wissen Gi zur einer Ähnlichkeitsklasse Gi gehört}.
  5. Hier deuten sich komplexe Vernetzungsstrukturen in der Zeit an, die in dem bisherigen Komplexitätskonzept nicht befriedigend repräsentiert sind.
  6. Mit diesen ungelösten Fragen im Hinterkopf stellt sich die weitere Frage, welche der nachfolgenden Ereignisse in der biologischen Evolution eine weitere Steigerung der Komplexität manifestieren?

 

GEHIRN – BEWUSSTSEIN – GEIST

 

  1. Man kann beobachten, wie biologische Zellen sich in nahezu alle Lebensbereiche der Erde ausbreiten: im Meer, im Sediment, auf Land, in der Luft, in heißen und kalten Umgebungen, ohne und mit Sauerstoff, in immer komplexeren Verbänden von Zellen, mit immer komplexeren Strukturen innerhalb der Verbände, mit komplexer werdenden Kooperationen aufgrund von Kommunikation, als Pflanzen und Tiere, als Einzelgänger arbeitend, in Gruppen, Schwärmen, ganzen ‚Staaten‘, mit immer komplexeren Sprachen, mit Schriftsystemen, mit immer komplexeren Werkzeugen, …
  2. … die äußerlich beobachtbaren immer komplexer werdenden Verhaltensweisen korrelieren mit einer zunehmenden Verdichtung der internen Informationsverarbeitung mittels spezialisierter Zellverbände (Nervensystem, Gehirn). Die aktuelle Wahrnehmung der eigenen Körperzustände wie Eigenschaften der Umgebung wurde immer differenzierter. Die Informationsverarbeitung kann Wahrnehmungsereignisse abstrahieren, speichern und erinnern... Im Erinnerbaren lassen sich Unterschiede und Veränderungen erkennen, darin Beziehungen, zugleich kann Gegenwärtiges, Erinnertes neu kombiniert (Denken, Planen) werden. Dazu entwickelt sich die Fähigkeit, aktuell Wahrgenommenes symbolisch zu benennen, es mit anderen zu kommunizieren. Dies erschließt neue Dimensionen der Orientierung in der Gegenwart und über die Gegenwart hinaus.
  3. Wichtig ist, dass man diese neuen Fähigkeiten und Leistungen nicht direkt am Nervensystem ablesen kann (obgleich dies immer größer und dichter wird), sondern nur über das beobachtbare Verhalten, über die Wechselwirkungen mit anderen Systemen und der Umgebung. So ist das Gehirn von Säugetieren strukturell systemisch nicht wirklich verschieden, aber die Verhaltensweisen der jeweiligen Systeme im Verbund sind markant anders.
  4. Dies deutet auf eine neue Form von Dualität (oder wie andere vielleicht sagen würden), von Dialektik hin: die zunehmende Komplexität des Verhaltens korrespondiert mit einer entsprechend anwachsenden komplexen Umgebung, die ihre empirische Fundierung im Körper, im Gehirn zu haben scheint, aber andererseits kann sich diese Komplexität nur entfalten, nur zeigen, nur manifestieren, in dem Maße, wie diese äußere Komplexität empirisch verfügbar ist. Von daher ist es möglicherweise fruchtlos, zu fragen, was hier Ursache für was ist: das Gehirn für die Umgebung oder die Umgebung für das Gehirn. Manche sprechen hier ja auch von Ko-Evolution. Entscheidend ist offensichtlich der Prozess, durch den sich diese Wechselbeziehungen entfalten und wirken können. Dies impliziert, dass die beteiligten Strukturen plastisch, veränderlich sind.
  5. In der klassischen Philosophie nannte man ein komplexes Verhalten dieser Art ‚geistig‘, da man es im Organismus auf das Prinzip des Pneumas, der Psyche, des Geistes zurückführte (ohne letztlich zu wissen, was das jeweils ‚an sich‘ sein sollte). In diesem Verständnis könnte man formulieren, dass Lebensformen entstanden, deren Verhalten eine Komplexität zeigén, die man als geistig bezeichnen könnte.
  6. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS; nicht entscheidend alleine, dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  7. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.
  8. Für die Frage, wann ungefähr zeitlich solche Lebensformen auf der Erde auftreten, gibt es möglicherweise nicht den einen Zeitpunkt, sondern eher ein Zeitkorridor, innerhalb dessen sich unterschiedliche Phänomene angesammelt haben, die zusammen dann solch einen neuen Komplexitätshöhepunkt anzeigen. (Beginn Hominisation ca. -7 bis -5 Mio ; Migrationswellen ausgehend von Afrika (-130.000 bis -115.000 und -100.000 bis -50.000) ; Entstehung der Schrift  ca. -4000 im Gebiet des fruchtbaren Halbmonds)

 

KOEXISTENZ VON GEIST UND GESELLSCHAFT

  1. Da alle Handlungen des Menschen, die über den Augenblick hinausgehen, an seine Erinnerungs- und Denkfähigkeit gebunden sind, durch die der Augenblick in real erfahrene oder virtuell vorstellbare Zusammenhänge nach hinten und vorne eingebettet werden kann, wird man die gesamte Entwicklung komplexer Gesellschaften immer nur unter Voraussetzung einer entsprechenden Kommunikation und entsprechender Wissensmodelle verstehen können. Das verfügbare Wissen kann stabilisieren, konservieren und – im negativen Fall – blockieren, und im positiven Fall Alternativen aufzeigen, neue Möglichkeiten, Ursache-Wirkung Zusammenhänge deutlich machen.
  2. Daraus legt sich nahe, dass eine Theorie der Gesellschaft die handelnden semiotischen Akteure als Grundelemente umfassen sollte.
  3. Während eine biologische Population von Systemen durch den gemeinsamen biologischen Bauplan (realisiert im DNA-Molekül samt zugehöriger Dekodierungsstruktur) charakterisiert ist, definiert sich eine Gesellschaft von Systemen über gemeinsamen Wissensmodelle mit den zugehörigen semiotischen Prozessen (die Redeweise von den Memen, die Dawkins 1976 eingeführt hat, ist hier möglicherweise zu schwach) sowie den zugehörigen empirischen Umweltkontexten. Zu sagen, dass es eine Ko-Evolution zwischen Umgebung und Gesellschaft gibt ist zu schwach: entscheidend ist die Mikrostruktur des Prozesses und der hier wirkenden Faktoren in einem Multi-Agenten-Prozess mit Wissensanteilen und Bedeutung.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ zu einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde — letztlich aber das gesamte bekannte Universum — die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftreten in der Zeit selbst empirisch ist. Nicht empirisch ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmen würde, dann würde sie zur nächsten positiven komplexen Koordinate KK+ führen, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Keine direkte, aber eine indirekte, Fortsetzung könnte man in diesem Beitrag sehen.

Einen Überblick von allen Beiträgen des Autors cagent in diese Blog nach Titeln findet sich HIER.

NOTIZEN ZU DEN GROSSEN MEILENSTEINEN DER LEBENSPHÄNOMENE

  1. Wenn man Bücher wie z.B. das von B.Kegel zu den Mikroben oder jenes von Storch, Welsch und Wink zur Evolutionsbiologie (hier abgekürzt: EB) liest, dann kann man sich an der ungeheuren Vielfalt der Phänomene berauschen. Doch diese Bücher bieten zugleich Ansatzpunkte zum Verstehen, dass sich diesen Phänomenen Strukturen zuordnen lassen, innerhalb deren sie auftreten; mehr noch; man erkennt ansatzweise auch Prozesse, die solche Strukturen hervorbringen und verändern.
  2. Viele sprechen in diesem Zusammenhang von Evolution, doch darf man fragen, ob das, was normalerweise als Evolution bezeichnet wird, schon jenen Prozesse beschreibt, der tatsächlich ablaufen. Die Antwort hängt davon ab, welchen Rahmen man voraussetzt. Wieviele und welche Phänomene nehme ich ernst, will ich erklären.
  3. In EB nennen die Autoren auf S.90 zehn Ereignisse, von denen Sie sagen, dass Sie im Kontext der bekannten Lebensphänomene etwas Besonderes darstellen:
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Auftreten eukaryontischer Zellen, ca. -2Mrd
    3. Vielzellige Verbände, ca. -1.85 Mrd
    4. Hartstrukturen, ca. -0.6Mrd
    5. Räuber, ca. -0.57 Mrd
    6. Riffe, ca. -0.525
    7. Besiedlung des Landes, ca. -0.42
    8. Bäume/ Wald, ca. -0.365
    9. Flug, ca. -0.310
    10. Menschliches Bewusstsein, ca. -0.05Mrd
  4. Diesen Phänomenen ist gemeinsam, dass sie alle auf der Funktionsweise und der Kooperation von Zellen (Archaeen, Bakterien, Eukaryoten) basieren.
  5. Andererseits wissen wir, dass sie sich nicht im luftleeren Raum abgespielt haben, sondern unter sehr konkret realen Bedingungen der Erde in ihrer jeweiligen Verfassung. Dies bedeutet, diese Phänomene repräsentieren nur eine Seite, eine Hälfte, des Phänomens. Die andere Seite, die andere Hälfte ist die jeweilige Umgebung. Letztlich ist es diese Umgebung, die diktiert, vorgibt, was überhaupt möglich ist.
  6. So ist die Transformation der Umgebung von einer Nicht-Sauerstoffwelt zu einer Sauerstoffwelt ein extremes Ereignis: die biologischen Strukturen haben einen Trigger gefunden, mit dem sie die Verhältnisse unter und über Wasser so radikal geändert haben, dass nicht nur eine neue, verbesserte Form der Energieausnutzung aller Zellen möglich wurde, sondern zusätzlich entstand eine Atmosphäre, die das Wasser der Ozeane daran gehindert hat, dieses Wasser durch die UV-Strahlung praktisch verdunsten zu lassen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
  7. Obwohl die Entstehung der Sauerstoffwelt kein biologisches Phänomen im engeren Sinne ist, ist es dennoch ohne die Aktivität biologischer Lebensformen nicht erklärbar. Anders gesagt, zunächst ist die Erde, wie sie ist, und die biologischen Strukturen müssen sich innerhalb dieser Gegebenheiten einen Weg suchen. Nach ca. 1.5 Mrd Jahren führt aber die Aktivität der biologischen Strukturen in Interaktion mit der vorhandenen Welt dazu, diese Welt real so zu verändern, dass sie für die biologischen Strukturen eine andere Welt geworden ist. Die biologische Strukturen im Mikrobereich des Lebens hatten und haben eine solche Kraft, dass sie einen ganzen Planeten samt seiner Atmosphäre nachhaltig verändern konnten. Ohne die so entstandene Sauerstoffwelt wäre alles Leben auf der Erdoberfläche, so, wie wir es heute kennen, unmöglich.
  8. Nachdem ein Bewusstsein in der Form des menschlichen Bewusstseins auftrat, entwickelten die Menschen auf der Basis dieses Bewusstseins in relativ kurzer Zeit und dann immer schneller, Verhaltensweisen und Lebensformen mit einer Unzahl von Spielarten, bei denen es nicht ganz leicht ist, zu sagen, ob sie bedeutsam waren/ sind oder nicht. Letztlich hängt es immer von der Betrachtungsweise ab, ob etwas in einem gewählten Kontext bedeutsam erscheint. Die folgende Liste ist daher nicht zu lesen als eine dogmatische Festsetzung als vielmehr nur eine lockere Auswahl einiger Phänomene von vielen, die möglicherweise eine wichtige Rolle spielen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
    12. Erste Städte, ca. -10.000
    13. Schriftsprachen, ca. -3.000
    14. Gesetze
    15. Bücher
    16. Elektrizität
    17. Energiegewinnung mit fossilen Brennstoffen, Atomenergie,Wasser, Wind, Sonne, Bioreaktoren…
    18. Mobiler Verkehr
    19. Industrielle Ernährungswirtschaft
    20. Megastädte (mehr als 10 Mio Einwohner)
    21. Computer
    22. Gentechnik
    23. Vernetzte Computer
  9. Wir können heute definitiv feststellen, dass die Aktivitäten alleine des homo sapiens, einer absoluten Minderheit im Kontext des Lebens, das Ökosystem der Erde wie auch die Erde selbst schon so nachhaltig verändert hat, dass die Ressourcen für Nahrung knapp werden, dass ein gewaltiges Artensterben eingesetzt hat, dass wichtige Biotope zerstört werden, und dass das Klima sich in einer Weise zu verändern begonnen hat, das zu sehr nachhaltigen Störungen führen kann, die dann die Lebensbedingungen allgemein erschweren werden. Das komplexeste (? wie zu messen?) Produkt, was der Lebensprozess bislang hervorgebracht hat, der homo sapiens, hat offensichtlich Probleme, mit der vorfindlichen Komplexität, zu der der Mensch selbst auch gehört, fertig zu werden. Deutet man dies als mangelnde Anpassungsfähigkeit, dann sagt die bisherige Geschichte voraus, dass eine größere Katastrophe eintreten wird, durch die alle Organismen mit einem schlecht angepassten Verhalten aussterben werden.
  10. Das Besondere der aktuellen Situation ist, dass der Mensch sein Verhalten tatsächlich weitgehend selbst bestimmen kann. Wenn die Menschheit besser wüsste, was am besten zu tun ist, dann könnte sie dies einfach tun. Im Alltagsleben menschlicher Gesellschaften gibt es aber so viele Prozesse, die viel kurzsichtigere, egoistischere, emotional verblendete Ziele verfolgen, die keinerlei Bezug zum großen Ganzen haben. In dem Masse, wie diese kurzsichtigen Perspektiven die Mehrheit bilden, den Ton angeben, in dem Masse wird das gesamtmenschliche Verhalten die Erde weiterhin in wichtigen Bereichen nachhaltig zerstören und damit eine Anpassungskatastrophe einleiten.
  11. Man könnte in dieser Situation den Schluss ziehen, dass die Menschen neue geistige Konzepte, neue Verhaltensmodelle, ein neues=besseres Menschenbild, neue Regeln, neue Ethiken benötigen, um sich den veränderten Verhältnissen angemessen zu nähern. Nimmt man die allgemeinen Medien als Gradmesser für das alltägliche Denken, dann findet man hier derart primitive und rückwärtsgewandte Konzepte, dass nicht zu sehen ist, wie von hier eine ‚Erneuerung‘ des Denkens für eine gemeinsame Zukunft stattfinden soll. Begleitet wird diese regressive Medienwelt von einer – dann nicht verwunderlichen – Radikalisierung, Vereinfachung, Nationalisierung, Gewaltverherrlichung, die sich in der Politik dahingehend niederschlägt, dass Abgrenzungen, Nationalisierungen, Radikalisierungen bevorzugt werden. genau das Gegenteil wäre notwendig. Wenn das die einzige Antwort ist, die die Menschheit auf die gewachsenen Komplexitäten und zunehmenden Umweltzerstörungen zu bieten hat, dann wird es für eine nachhaltige Zukunft nicht reichen.
  12. Nachbemerkung: die obige Liste an Ereignissen könnte (und müsste) man natürlich auch nach hinten verlängern. Bis hin zum sogenannten Big Bang. Über die Stufen
    1. Big Bang
    2. Subatomare Teilchen
    3. Atome
    4. Gaswolken
    5. Sterne
    6. Moleküle
    7. Galaxien
  13. wäre auch eine Menge zu sagen. Alle wichtige Fragen hat die Physik bislang nicht gelöst. Dass die Physik bislang fantastische Ergebnisse erzielt hat ist wunderbar und anzuerkennen. Es wäre aber ein fataler Fehler, jetzt zu glauben, wir wüssten damit schon viel und könnten uns jetzt ausruhen. Nein, wir wissen gerade mal so viel, dass wir abschätzen können, dass wir fast nichts wissen. Alles hängt ab von der jeweils jungen Generation an Ingenieuren, Wissenschaftlern und Forschern. Wer hilft Ihnen, die entsprechenden Ziele zu setzen und die notwendigen Wege zu gehen?

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 2

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

NACHTRAG: Am 30.9.2015 habe ich noch einen Diskussionsteil angefügt

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Ich hatte sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangenes. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

KAPITEL 2: DISSIPATIVE PROZESSE (54-64 …)

1. Anmerkung: bei der Lektüre des Buches merke ich, dass im Buch die Seiten 65 – 96 fehlen! Das ist sehr ungewöhnlich. Die Besprechung erfolgt also zunächst mal mit dem unvollständigen Text. Ich werde versuchen, doch noch einen vollständigen Text zu bekommen.

2. Eine Argumentationslinie in diesem Kapitel greift jene physikalischen Theorien auf, die bezüglich der Zeit invariant sind. Reversibilität von Prozessen, Konservierung (z.B. von Energie) und Determiniertheit sind Begriffe, die untereinander zusammen hängen. (vgl.S.58) Eine solche ’statische‘ Theorie ist die klassische (newtonsche) Mechanik.

3. Denbigh sieht einen Zusammenhang zwischen diesem stark idealisierenden Denken, das sich an etwas ‚Festem‘ orientiert, an etwas, das bleibt, etwas, das sich konserviert, und der griechischen Denktradition, die die Grundlagen allen Wandels in den unveränderlichen Atomen entdeckten. Ein typisches Beispiel ist die chemische Reaktionsgleichung für die Umwandlung von Wasserstoff 2H_2 und Sauerstoff O_2 in Wasser 2H_2O. Die Bestandteile werden hier als unveränderlich angenommen, nur ihre Anordnung/ ihr Muster ändert sich.

4. Diesem Hang zur Verdinglichung des Denkens über die Realität steht aber die ganze Entwicklung der physikalischen Erkenntnis entgegen: die scheinbar unteilbaren Atome setzen sich aus Partikeln zusammen, und die Partikel wiederum sind umwandelbar in Energie. Materie und Energie wurden als äquivalent erkannt. Die Gesamtheit von Energie-Materie mag konstant sein, aber die jeweiligen Zustandsformen können sich ändern.

5. Der Ausgangspunkt für die Entdeckung des Begriffs Entropie war die Ungleichheit in der Umwandlung von mechanischer Energie in Wärme und umgekehrt. (vgl. S.60f) Viele solcher Asymmetrien wurden gefunden. Während eine Richtung funktioniert, funktioniert die andere Richtung höchstens partiell. (vgl. S.62) Solche höchstens partiell reversible Prozesse sind dissipativ Prozesse. Und diese Eigenschaft, die den Unterschied in der Umwandelbarkeit charakterisiert, wurde Entropie [S] genannt. Sie kommt generell Systemen zu. Liegen zwei Systeme A und B vor, so drückt die Gleichung S_B >= S_A für t_B > t_A aus, dass für alle Zeitpunkt von B (T_B) nach dem aktuellen Zeitpunkt die Entropie von B (S_B) entweder gleich oder größer ist als die von A. Die Entropie kann also nicht abnehmen, sondern nur gleich bleiben oder zunehmen.

6. Das Besondere an der Entropie ist, dass die Entropie zunehmen kann, obwohl die Energie insgesamt konstant bleibt. (vgl. S.63f) [Anmerkung: Dies deutet implizit darauf hin, dass es unterschiedliche ‚Zustandsformen‘ von Energie gibt: solche in denen Energie lokal verfügbar ist, um Umwandlungsprozesse zu ermöglichen, und solche, in denen Energie lokal nicht mehr verfügbar ist. Die Nichtverfügbarkeit von Energie wäre dann gleichbedeutend mit maximaler Entropie. Die Nichtverfügbarkeit von Energie käme einer Unveränderlichkeit von Energie gleich. Ein schwieriger Begriff, da Energie als solche ‚Zustandslos‘ ist.]

7. Ferner deuten alle bekannten physikalischen Prozesse immer nur in eine Richtung: Zunahme von Entropie. (vgl. S.64)

8. … ab hier fehlt der Text im Buch ….

KAPITEL 3: FORMATIVE PROZESSE (…97 – 116)

9. Laut Inhaltsverzeichnis fehlen bei mir die ersten 7 Seiten vom dritten Kapitel.

10. Der Text startet mit dem Begriff der Organisation, den Denbigh als ein Konzept einstuft, das oberhalb der Elemente eines Systems liegt. Seine Einführung setzt voraus, dass man am Verhalten des Systems eine Funktion erkennt, die ein spezifisches Zusammenwirken der einzelnen Elemente voraussetzt. (vgl. S.98)

11. Zur Charakterisierung einer Organisation stellt Denbigh zwei zusätzliche Postulate auf. Einmal (i) sollen die einzelnen Elemente – bezogen auf die Gesamtleistung des Systems – nur eine begrenzte Fähigkeit besitzen, die erst im Zusammenspiel mit den anderen die Systemleistung ergibt, zum anderen (ii) müssen die Elemente untereinander verbunden sein.

12. Er führt dann die Begriffe Anzahl der Verbindungen [c] ein, Anzahl der Elemente ohne Kopien [n], sowie Anzahl der Elemente mit Kopien [N] ein. Die minimale Anzahl der Verbindungen wird mit N-1 gleichgesetzt, die maximale Zahl aller paarweisen Verbindungen (inklusive der Verbindungen der Elemente mit sich selbst) wird mit N * (N-1) angegeben. Die Anzahl c aller Verbindungen liegt also irgendwo zwischen N und N^2. Nimmt man das Produkt c x n, dann berücksichtigt man nur die unterscheidbaren Elemente ohne die Kopien.(vgl. S.100)

13. Damit konstruiert er dann den theoretischen Begriff der Zusammengesetztheit (‚integrality‘) [Anmerkung: man könnte hier auch von einer bestimmten Form der Komplexität sprechen] einer Organisation basierend auf ihren Elementen und ihren Verbindungen.

14. Denbigh referiert dann, dass im Bereich des Biologischen der Grad der Zusammengesetztheit der Nachkommen von biologischen Systemen zunimmt. (vgl. S.100) In diesem Zusammenhang sind Untersuchungen von von Neumann interessant. Im Versuch zu zeigen, ob und wie man Phänomene des Biologischen mit Automaten nachbauen könnte, kam von Neumann zu dem Resultat, dass die Ausgangssysteme eine kritische Größe haben müssen, damit ihre Nachkommen einen höheren Grad der Zusammengesetztheit haben können als die Elternsysteme. In seiner Untersuchung waren dies viele Millionen ‚Elemente‘. (vgl. S.100f)

15. Ein erster interessanter Befund ist, dass der Grad der Zusammengesetztheit unabhängig ist von den Konservierungsgesetzen der Physik. (vgl. S.102f) In einem isolierten Ei kann — nach Denbigh — der Grad der Zusammengesetztheit zunehmen ohne dass die Gesamtenergie sich ändert.

16. Allerdings ändert sich normalerweise die Entropie. Innerhalb des Eis mag die Entropie abnehmen, insgesamt aber erhalten biologische Systeme den Grad ihrer Zusammengesetztheit abseits eines Gleichgewichtszustands, was nur durch ständige Zufuhr von Energie möglich ist. Lokal nimmt die Entropie am/ im System ab, im Kontext mit der Umwelt, aus der die Energie entzogen wird, nimmt aber die Entropie zu. (vgl. S.103f)

17. [Anmerkung: Es fragt sich hier, ob es Sinn macht, von der ‚globalen‘ Entropie zu sprechen, da ja die Entropie der Teilbereiche ‚Umwelt‘ und ‚System‘ für sich unterschiedlich ist. Ein System mit ‚geringerer‘ Entropie ist eigentlich nicht vergleichbar mit einem System ‚höherer‘ Entropie.]

18. Denbigh schlussfolgert hier, dass die Änderungen der Entropie und der Grad der Zusammengesetztheit unabhängig voneinander sind. (vgl. S.104)

19. [Anmerkung: Dies erscheint zweifelhaft. Denn im Falle von biologischen Systemen bedeutet die Zunahme des Grads der Zusammengesetztheit notwendigerweise Verbrauch von Energie, die der Umgebung entzogen wird (Zunahme von Entropie) und dem System zugeführt wird (Abnahme der Entropie). Die Organisiertheit biologischer Systeme erscheint daher eher wie ein Entropie-Umwandler/ -Wandler/ -Transformator. Dies hat zu tun mit Zustandsformen von Energie: es gibt jene, die von biologischen Systemen umgewandelt werden kann und solche, die nicht umgewandelt werden kann.]

20. Denbigh führt dann das Symbol phi für den Grad der Zusammengesetztheit eines einzelnen Systems s_i ein und das Symbol PHI für die Summe aller einzelnen Systeme. (vgl. S.105f) Während der Grad der Zusammengesetztheit phi_i eines einzelnen Systems von der Geburt bis zum Tode zu- bzw. abnehmen kann, bildet die Summe PHI einen Querschnitt. Mit solch einem Maß kann man sowohl beobachten, dass PHI im Laufe der Zeit – abzgl. gewisser lokaler Schwankungen – generell zunimmt, zugleich auch die Zahl der Mitglieder der Population. (vgl. 106f) Zusätzlich zum Grad der Zusammengesetztheit des individuellen Systems mss man auch den Organisationsgrad der Systemumgebung berücksichtigen: Werkzeuge, Landwirtschaft, Verkehr, Rechtssysteme, Schrift, usw. (vgl. 107f) Nimmt insgesamt der Grad der Zusammengesetztheit zu, will Denbigh von einem Prozess der Formation sprechen.

21. Denbigh spekuliert auch darüber, ob man den Grad der Zusammengesetztheit dazu benutzen kann, um den Begriff der Kreativität ins Spiel zu bringen.

22. Ferner geht es um die Entstehung biologischer Systeme. Während für die Änderungen von organisatorisch einfachen Systemen die allgemeinen physikalischen Gesetze zur Beschreibung ausreichen, haben Organisationen mit einem höheren Grad von Zusammengesetztheit die Besonderheit, dass sehr spezifische Konstellationen vorliegen müssen, die für sich genommen extrem unwahrscheinlich sind. Im Fall biologischer Systeme ist die Entstehung bislang nicht klar und erscheint extrem unwahrscheinlich.

23. Ein Denkansatz wäre – nach Denbigh –, dass sich die Komplexität in kleinere Subprobleme delegieren lässt. (Vgl.S.110f) Dazu kommt die weitere Beobachtung/ Überlegung, dass sich im Falle von biologischen Systemen feststellen lässt, biologische Systeme dazu tendieren, die Ausgangslage für die Aggregation neuer Systeme immer weiter zu optimieren. (vgl.S.112f)

24. Stellt man eine Folge wachsender Organisiertheit auf (Denbigh nennt: Partikel – Atome – Moleküle – Zellen – Organismen), dann kann man nach Denbigh einen Zuwachs an Individualität und an Kontrolle beobachten bei gleichzeitiger Abnahme der Gesetzeskonformität; letzteres besagt, dass biologische Systeme je komplexer sie werden umso weniger direkt unter irgend ein physikalisches Gesetzt fallen. (vgl. S,114f)

25. Die Funktionen, die auf den jeweils höheren Ebenen der Organisation sichtbar werden, lassen sich nicht direkt aus den Komponenten der darunter liegenden Ebenen ableiten. Sie zeigen – hier zitiert Denbigh (Polanyi 1967) – etwas Neues. Dieses Auftreten von etwas Neuem verglichen mit den bisherigen Systemeigenschaften markiert nach (Polanyi 1967) einen Prozess, den er Emergenz nennt. Das neue Ganze ‚erklärt‘ die Teile, nicht umgekehrt. (vgl. S.116)

DISKUSSION

  1. Trotz der Behinderung durch die fehlenden Seiten (ein angeblich vollständiges Exemplar ist nachbestellt) bietet der Text von Denbigh doch spannende Stichworte, die unbedingt weiter verfolgt und geklärt werden müssen. Hier nur mal erste Notizen, damit diese Aspekte nicht untergehen.
  2. Das Zusammenspiel von Energie-Materie einerseits und Entropie andererseits wirft noch viele Fragen auf. Wenn man davon ausgeht, dass die Gesamtmenge der Energie-Materie konstant ist (was letztlich nicht wirklich klar ist; es ist eine Annahme!), man aber zugleich beobachten kann, dass die Energie-Materie unterschiedliche Zustände annehmen kann, was die Wahrscheinlichkeit von Veränderungen auf allen (?) Ebenen betrifft, so bedeutet dies, dass das Reden über Energie-Materie für uns Menschen letztlich nur interessant ist, sofern Energie-Materie sich messen lässt und im Messen mögliche Veränderungen zeigt. Eine unveränderliche und unmessbare Energie-Materie existiert für uns nicht.
  3. Was wir aber messen, das sind punktuelle Ereignisse in einem unbekannten riesigen Raum von Zuständen/ Ereignissen, der sich uns weitestgehend entzieht.
  4. Wenn wir nun feststellen, dass es Veränderungsphänomene gibt (Zerfallsprozesse, Partikelabstrahlungen, Wärmeaustausch, …), dann deutet dies darauf hin, dass Energie-Materie eine große Zahl von unterschiedlichen Zuständen einnehmen kann, von denen einige so sind, dass im Zustandswechsel endliche Energie-Materie-Mengen auf andere Zustände einwirken können und dabei – falls es sich um sogenannte biologische Systeme handelt – diese andere Zustände diese verfügbare Energie-Materie-Mengen für systeminterne Prozesse nutzen können.
  5. Obwohl der Begriff der Entropie in der Literatur viele unterschiedliche Bedeutungen besitzt (dem wird noch weiter nachzugehen sein), ist ein Bedeutungskern jener, dass die Verfügbarkeit von solchen endlichen Energie-Materie-Mengen damit beschrieben wird: maximale Entropie liegt vor, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind.
  6. Während sich im Universum Veränderungsprozesse auch unabhängig von biologischen Systemen beobachten lassen, so sind die biologischen Systeme im Kontext von Entropie dennoch auffällig: während Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), zeigen sich die biologischen Systeme als Entropie-Konverter! Sie kehren die Prozessrichtung einfach um: sie nutzen die Veränderungsprozesse von minimaler zu maximaler Entropie dahingehend aus, dass sie diese lokal für endliche Zeitspannen von einem Entropielevel X zu einem Entropielevel X-n konvertieren (mit ‚X-n‘ als weniger Entropie als ‚X‘).
  7. Für diese Prozessumkehr gibt es keine physikalischen Gesetze außer der zwielichtigen Gravitation. Im Gefüge der aktuellen physikalischen Theorien passt die Gravitation bislang nicht so recht hinein, macht sie doch genau das, was die biologischen Systeme im kleinen Maßstab vorexerzieren: die Gravitation zieht Energie-Materie-Mengen so zusammen, dass die Entropie abnimmt. Die dadurch entstehenden Energie-Materie-Konstellationen sind die Voraussetzungen dafür, dass Veränderungsprozesse – und damit biologische Systeme – stattfinden können (ist Gravitation jene innere ‚Feder‘, die ein Universum auf lange Sicht immer wieder soweit zusammen zieht, bis es zum nächsten BigBang kommt?).
  8. Folgt man der Idee von den biologischen Systemen als Entropie-Konvertern, dann wird interessant, wie man das Besondere an jenen Systemen charakterisiert, die wir biologisch nennen. Denbigh offeriert hier – offensichtlich stark beeinflusst von anderen Autoren, u.a. Michael Polanyi – das Konzept eines Systems, dessen Organisation durch Elemente (n,N), Beziehungen (c) und Systemfunktionen (f,…) beschreibbar ist. Je nach Anzahl und Dichte der Verschränkungen kann man dann Organisationsgrade (Komplexitätsstufen) unterscheiden. Diese Begrifflichkeit ist noch sehr grob (verglichen z.B. mit den Details in einem Handbuch über die biologischen Zellen), aber sie bietet erste Angriffsflächen für weitergehende Überlegungen.
  9. So stellt sich die Frage nach der Entstehung solch komplexer Systeme, die bis heute nicht klar beantwortet ist.
  10. So stellt sich die Frage nach der Entwicklung solcher Strukturen von einem einfacheren Zustand zu einem komplexeren: woher kommen die viel komplexeren Strukturen und speziell dann Systemfunktionen, die sich nicht aus den Bestandteilen als solchen herleiten? Das Wort Emergenz an dieser Stelle klingt gut, erklärt aber natürlich nichts.
  11. Faktisch beobachten wir entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …).
  12. Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle, die das Phänomen biologischer Systeme im Kontext der gesamten Naturprozesse plausibel machen. Die bisherigen naturwissenschaftlichen Theorien erscheinen für dieses komplex-dynamische Phänomen der biologischen Systeme zu einfach, zu primitiv. Das liegt zu großen Teilen möglicherweise auch daran, dass sich die meisten Naturwissenschaftler bislang schwer tun, die Phänomene des biologischen Lebens in ihren vollen Komplexität ernst zu nehmen. Möglicherweise wird dies dadurch erschwert, dass die traditionellen Geisteswissenschaften ebenfalls die Brücke zum naturwissenschaftlichen Zusammenhang noch nicht gefunden haben. Statt sich gegenseitig zu befruchten, grenzt man sich voneinander ab.
  13. Letzte Anmerkung: in zwei vorausgehenden Beiträgen direkt (und in weiteren indirekt) hatte ich auch schon mal Bezug genommen auf das Phänomen der Komplexitätsentwicklung biologischer Systeme (siehe: Randbemerkung: Komplexitätsentwicklung (Singularität(en)) und Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2. Die Formulierungen in meinen Beiträgen war etwas schwerfällig und noch wenig überzeugend. Mit dem Ansatz von Denbigh, Polanyi und anderen lässt sich dies sicher deutlich verbessern.

 

Fortsetzung folgt

QUELLEN

1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
2. John von Neumann (1966), Theory of Self-Reproducing Automata, edited and completed by Arthur W.Burks, Urbana – London: University of Illinois Press
3. Michael Polanyi (1967), The Tacit Dimension, Routledge & Keagan Paul.
4. Michael Polanyi (1968) Life’s Irreducible Structure. Live mechanisms and information in DNA are boundary conditions with a sequence of boundaries above them, Science 21 June 1968: Vol. 160 no. 3834 pp. 1308-1312
DOI: 10.1126/science.160.3834.1308 (Abstract: Mechanisms, whether man-made or morphological, are boundary conditions harnessing the laws of inanimate nature, being themselves irreducible to those laws. The pattern of organic bases in DNA which functions as a genetic code is a boundary condition irreducible to physics and chemistry. Further controlling principles of life may be represented as a hierarchy of boundary conditions extending, in the case of man, to consciousness and responsibility.)
5. Michael Polanyi (1970), Transcendence and Self-Transcendence, Soundings 53: 1 (Spring 1970): 88-94. Online: https://www.missouriwestern.edu/orgs/polanyi/mp-transcendence.htm

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Teil 3 (Superbugs, Steinefresser)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

Start: 3.Sept.2012

Letzte Fortsetzung: 4.Sept.2012

Fortsetzung von Teil 2

 

  1. Die Entdeckung, dass RNA-Moleküle ähnliche Eigenschaften haben wie DNA-Moleküle und sie bis zu einem gewissen Grade auch als Enzyme fungieren können, die chemische Prozesse unterstützen (was sonst Proteine tun), führte zur Hypothese von der RNA-Welt, die der DNA-Welt vorausgeht. Experimente von Spiegelmann zeigten z.B., dass RNA-Genome in einer entsprechenden Lösung mit Enzymen sich reproduzieren können, allerdings mit der Tendenz, sich immer mehr zu vereinfachen (74.ter Durchlauf, 84% abgestoßen [Spiegelmann S.217]). Die Entkopplung von realen Lebensprozessen führt offensichtlich zu einer ‚Sinnentleerung‘ dergestalt, dass die Basen ihre ‚Bedeutung‘ verlieren und damit ihre ‚Notwendigkeit‘! Das vereinfachte Endprodukt bekam den Namen ‚Spiegelmanns Monster‘. (123-127) Genau gegenläufig war ein Experiment von Manfred Eigen und Peter Schuster (1967), die mit RNA-Bausteinen begannen und herausfanden, dass diese sich ‚aus sich heraus‘ zu immer komplexeren Einheiten zusammenfügten, sich reproduzierten, und den ‚Monstern von Spiegelmann‘ ähnelten. (127f) Allerdings benutze Eigen und Schuster für ihre Experimente spezialisierte Enzyme, die aus einer Zelle gewonnen waren. Die Existenz solcher Enzyme in der frühen Zeit der Entstehung gilt aber nicht als gesichert. (128f) Überlegungen zu möglichen Szenarien der frühen Koevolution von RNA-Molekülen und Proteinen gibt es, aber keine wirklichen ‚Beweise‘. (129f) Alle bisherigen Experimente haben nur gezeigt, dass die Synthese längerer RNA-Moleküle ohne spezielle Unterstützung zu fragil ist; sie funktioniert nicht. Dazu gehört auch das Detail der Chiralität: bei ‚freier‘ Erzeugung zeigen die Moleküle sowohl Links- als auch Rechtshändigkeit; die biologischen Moleküle sind aber alle linkshändig. (130f) Stammbaumanalysen zeigen ferner, dass RNA-Replikation eine spätere Entwicklung ist; die frühesten Vorläufer hatten sie so nicht. (131f) Ferner ist völlig unklar, wie sich frühere Replikatoren entwickeln konnten. (132)

  2. Aufgrund dieser Schwierigkeiten gibt es alternative Versuche, anzunehmen, dass vielleicht die Proteine zuerst da waren. Rheza Ghadiri entdeckte, dass sich Peptidketten selbst vermehren können, was auch am Beispiel der Rinderseuche BSE bestätigt wurde (133). Freeman Dyson nahm an, dass die Proteine und die replikationsfähigen Moleküle sich parallel entwickelt haben und dann erst fusionierten.(133f) Die zentrale Annahme bei Dyson ist, dass Moleküle die Produktion und Veränderung anderer Moleküle bewirken können. Damit können dann ‚Ordnungen‘ dergestalt entstehen, dass sich präferierte chemische Zyklen bilden, die verklumpen, anschwellen und sich spalten. Schon auf dieser Ebene sollte begrenzter ‚Wettbewerb‘ möglich sein, der zu einer begrenzten ‚Evolution‘ führt. (134) Solche Prozesse könnten dann von von Nukleinsäuren durchdrungen werden, die sich diese Prozesse zunutze machen. (134f) Als möglicher Ort für solche Prozesse könnte der Boden der Ozeane fungieren. Russell entwickelte ein Modell von semipermeablen- Membranen, die sich dort bilden können. (135f) Cairns-Smith generalisierte die Idee der Informationsspeicherung und entwickelte die Hypothese, dass zu Beginn Tonkristalle die Funktion von RNA und DNA gespielt haben könnten. Allerdings gibt es bislang keine experimentelle Bestätigung hierfür. (136f)

  3. Alle diese Überlegungen liefern bislang keine vollständig überzeugenden Lösungen. Klar ist nur, dass die biologische Evolution Vorläuferprozesse haben musste, denen ein Minimum an Komplexität zukommt und zwar eine ‚organisierte Komplexität‘. (137f) Unter dem Titel ‚Selbstorganisation‘ fand Prigogine Beispiele, wie sich durch Zufluss freier Energie geordnete Strukturen aus einer ‚chaotischen‘ Situation heraus bilden konnten.(138f) Kaufmann entwickelte die Idee ‚autokatalytischer‘ Prozesse, in denen ein Molekül M auf andere Moleküle als Katalysator so wirkt, dass sie Prozesse eingehen, die letztlich zur Produktion von M führen. Dies verstärkt diese Prozesse immer mehr. (139f) Allerdings fehlen auch für diese Hypothesen empirische und experimentelle Belege. (140f) Davies weist auch darauf hin, dass selbstorganisierende Prozesse in allen wesentlichen Eigenschaften von den Umgebungsbedingungen bestimmt werden; biologische Reproduktion ist aber wesentlich ‚intrinsisch‘ bestimmt durch die Informationen der DNA/ RNA-Moleküle. Alle die Modelle zur Selbstorganisation liefern keine wirklichen Hinweise, wie es zu den selbstbestimmten Formen der Reproduktion kommen konnte, zur Herausbildung der Software [zur Dekodierung?]. (141) Dabei erinnert Davies nochmals an den Aspekt der ’nicht-zufälligen‘ Ordnung, d.h. alle jene Muster, die regelmäßige Anteile enthalten (wie in den Beispielen von Autokatalyse und Selbstorganisation), sind nicht die Formen von zufälliger Informationsspeicherung, wie man sie im Falle von DNA bzw. RNA-Molekülen findet.(142)

  4. [Anmerkung: So gibt es bislang also Einsichten in das Prinzip der biologischen Selbstreproduktion, aber überzeugende Hinweise auf chemische Prozesse, wie es zur Ausbildung solcher komplexer Prozesse komme konnte, fehlen noch. ]

  5. Im Kapitel 6 ‚The Cosmic Connection‘ (SS.143 – 162) wird aufgezeigt, dass die irdische Chemie nicht losgelöst ist von der allgemeinen Chemie des Universums. Fünf chemische Elemente spielen in der erdgebundenen Biologie eine zentrale Rolle: Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘), Stickstoff (’nitrogen‘), und Phosphor (‚phosphorus‘). Dies sind zugleich die häufigsten Elemente im ganzen Universum. (143) Kohlenstoff hat die außerordentliche Fähigkeit, praktisch unendlich lange Ketten zu bilden (Nukleinsäuren und Proteine sind Beispiele dafür). (143)

  6. Kohlenstoff entsteht durch die Kernfusion in Sternen von Wasserstoff zu Helium zu Kohlenstoff.(146) Buchstäblich aus der ‚Asche‘ erloschener Sterne konnten sich dann Planeten wie die Erde bilden.(144) Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘) und Stickstoff (’nitrogen‘) werden seit Bestehen der Erde beständig in der Atmosphäre, in der Erdkruste, bei allen Verwesungsprozessen ‚recycled‘. Danach enthält jeder Körper Kohlenstoffatome von anderen Körpern, die 1000 und mehr Jahre älter sind.(146f) Mehr als hundert chemische Verbindungen konnten bislang im Universum nachgewiesen werden, viele davon organischer Natur. (147f) Nach den ersten hundert Millionen Jahren war die Oberfläche der Erde immer noch sehr heiß, die Ozeane viel tiefer, die Atmosphäre drückend (‚crushing‘), intensiver Vulkanismus, der Mond näher, die Gezeiten viel höher, die Erdumdrehung viel schneller, und vor allem andauernde Bombardements aus dem Weltall. (152) Eine ausführlichere Schilderung zeigt die vielfältigen Einwirkungen aus dem Weltall auf die Erde. Generell kann hier allerlei (auch organisches) Material auf die Erde gekommen sein. Allerdings sind die Umstände eines Eindringens und Aufprallens normalerweise eher zerstörerischer Natur was biologische Strukturen betrifft. (153-158) Das heftige Bombardement aus dem Weltall mit den verheerenden Folgen macht es schwer, abzuschätzen, wann Leben wirklich begann. Grundsätzlich ist weder auszuschließen, dass Leben mehrfach erfunden wurde noch, dass es Unterstützung aus dem Weltall bekommen haben kann. Andererseits war der ’sicherste‘ Ort irgendwo in einer Tiefe, die von dem Bombardement kaum bis gar nicht beeinträchtigt wurde. (158-161)

  7. Kapitel 7 ‚Superbugs‘ (163-186). Die weltweit auftretende Zerstörung von unterirdischen Kanalleitungen aus Metall (später 1920iger) führte zur Entdeckung eines Mikroorganismus, der ausschließlich in einer säuerlichen Umgebung lebt, Schwefel (’sulfur‘) frißt und eine schweflige Säure erzeugt, die sogar Metall zerstören kann.(163f) Man entdeckte mittlerweile viele verschiedene Mikroorganismusarten, die in Extremsituationen leben: stark salzhaltig, sehr kalt, starke radioaktive Strahlung, hoher Druck, extremes Vakuum, hohe Temperaturen. (164f) Diese Mikroorganismen scheinen darüber hinaus sehr alt zu sein. (165) Am erstaunlichsten von allen sind aber die wärmeliebenden Mikroorganismen (‚thermophiles‘, ‚hyperthermophiles‘), die bislang bis zu Temperaturen von 113C^o gefunden wurden. Von den mittlerweile mehr als Tausend entdeckten Arten sind ein großer Teil Archäen, die als die ältesten bekannten Lebensformen gelten. (166f) Noch mehr, diese thermophilen und hyperthermophylen Mikroorganismen sind – wie Pflanzen allgemein – ‚autotroph‘ in dem Sinne, dass sie kein organisches Material für ihre Versorgung voraussetzen, sondern anorganisches Material. Man nennt die unterseeischen Mikroorganismen abgrenzend von den autotrophen ‚Chemotrophs‘, da sie kein Sonnenlicht (also keine Photosynthese) benutzen, sondern einen eigenen Energiegewinnungsprozess entwickelt haben. (167f) Es dauerte etwa von 1920 bis etwa Mitte der 90iger Jahre des 20.Jahrhunderts bis der Verdacht und einzelne Funde sich zu einem Gesamtbild verdichteten, dass Mikroorganismen überall in der Erdoberfläche bis in Tiefen von mehr als 4000 m vorkommen, mit einer Dichte von bis zu 10 Mio Mikroorganismen pro Gramm, und einer Artenvielfalt von mittlerweile mehreren Tausend. (168-171) Bohrungen in den Meeresgrund erbrachten weitere Evidenz dass auch 750m unter dem Meeresboden überall Mikroorganismen zu finden sind (zwischen 1 Mrd pro cm^3 bis zu 10 Mio). Es spricht nichts dagegen, dass Mikroorganismen bis zu 7km unter dem Meeresboden leben können. (171-173) All diese Erkenntnisse unterstützen die Hypothese, dass die ersten Lebensformen eher unterseeisch und unterirdisch entstanden sind, geschützt vor der Unwirtlichkeit kosmischer Einschläge, ultravioletter Strahlung und Vulkanausbrüchen. Außerdem waren alle notwendigen Elemente wie z.B. Wasserstoff, Methan, Ammoniak, Wasserstoff-Sulfid im Überfluss vorhanden. (173f) Untersuchungen zur Energiebilanz zeigen, dass in der Umgebung von heißen unterirdischen Quellen speziell im Bereich 100-150 C^o sehr günstig ist.(174f) Zusätzlich deuten genetische Untersuchungen zur Abstammung darauf hin, dass gerade die Archäen-Mikroorganismen zu den ältesten bekannten Lebensformen gehören, die sich z.T. nur sehr wenig entwickelt haben. Nach all dem wären es dann diese hyperthermophilen Mikroorganismen , die den Ursprung aller biologischen Lebensformen markieren. Immer mehr Entdeckungen zeigen eine wachsende Vielfalt von Mikroorganismen die ohne Licht, in großer Tiefe, bei hohen Temperaturen anorganische Materialien in Biomasse umformen. (175-183)

  8. Wie Leben wirklich begann lässt sich bislang trotz all dieser Erkenntnisse nicht wirklich klären. Alle bisherigen Fakten sprechen für den Beginn mit den Archäen, die sich horizontal in den Ozeanen und in der Erdkruste in einem Temperaturbereich nicht höher als etwa 120 C^o (oder höher?) ausbreiten konnten. Irgendwann muss es dann einen Entwicklungssprung in die Richtung Photosynthese gegeben haben, der ein Leben an der Oberfläche ermöglichte. (183-186)

  9. Kap.8 ‚Mars: Red and Dead‘ (SS.187-220). Diskussion, ob es Leben auf dem Mars gab bzw. noch gibt. Gehe weiter darauf nicht ein, da es für die Diskussion zur Struktur und Entstehung des Lebens keinen wesentlichen Beitrag liefert.

  10. Kap.9 ‚Panspermia‘ (SS.221-243). Diskussion, inwieweit das Leben irgendwo im Weltall entstanden sein kann und von dort das Leben auf die Erde kam. Aber auch hier gilt, neben der Unwahrscheinlichkeit einer solchen Lösung würde es die Grundsatzfragen nicht lösen. (siehe auch Davies S.243))

  11. Kap.10 ‚A Bio-Friendly Universe‘ (SS.245-273). Angesichts der ungeheuren molekularen Komplexität , deren Zusammenspiel und deren Koevolution steht die Annahme einer rein zufälligen Entwicklung relativ schwach da. Die Annahme, dass die Komplexität durch die impliziten Gesetzmäßigkeiten aller beteiligten Bestandteile ‚unterstützt‘ wird, würde zwar ‚helfen‘, es bleibt aber die Frage, wie. (245-47) Eine andere Erklärungsstrategie‘, nimmt an, dass das Universum ewig ist und dass daher Leben und Intelligenz schon immer da war. Die sich daraus ergebenden Konsequenzen widersprechen den bekannten Fakten und erklären letztlich nichts. Davies plädiert daher für die Option, dass das Leben begonnen hat, möglicherweise an mehreren Orten zugleich. (247-250)
  12. Im Gegensatz zu Monod und den meisten Biologen, die nur reinen Zufall als Entstehungsform annehmen, gibt es mehrere Vertreter, die Elemente jenseits des Zufalls annehmen, die in der Naturgesetzen verankert sind. Diese wirken sich als ‚Präferenzen‘ aus bei der Bildung von komplexeren Strukturen. (250-254) Dem hält Davies aber entgegen, dass die normalen Naturgesetze sehr einfach sind, schematisch, nicht zufällig, wohingegen die Kodierung des Lebens und seiner Strukturen sich gerade von den chemischen Notwendigkeiten befreit haben, sich nicht über ihre materiellen Bestandteile definieren, sondern über eine frei (zufällig) sich konfigurierende Software. Der Rückzug auf die Präferenzen ist dann möglicherweise kein genügender Erklärungsgrund. Davies hält die Annahme eines ‚Kodes im Kode‘ für nicht plausibel. (254-257) Wie aber lässt sich das Problem der biologischen Information lösen? (257f) Grundsätzlich meint Davies, dass vieles dafür spricht, dass man ein ‚Gesetz der Information‘ als genuine Eigenschaft der Materie annehmen muss. (258f) Davies nennt dann verschiedene Theorieansätze zum möglichen Weiterdenken, ohne die gedanklichen Linien voll auszuziehen. Er erinnert nochmals an die Komplexitätstheorie mit ihrem logischen Charakter, erinnert an die Quantenstruktur der Materie, die Dualität von Welle (Information? Software?) und Teilchen (Hardware?) und ‚Quasikristalle‘, die auf den ersten Blick periodisch wirken, aber bei näherer Analyse aperiodisch sind. (259-263)
  13. Eine andere Frage ist die, ob man in der Evolution irgendeine Art von Fortschritt erkennen kann. Das Hauptproblem ist, wie man Fortschritt definieren kann, ohne sich in Vorurteilen zu verfangen. Vielfach wird der Begriff der Komplexität bemüht, um einen Anstieg an Komplexität zu konstatieren. Stephen J.Gould sieht solche Annahmen eines Anstiegs der Komplexität sehr kritisch. Für Christian de Duve hingegen erscheint ein Anstieg von Komplexität klar. (264-270)
  14. In den Schlussbemerkungen stellt Davies nochmals die beiden großen Interpretationsalternativen gegenüber: einmal die Annahme einer Zunahme der Komplexität am Beispiel von Gehirnen und daran sich knüpfenden Eigenschaften aufgrund von impliziten Präferenzen oder demgegenüber die Beschränkung auf reinen Zufall. Im letzteren Fall ist das Auftreten komplexer Lebensformen so hochgradig unwahrscheinlich, dass eine Wiederholung ähnlicher Lebensformen an einem anderen Ort ausgeschlossen erscheint. (270-273)
  15. [Anmerkung: Am Ende der Lektüre des Buches von Davies muss ich sagen, dass Davies hier ein Buch geschrieben hat, das auch ca. 13 Jahre später immer noch eine Aussagekraft hat, die die gewaltig ist. Im Detail der Biochemie und der Diskussion der chemischen Evolution mag sich das eine oder andere mittlerweile weiter entwickelt haben (z.B. ist die Diskussion zum Stammbaum fortgeschritten in einer Weise, dass weder die absolute Datierung noch zweifelsfrei ist noch die genauen Abhängigkeiten aufgrund von Genaustausch zwischen den Arten (vgl. Rauchfuß (326-337)]), doch zeigt Davies Querbeziehungen zwischen vielen Bereichen auf und bringt fundamentale Konzepte zum Einsatz (Information, Selbstorganisation, Autokatalyse, Komplexitätstheorie, Quantentheorie, Thermodynamik, algorithmische Berechenbarkeit ….), die in dieser Dichte und reflektierenden Einbringung sehr selten sind. Sein sehr kritischer Umgang mit allen möglichen Interpretationen ermöglicht Denkansätze, stellt aber auch genügend ‚Warnzeichen‘ auf, um nicht in vorschnelle Interpretationssackgassen zu enden. Eine weitere Diskussion des Phänomen Lebens kann an diesem Buch schwerlich vorbei gehen. Ich habe auch nicht den Eindruck, dass die neueren Ergebnisse die grundsätzlichen Überlegungen von Davies tangieren; mehr noch, ich kann mich des Gefühls nicht erwehren, dass die neuere Diskussion zwar weiter in ‚Details wühlt‘, aber die großen Linien und die grundlegenden theoretischen Modelle nicht wirklich beachten. Dies bedarf weiterer intensiver Lektüre und Diskussion ]
  16. [ Anmerkung: Ich beende hiermit die direkte Darstellung der Position von Davies, allerdings beginnt damit die Reflektion seiner grundlegenden Konzepte erst richtig. Aus meiner Sicht ist es vor allem der Aspekt der ‚logischen Strukturen‘, die sich beim ‚Zusammenwirken‘ einzelner Komponenten in Richtung einer höheren ‚funktionellen Komplexität‘ zeigen, die einer Erklärung bedürfen. Dies ist verknüpft mit dem Phänomen, dass biologische Strukturen solche übergreifenden logischen Strukturen in Form von DNA/ RNA-Molekülen ’speichern‘, deren ‚Inhalt‘ durch Prozesse gesteuert werden, die selbst nicht durch ‚explizite‘ Informationen gesteuert werden, sondern einerseits möglicherweise von ‚impliziten‘ Informationen und jeweiligen ‚Kontexten‘. Dies führt dann zu der Frage, inwieweit Moleküle, Atome, Atombestandteile ‚Informationen‘ ‚implizit‘ kodieren können, die sich in der Interaktion zwischen den Bestandteilen als ‚Präferenzen‘ auswirken. Tatsache ist, dass Atome nicht ’neutral‘ sind, sondern ’spezifisch‘ interagieren, das gleiche gilt für Bestandteile von Atomen bzw. für ‚Teilchen/ Quanten‘. Die bis heute nicht erklärbare, sondern nur konstatierbare Dualität von ‚Welle‘ und ‚Teilchen‘ könnte ein Hinweis darauf sein, dass die Grundstrukturen der Materie noch Eigenschaften enthält, die wir bislang ‚übersehen‘ haben. Es ist das Verdienst von Davies als Physiker, dass er die vielen chemischen, biochemischen und biologischen Details durch diese übergreifenden Kategorien dem Denken in neuer Weise ‚zuführt‘. Die überdimensionierte Spezialisierung des Wissens – in gewisser Weise unausweichlich – ist dennoch zugleich auch die größte Gefahr unseres heutigen Erkenntnisbetriebes. Wir laufen wirklich Gefahr, den berühmten Wald vor lauter Bäumen nicht mehr zu sehen. ]

 

Zitierte Literatur:

 

Mills,D.R.; Peterson, R.L.; Spiegelmann,S.: An Extracellular Darwinian Experiment With A Self-Duplicating Nucleic Acid Molecule, Reprinted from the Proceedings of the National Academy of Sciences, Vol.58, No.1, pp.217-224, July 1997

 

 

Rauchfuß, H.; CHEMISCHE EVOLUTION und der Ursprung des Lebens. Berlin – Heidelberg: Springer, 2005

 

Einen Überblick über alle bisherigen Themen findet sich HIER

 

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

 

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

 

 

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier