Archiv der Kategorie: Komplexitätssprung

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST …

KONTEXT

  1. Diesem Beitrag ging ein Blogeintrag voraus mit einer einleitenden methodischen Reflexion sowie die Identifizierung einer ersten Periode im Phänomen des biologischen Lebens auf der Erde.Periodisierung der biologischen Evolution nach speziellen Kriterien. Siehe Text.

UR-GEDÄCHTNIS, ABSTRAKTES WISSEN

  1. Ein wichtiger Punkt der ersten Periode des biologischen Lebens ist jene Struktur, welche erstmalig im Universum die Überwindung der Gegenwart durch eine gedächtnishafte Kumulierung von Eigenschaften und Beziehungen (Speichermolekül, Bauplan, Genom…) erlaubt, wodurch die Erfolge der Vergangenheit in die aktuelle Gegenwart hinein wirken können.
  2. Die Herrschaft des Augenblicks wird damit ansatzweise überwunden. Nicht mehr das aktuell Faktische (‚Seiende‘) ist die eigentliche Wahrheit,  sondern erinnerte Eigenschaften und Beziehungen werden zu einer höheren Wahrheit, einer Wahrheit zweiter Ordnung; das Abstrakte und darin Virtuelle erweist sich als die bessere Aussage über die Gegenwart. Das gegenwärtig Stattfindende, aktuell in die Sinne Springende, ist nur ein Aspekt an einem dynamischen Geschehen, das als Geschehen mehr von der Wirklichkeit, vom Leben enthüllt, als das jeweils aktuell Seiende.
  3. Rückblickend gewinnt damit der Prozess, der zur Entstehung der ersten Zelle führte, ein eminent philosophische Bedeutung: wie konnte die sogenannte tote und dumme, schlichtweg die geistlose Materie, in der Lage sein, im Meer der Atome und Moleküle auf der frühen Erde eine Prozessumgebung bereit zu halten, in der sich chemische Prozesse so abspielten, dass nicht nur neue Energieumwandlungs- und -nutzungskonzepte entstehen konnten, sondern zugleich der Prozess sich selbst in Form eines Moleküls so kodiert, dass er sich bei der Selbstreproduktion auch wieder dekodieren konnte. Für die molekularbiologischen Details dieses komplexen Prozesses sei auf entsprechende Literatur verwiesen (Neben z.B. Christian de Duve sei noch vierwiesen auf The Origin and Nature of Life on Earth: The Emergence of the Fourth Geosphere. Cambridge University Press, 2016, Smith, Eric and Morowitz, Harold J.). Philosophisch entscheidend ist  letztlich, was durch diese komplexen Prozesse an wirkender Struktur und Funktionalität oberhalb der molekularen Ebene entstanden ist, welche die sich selbst reproduzierende Zelle mit einer ersten Form von Wissen ausgestattet haben.

UR-AUTOMAT, UR-ALGORITHMUS

  1. Die Besonderheit dieses ersten Wissens (‚Proto-Wissen‘, ‚Ur-Wissen‘…) liegt in seinem algorithmischen Charakter: im Wechselspiel mit den dekodierenden Elementen einer Zelle zeigen diese Strukturen eine strukturelle Ähnlichkeit mit dem Konzept der Turingmaschine, das 1936 von Alan M.Turing entdeckt wurde, um das Phänomen der Berechenbarkeit zu beschreiben. Wie sich herausstellte, lassen sich alle Computer, die zeitlich nach Turing als reale Maschinen entwickelt wurden, bislang mit dem abstrakten Konzept der Turingmaschine beschreiben. [ANMERKUNG: Dass die neu entwickelten Quantencomputer von diesem Konzept abweichen, müsste erste noch bewiesen werden. Denn dass Prozesse ‚sehr schnell‘ sind, ‚parallel‘ stattfinden, und mehr als nur ‚zwei Zustände‘ kennen, sprengt das mathematische Konzept der Turingmaschine nicht notwendigerweise.]
  2. Diese Strukturähnlichkeit des Automatenkonzepts mit den elementaren Wissensnutzungskonzepten der ersten biologischen Zellen (und dann natürlich aller NachfolgerInnen) ist philosophisch von Interesse. Es legt die Vermutung nahe, dass das moderne algorithmische Informationsverarbeitungskonzept möglicherweise eine elementare Eigenschaft des biologischen Lebens selbst anzeigt, das ja nicht in einzelnen isolierten Komponenten besteht, sondern als ein dynamischer Zusammenhang auftritt, der auf der Basis der Eigenschaften der Materie in der Lage ist, solche Prozesse zum Laufen zu bringen, in denen sich dynamische Eigenschaften des Universums in geeignete abstrakte Kodierungen übersetzen lassen, die wiederum zu Befehlsketten für neue Prozesse werden können.

UR-ZEICHEN, UR-SEMIOTISCHER AKTEUR

  1. Mit Blick auf den weiteren Fortgang der biologischen Evolution ist auch noch folgender Perspektivwechsel von Interesse. Die Kodierung von Realität in eine repräsentierende Struktur mittels eines Materials für die Codeelemente (hier: Atomverbindungen im Kontext eines Moleküls) und die Dekodierung der im Material angeordneten Codeelemente mittels einer Dekodierungsvorschrift, kann man auch als semiotischen Prozess verstehen: die zu kodierende (auch prozesshafte) Realität bildet dann die Bedeutung (‚meaning‘), die in einem Zeichenmaterial (die Codeelemente) repräsentiert wird, und der Zusammenhang zwischen Zeichenmaterial und Bedeutung wird über eine Bedeutungsbeziehung hergestellt, welche immer eine prozesshafte Instanz sein muss, die sowohl die Kodierung wie auch die Dekodierung leisten kann. Innerhalb einer realisierten Bedeutungsbeziehung erscheint das Zeichenmaterial dann als Zeichen für die Bedeutung und umgekehrt wird die bezeichnete Realität zur Bedeutung des Zeichens.
  2. Außerhalb der Bedeutungsbeziehung gibt es weder Bedeutung noch Zeichen. Zeichen und Bedeutung sind an eine prozesshafte Instanz gebunden, durch die diese Beziehung generiert und realisiert wird. Nennt man jene prozesshafte Instanz, die Zeichenbeziehungen ermöglicht, einen semiotischen Akteur, dann ist die erste biologische Zelle der erste semiotische Akteur des Universums. Das Prozessmodell, das hier zum Tragen kommt ist – jenseits der molekularbiologischen Perspektive – das eines Automaten, das einer Turingmaschine, und damit repräsentiert die biologische Zelle – in philosophisch formaler Sicht – den ersten algorithmischen semiotischen Akteur des Universums.
  3. Zum Zeichenkonzept gehört auch, dass es konventionell ist: es ist beliebig, welches Ausdrucksmaterial die Prozessinstanz welchen möglichen Realitäten zuordnet. Das Beschränkende daran ist, dass die Zeichenbeziehung, die dann faktisch eingerichtet wurden, spezifisch sind: alle semiotischen Akteure, die die gleiche Zeichenbeziehung benutzen wollen, müssen sich bezüglich der Zeichenbeziehung koordinieren. Das Entgrenzende an einer Zeichenbeziehung ist, dass sie im Prinzip die gesamte Realität in sich aufnehmen kann. Durch einen semiotischen Prozess kann man die empirische Realität in eine abstrakt-virtuelle Realität transformieren und dabei zugleich verändern. Die veränderte virtuelle Realität kann dann dazu benutzt werden, um die empirische Realität im Hinblick auf mögliche zukünftige empirische Zustände zu befragen und neue Varianten voraus zu denken.
  4. Die Verfügbarkeit einer Zeichenbeziehung gibt damit einem individuellen System eine potentiell unbegrenzte Macht zum Verändern. Andererseits funktioniert dies nur, wenn der semiotische Akteur nicht alleine agiert, sondern als Teil einer Kollektion von semiotischen Akteuren. Jeder kann zwar die Zeichenbeziehung für sich ändern, sie gehört aber niemandem alleine. Es ist ein kollektives Wissen, das sich den einzelnen schafft und durch die Aktivität des einzelnen partiell, graduell modifizierbar ist.
  5. In der Phase der ersten semiotischen Revolution des Lebens wurde die Einheit der Zeichenbeziehung gewahrt durch die gemeinsame Nutzung der RNA- und DNA-Moleküle samt deren molekularen Kodierungs- und Dekodierungsstrukturen, die allen Zellen gleich sind. Und diese gesamte Zeichenstruktur war realisiert als eine universelle Turingmaschine.

 

REPRÄSENTATIONSPROBLEME

 

  1. Man kann sich fragen, in welcher Weise sich diese biologisch vorfindbaren Strukturen und Dynamiken im bisherigen Komplexitätskonzept identifizieren lassen? Wie lässt sich eine algorithmische semiotische Prozessstruktur mit Gedächtnis systemtheoretisch fassen? Was sagen schon Input-Output Mengen, interne Level, mit Blick auf solch komplexe Eigenschaften?
  2. Zeitlich punktuelle und beziehungsmäßig isolierte repräsentierende Strukturen können offensichtlich Phänomene, die sich in der Zeit erstrecken und in Wechselwirkungen stattfinden, nicht angemessen repräsentieren. Dazu kommen semiotische Eigenschaften und auch Erfolgskriterien der empirischen Systeme, die sich neben der Zeit auch in übergeordneten Strukturen repräsentieren (wenn überhaupt).
  3. Zusätzlich gibt es das Phänomen der Strukturveränderung STR im Laufe der Zeit, die zugleich einhergeht mit Verhaltensänderungen f. Und diese Veränderungen erfolgen nicht isoliert, sondern in einem Feld anderer Strukturen {<STR1,f1>, …, <STRn,fn>}(t1) ==> {<STR1,f1>, …, <STRn,fn>}(t1+1) und von Umgebungskontexten {C1, …, Cn}(t1)==> {C1, …, Cn}(t1+1) , die sich mit verändern.
  4. Jede einzelne biologische Struktur ist zudem Teil einer übergreifenden biologischen Population POP, die einen ähnlich kodierten Wissensspeicher G teilt, also POP = {Menge aller STRi für die gilt, dass ihr kodiertes Wissen Gi zur einer Ähnlichkeitsklasse Gi gehört}.
  5. Hier deuten sich komplexe Vernetzungsstrukturen in der Zeit an, die in dem bisherigen Komplexitätskonzept nicht befriedigend repräsentiert sind.
  6. Mit diesen ungelösten Fragen im Hinterkopf stellt sich die weitere Frage, welche der nachfolgenden Ereignisse in der biologischen Evolution eine weitere Steigerung der Komplexität manifestieren?

 

GEHIRN – BEWUSSTSEIN – GEIST

 

  1. Man kann beobachten, wie biologische Zellen sich in nahezu alle Lebensbereiche der Erde ausbreiten: im Meer, im Sediment, auf Land, in der Luft, in heißen und kalten Umgebungen, ohne und mit Sauerstoff, in immer komplexeren Verbänden von Zellen, mit immer komplexeren Strukturen innerhalb der Verbände, mit komplexer werdenden Kooperationen aufgrund von Kommunikation, als Pflanzen und Tiere, als Einzelgänger arbeitend, in Gruppen, Schwärmen, ganzen ‚Staaten‘, mit immer komplexeren Sprachen, mit Schriftsystemen, mit immer komplexeren Werkzeugen, …
  2. … die äußerlich beobachtbaren immer komplexer werdenden Verhaltensweisen korrelieren mit einer zunehmenden Verdichtung der internen Informationsverarbeitung mittels spezialisierter Zellverbände (Nervensystem, Gehirn). Die aktuelle Wahrnehmung der eigenen Körperzustände wie Eigenschaften der Umgebung wurde immer differenzierter. Die Informationsverarbeitung kann Wahrnehmungsereignisse abstrahieren, speichern und erinnern... Im Erinnerbaren lassen sich Unterschiede und Veränderungen erkennen, darin Beziehungen, zugleich kann Gegenwärtiges, Erinnertes neu kombiniert (Denken, Planen) werden. Dazu entwickelt sich die Fähigkeit, aktuell Wahrgenommenes symbolisch zu benennen, es mit anderen zu kommunizieren. Dies erschließt neue Dimensionen der Orientierung in der Gegenwart und über die Gegenwart hinaus.
  3. Wichtig ist, dass man diese neuen Fähigkeiten und Leistungen nicht direkt am Nervensystem ablesen kann (obgleich dies immer größer und dichter wird), sondern nur über das beobachtbare Verhalten, über die Wechselwirkungen mit anderen Systemen und der Umgebung. So ist das Gehirn von Säugetieren strukturell systemisch nicht wirklich verschieden, aber die Verhaltensweisen der jeweiligen Systeme im Verbund sind markant anders.
  4. Dies deutet auf eine neue Form von Dualität (oder wie andere vielleicht sagen würden), von Dialektik hin: die zunehmende Komplexität des Verhaltens korrespondiert mit einer entsprechend anwachsenden komplexen Umgebung, die ihre empirische Fundierung im Körper, im Gehirn zu haben scheint, aber andererseits kann sich diese Komplexität nur entfalten, nur zeigen, nur manifestieren, in dem Maße, wie diese äußere Komplexität empirisch verfügbar ist. Von daher ist es möglicherweise fruchtlos, zu fragen, was hier Ursache für was ist: das Gehirn für die Umgebung oder die Umgebung für das Gehirn. Manche sprechen hier ja auch von Ko-Evolution. Entscheidend ist offensichtlich der Prozess, durch den sich diese Wechselbeziehungen entfalten und wirken können. Dies impliziert, dass die beteiligten Strukturen plastisch, veränderlich sind.
  5. In der klassischen Philosophie nannte man ein komplexes Verhalten dieser Art ‚geistig‘, da man es im Organismus auf das Prinzip des Pneumas, der Psyche, des Geistes zurückführte (ohne letztlich zu wissen, was das jeweils ‚an sich‘ sein sollte). In diesem Verständnis könnte man formulieren, dass Lebensformen entstanden, deren Verhalten eine Komplexität zeigén, die man als geistig bezeichnen könnte.
  6. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS; nicht entscheidend alleine, dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  7. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.
  8. Für die Frage, wann ungefähr zeitlich solche Lebensformen auf der Erde auftreten, gibt es möglicherweise nicht den einen Zeitpunkt, sondern eher ein Zeitkorridor, innerhalb dessen sich unterschiedliche Phänomene angesammelt haben, die zusammen dann solch einen neuen Komplexitätshöhepunkt anzeigen. (Beginn Hominisation ca. -7 bis -5 Mio ; Migrationswellen ausgehend von Afrika (-130.000 bis -115.000 und -100.000 bis -50.000) ; Entstehung der Schrift  ca. -4000 im Gebiet des fruchtbaren Halbmonds)

 

KOEXISTENZ VON GEIST UND GESELLSCHAFT

  1. Da alle Handlungen des Menschen, die über den Augenblick hinausgehen, an seine Erinnerungs- und Denkfähigkeit gebunden sind, durch die der Augenblick in real erfahrene oder virtuell vorstellbare Zusammenhänge nach hinten und vorne eingebettet werden kann, wird man die gesamte Entwicklung komplexer Gesellschaften immer nur unter Voraussetzung einer entsprechenden Kommunikation und entsprechender Wissensmodelle verstehen können. Das verfügbare Wissen kann stabilisieren, konservieren und – im negativen Fall – blockieren, und im positiven Fall Alternativen aufzeigen, neue Möglichkeiten, Ursache-Wirkung Zusammenhänge deutlich machen.
  2. Daraus legt sich nahe, dass eine Theorie der Gesellschaft die handelnden semiotischen Akteure als Grundelemente umfassen sollte.
  3. Während eine biologische Population von Systemen durch den gemeinsamen biologischen Bauplan (realisiert im DNA-Molekül samt zugehöriger Dekodierungsstruktur) charakterisiert ist, definiert sich eine Gesellschaft von Systemen über gemeinsamen Wissensmodelle mit den zugehörigen semiotischen Prozessen (die Redeweise von den Memen, die Dawkins 1976 eingeführt hat, ist hier möglicherweise zu schwach) sowie den zugehörigen empirischen Umweltkontexten. Zu sagen, dass es eine Ko-Evolution zwischen Umgebung und Gesellschaft gibt ist zu schwach: entscheidend ist die Mikrostruktur des Prozesses und der hier wirkenden Faktoren in einem Multi-Agenten-Prozess mit Wissensanteilen und Bedeutung.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums
    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ zu einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde — letztlich aber das gesamte bekannte Universum — die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftreten in der Zeit selbst empirisch ist. Nicht empirisch ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmen würde, dann würde sie zur nächsten positiven komplexen Koordinate KK+ führen, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Keine direkte, aber eine indirekte, Fortsetzung könnte man in diesem Beitrag sehen.

Einen Überblick von allen Beiträgen des Autors cagent in diese Blog nach Titeln findet sich HIER.

NOTIZEN ZU DEN GROSSEN MEILENSTEINEN DER LEBENSPHÄNOMENE

  1. Wenn man Bücher wie z.B. das von B.Kegel zu den Mikroben oder jenes von Storch, Welsch und Wink zur Evolutionsbiologie (hier abgekürzt: EB) liest, dann kann man sich an der ungeheuren Vielfalt der Phänomene berauschen. Doch diese Bücher bieten zugleich Ansatzpunkte zum Verstehen, dass sich diesen Phänomenen Strukturen zuordnen lassen, innerhalb deren sie auftreten; mehr noch; man erkennt ansatzweise auch Prozesse, die solche Strukturen hervorbringen und verändern.
  2. Viele sprechen in diesem Zusammenhang von Evolution, doch darf man fragen, ob das, was normalerweise als Evolution bezeichnet wird, schon jenen Prozesse beschreibt, der tatsächlich ablaufen. Die Antwort hängt davon ab, welchen Rahmen man voraussetzt. Wieviele und welche Phänomene nehme ich ernst, will ich erklären.
  3. In EB nennen die Autoren auf S.90 zehn Ereignisse, von denen Sie sagen, dass Sie im Kontext der bekannten Lebensphänomene etwas Besonderes darstellen:
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Auftreten eukaryontischer Zellen, ca. -2Mrd
    3. Vielzellige Verbände, ca. -1.85 Mrd
    4. Hartstrukturen, ca. -0.6Mrd
    5. Räuber, ca. -0.57 Mrd
    6. Riffe, ca. -0.525
    7. Besiedlung des Landes, ca. -0.42
    8. Bäume/ Wald, ca. -0.365
    9. Flug, ca. -0.310
    10. Menschliches Bewusstsein, ca. -0.05Mrd
  4. Diesen Phänomenen ist gemeinsam, dass sie alle auf der Funktionsweise und der Kooperation von Zellen (Archaeen, Bakterien, Eukaryoten) basieren.
  5. Andererseits wissen wir, dass sie sich nicht im luftleeren Raum abgespielt haben, sondern unter sehr konkret realen Bedingungen der Erde in ihrer jeweiligen Verfassung. Dies bedeutet, diese Phänomene repräsentieren nur eine Seite, eine Hälfte, des Phänomens. Die andere Seite, die andere Hälfte ist die jeweilige Umgebung. Letztlich ist es diese Umgebung, die diktiert, vorgibt, was überhaupt möglich ist.
  6. So ist die Transformation der Umgebung von einer Nicht-Sauerstoffwelt zu einer Sauerstoffwelt ein extremes Ereignis: die biologischen Strukturen haben einen Trigger gefunden, mit dem sie die Verhältnisse unter und über Wasser so radikal geändert haben, dass nicht nur eine neue, verbesserte Form der Energieausnutzung aller Zellen möglich wurde, sondern zusätzlich entstand eine Atmosphäre, die das Wasser der Ozeane daran gehindert hat, dieses Wasser durch die UV-Strahlung praktisch verdunsten zu lassen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
  7. Obwohl die Entstehung der Sauerstoffwelt kein biologisches Phänomen im engeren Sinne ist, ist es dennoch ohne die Aktivität biologischer Lebensformen nicht erklärbar. Anders gesagt, zunächst ist die Erde, wie sie ist, und die biologischen Strukturen müssen sich innerhalb dieser Gegebenheiten einen Weg suchen. Nach ca. 1.5 Mrd Jahren führt aber die Aktivität der biologischen Strukturen in Interaktion mit der vorhandenen Welt dazu, diese Welt real so zu verändern, dass sie für die biologischen Strukturen eine andere Welt geworden ist. Die biologische Strukturen im Mikrobereich des Lebens hatten und haben eine solche Kraft, dass sie einen ganzen Planeten samt seiner Atmosphäre nachhaltig verändern konnten. Ohne die so entstandene Sauerstoffwelt wäre alles Leben auf der Erdoberfläche, so, wie wir es heute kennen, unmöglich.
  8. Nachdem ein Bewusstsein in der Form des menschlichen Bewusstseins auftrat, entwickelten die Menschen auf der Basis dieses Bewusstseins in relativ kurzer Zeit und dann immer schneller, Verhaltensweisen und Lebensformen mit einer Unzahl von Spielarten, bei denen es nicht ganz leicht ist, zu sagen, ob sie bedeutsam waren/ sind oder nicht. Letztlich hängt es immer von der Betrachtungsweise ab, ob etwas in einem gewählten Kontext bedeutsam erscheint. Die folgende Liste ist daher nicht zu lesen als eine dogmatische Festsetzung als vielmehr nur eine lockere Auswahl einiger Phänomene von vielen, die möglicherweise eine wichtige Rolle spielen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
    12. Erste Städte, ca. -10.000
    13. Schriftsprachen, ca. -3.000
    14. Gesetze
    15. Bücher
    16. Elektrizität
    17. Energiegewinnung mit fossilen Brennstoffen, Atomenergie,Wasser, Wind, Sonne, Bioreaktoren…
    18. Mobiler Verkehr
    19. Industrielle Ernährungswirtschaft
    20. Megastädte (mehr als 10 Mio Einwohner)
    21. Computer
    22. Gentechnik
    23. Vernetzte Computer
  9. Wir können heute definitiv feststellen, dass die Aktivitäten alleine des homo sapiens, einer absoluten Minderheit im Kontext des Lebens, das Ökosystem der Erde wie auch die Erde selbst schon so nachhaltig verändert hat, dass die Ressourcen für Nahrung knapp werden, dass ein gewaltiges Artensterben eingesetzt hat, dass wichtige Biotope zerstört werden, und dass das Klima sich in einer Weise zu verändern begonnen hat, das zu sehr nachhaltigen Störungen führen kann, die dann die Lebensbedingungen allgemein erschweren werden. Das komplexeste (? wie zu messen?) Produkt, was der Lebensprozess bislang hervorgebracht hat, der homo sapiens, hat offensichtlich Probleme, mit der vorfindlichen Komplexität, zu der der Mensch selbst auch gehört, fertig zu werden. Deutet man dies als mangelnde Anpassungsfähigkeit, dann sagt die bisherige Geschichte voraus, dass eine größere Katastrophe eintreten wird, durch die alle Organismen mit einem schlecht angepassten Verhalten aussterben werden.
  10. Das Besondere der aktuellen Situation ist, dass der Mensch sein Verhalten tatsächlich weitgehend selbst bestimmen kann. Wenn die Menschheit besser wüsste, was am besten zu tun ist, dann könnte sie dies einfach tun. Im Alltagsleben menschlicher Gesellschaften gibt es aber so viele Prozesse, die viel kurzsichtigere, egoistischere, emotional verblendete Ziele verfolgen, die keinerlei Bezug zum großen Ganzen haben. In dem Masse, wie diese kurzsichtigen Perspektiven die Mehrheit bilden, den Ton angeben, in dem Masse wird das gesamtmenschliche Verhalten die Erde weiterhin in wichtigen Bereichen nachhaltig zerstören und damit eine Anpassungskatastrophe einleiten.
  11. Man könnte in dieser Situation den Schluss ziehen, dass die Menschen neue geistige Konzepte, neue Verhaltensmodelle, ein neues=besseres Menschenbild, neue Regeln, neue Ethiken benötigen, um sich den veränderten Verhältnissen angemessen zu nähern. Nimmt man die allgemeinen Medien als Gradmesser für das alltägliche Denken, dann findet man hier derart primitive und rückwärtsgewandte Konzepte, dass nicht zu sehen ist, wie von hier eine ‚Erneuerung‘ des Denkens für eine gemeinsame Zukunft stattfinden soll. Begleitet wird diese regressive Medienwelt von einer – dann nicht verwunderlichen – Radikalisierung, Vereinfachung, Nationalisierung, Gewaltverherrlichung, die sich in der Politik dahingehend niederschlägt, dass Abgrenzungen, Nationalisierungen, Radikalisierungen bevorzugt werden. genau das Gegenteil wäre notwendig. Wenn das die einzige Antwort ist, die die Menschheit auf die gewachsenen Komplexitäten und zunehmenden Umweltzerstörungen zu bieten hat, dann wird es für eine nachhaltige Zukunft nicht reichen.
  12. Nachbemerkung: die obige Liste an Ereignissen könnte (und müsste) man natürlich auch nach hinten verlängern. Bis hin zum sogenannten Big Bang. Über die Stufen
    1. Big Bang
    2. Subatomare Teilchen
    3. Atome
    4. Gaswolken
    5. Sterne
    6. Moleküle
    7. Galaxien
  13. wäre auch eine Menge zu sagen. Alle wichtige Fragen hat die Physik bislang nicht gelöst. Dass die Physik bislang fantastische Ergebnisse erzielt hat ist wunderbar und anzuerkennen. Es wäre aber ein fataler Fehler, jetzt zu glauben, wir wüssten damit schon viel und könnten uns jetzt ausruhen. Nein, wir wissen gerade mal so viel, dass wir abschätzen können, dass wir fast nichts wissen. Alles hängt ab von der jeweils jungen Generation an Ingenieuren, Wissenschaftlern und Forschern. Wer hilft Ihnen, die entsprechenden Ziele zu setzen und die notwendigen Wege zu gehen?

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 2

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

NACHTRAG: Am 30.9.2015 habe ich noch einen Diskussionsteil angefügt

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Ich hatte sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangenes. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

KAPITEL 2: DISSIPATIVE PROZESSE (54-64 …)

1. Anmerkung: bei der Lektüre des Buches merke ich, dass im Buch die Seiten 65 – 96 fehlen! Das ist sehr ungewöhnlich. Die Besprechung erfolgt also zunächst mal mit dem unvollständigen Text. Ich werde versuchen, doch noch einen vollständigen Text zu bekommen.

2. Eine Argumentationslinie in diesem Kapitel greift jene physikalischen Theorien auf, die bezüglich der Zeit invariant sind. Reversibilität von Prozessen, Konservierung (z.B. von Energie) und Determiniertheit sind Begriffe, die untereinander zusammen hängen. (vgl.S.58) Eine solche ’statische‘ Theorie ist die klassische (newtonsche) Mechanik.

3. Denbigh sieht einen Zusammenhang zwischen diesem stark idealisierenden Denken, das sich an etwas ‚Festem‘ orientiert, an etwas, das bleibt, etwas, das sich konserviert, und der griechischen Denktradition, die die Grundlagen allen Wandels in den unveränderlichen Atomen entdeckten. Ein typisches Beispiel ist die chemische Reaktionsgleichung für die Umwandlung von Wasserstoff 2H_2 und Sauerstoff O_2 in Wasser 2H_2O. Die Bestandteile werden hier als unveränderlich angenommen, nur ihre Anordnung/ ihr Muster ändert sich.

4. Diesem Hang zur Verdinglichung des Denkens über die Realität steht aber die ganze Entwicklung der physikalischen Erkenntnis entgegen: die scheinbar unteilbaren Atome setzen sich aus Partikeln zusammen, und die Partikel wiederum sind umwandelbar in Energie. Materie und Energie wurden als äquivalent erkannt. Die Gesamtheit von Energie-Materie mag konstant sein, aber die jeweiligen Zustandsformen können sich ändern.

5. Der Ausgangspunkt für die Entdeckung des Begriffs Entropie war die Ungleichheit in der Umwandlung von mechanischer Energie in Wärme und umgekehrt. (vgl. S.60f) Viele solcher Asymmetrien wurden gefunden. Während eine Richtung funktioniert, funktioniert die andere Richtung höchstens partiell. (vgl. S.62) Solche höchstens partiell reversible Prozesse sind dissipativ Prozesse. Und diese Eigenschaft, die den Unterschied in der Umwandelbarkeit charakterisiert, wurde Entropie [S] genannt. Sie kommt generell Systemen zu. Liegen zwei Systeme A und B vor, so drückt die Gleichung S_B >= S_A für t_B > t_A aus, dass für alle Zeitpunkt von B (T_B) nach dem aktuellen Zeitpunkt die Entropie von B (S_B) entweder gleich oder größer ist als die von A. Die Entropie kann also nicht abnehmen, sondern nur gleich bleiben oder zunehmen.

6. Das Besondere an der Entropie ist, dass die Entropie zunehmen kann, obwohl die Energie insgesamt konstant bleibt. (vgl. S.63f) [Anmerkung: Dies deutet implizit darauf hin, dass es unterschiedliche ‚Zustandsformen‘ von Energie gibt: solche in denen Energie lokal verfügbar ist, um Umwandlungsprozesse zu ermöglichen, und solche, in denen Energie lokal nicht mehr verfügbar ist. Die Nichtverfügbarkeit von Energie wäre dann gleichbedeutend mit maximaler Entropie. Die Nichtverfügbarkeit von Energie käme einer Unveränderlichkeit von Energie gleich. Ein schwieriger Begriff, da Energie als solche ‚Zustandslos‘ ist.]

7. Ferner deuten alle bekannten physikalischen Prozesse immer nur in eine Richtung: Zunahme von Entropie. (vgl. S.64)

8. … ab hier fehlt der Text im Buch ….

KAPITEL 3: FORMATIVE PROZESSE (…97 – 116)

9. Laut Inhaltsverzeichnis fehlen bei mir die ersten 7 Seiten vom dritten Kapitel.

10. Der Text startet mit dem Begriff der Organisation, den Denbigh als ein Konzept einstuft, das oberhalb der Elemente eines Systems liegt. Seine Einführung setzt voraus, dass man am Verhalten des Systems eine Funktion erkennt, die ein spezifisches Zusammenwirken der einzelnen Elemente voraussetzt. (vgl. S.98)

11. Zur Charakterisierung einer Organisation stellt Denbigh zwei zusätzliche Postulate auf. Einmal (i) sollen die einzelnen Elemente – bezogen auf die Gesamtleistung des Systems – nur eine begrenzte Fähigkeit besitzen, die erst im Zusammenspiel mit den anderen die Systemleistung ergibt, zum anderen (ii) müssen die Elemente untereinander verbunden sein.

12. Er führt dann die Begriffe Anzahl der Verbindungen [c] ein, Anzahl der Elemente ohne Kopien [n], sowie Anzahl der Elemente mit Kopien [N] ein. Die minimale Anzahl der Verbindungen wird mit N-1 gleichgesetzt, die maximale Zahl aller paarweisen Verbindungen (inklusive der Verbindungen der Elemente mit sich selbst) wird mit N * (N-1) angegeben. Die Anzahl c aller Verbindungen liegt also irgendwo zwischen N und N^2. Nimmt man das Produkt c x n, dann berücksichtigt man nur die unterscheidbaren Elemente ohne die Kopien.(vgl. S.100)

13. Damit konstruiert er dann den theoretischen Begriff der Zusammengesetztheit (‚integrality‘) [Anmerkung: man könnte hier auch von einer bestimmten Form der Komplexität sprechen] einer Organisation basierend auf ihren Elementen und ihren Verbindungen.

14. Denbigh referiert dann, dass im Bereich des Biologischen der Grad der Zusammengesetztheit der Nachkommen von biologischen Systemen zunimmt. (vgl. S.100) In diesem Zusammenhang sind Untersuchungen von von Neumann interessant. Im Versuch zu zeigen, ob und wie man Phänomene des Biologischen mit Automaten nachbauen könnte, kam von Neumann zu dem Resultat, dass die Ausgangssysteme eine kritische Größe haben müssen, damit ihre Nachkommen einen höheren Grad der Zusammengesetztheit haben können als die Elternsysteme. In seiner Untersuchung waren dies viele Millionen ‚Elemente‘. (vgl. S.100f)

15. Ein erster interessanter Befund ist, dass der Grad der Zusammengesetztheit unabhängig ist von den Konservierungsgesetzen der Physik. (vgl. S.102f) In einem isolierten Ei kann — nach Denbigh — der Grad der Zusammengesetztheit zunehmen ohne dass die Gesamtenergie sich ändert.

16. Allerdings ändert sich normalerweise die Entropie. Innerhalb des Eis mag die Entropie abnehmen, insgesamt aber erhalten biologische Systeme den Grad ihrer Zusammengesetztheit abseits eines Gleichgewichtszustands, was nur durch ständige Zufuhr von Energie möglich ist. Lokal nimmt die Entropie am/ im System ab, im Kontext mit der Umwelt, aus der die Energie entzogen wird, nimmt aber die Entropie zu. (vgl. S.103f)

17. [Anmerkung: Es fragt sich hier, ob es Sinn macht, von der ‚globalen‘ Entropie zu sprechen, da ja die Entropie der Teilbereiche ‚Umwelt‘ und ‚System‘ für sich unterschiedlich ist. Ein System mit ‚geringerer‘ Entropie ist eigentlich nicht vergleichbar mit einem System ‚höherer‘ Entropie.]

18. Denbigh schlussfolgert hier, dass die Änderungen der Entropie und der Grad der Zusammengesetztheit unabhängig voneinander sind. (vgl. S.104)

19. [Anmerkung: Dies erscheint zweifelhaft. Denn im Falle von biologischen Systemen bedeutet die Zunahme des Grads der Zusammengesetztheit notwendigerweise Verbrauch von Energie, die der Umgebung entzogen wird (Zunahme von Entropie) und dem System zugeführt wird (Abnahme der Entropie). Die Organisiertheit biologischer Systeme erscheint daher eher wie ein Entropie-Umwandler/ -Wandler/ -Transformator. Dies hat zu tun mit Zustandsformen von Energie: es gibt jene, die von biologischen Systemen umgewandelt werden kann und solche, die nicht umgewandelt werden kann.]

20. Denbigh führt dann das Symbol phi für den Grad der Zusammengesetztheit eines einzelnen Systems s_i ein und das Symbol PHI für die Summe aller einzelnen Systeme. (vgl. S.105f) Während der Grad der Zusammengesetztheit phi_i eines einzelnen Systems von der Geburt bis zum Tode zu- bzw. abnehmen kann, bildet die Summe PHI einen Querschnitt. Mit solch einem Maß kann man sowohl beobachten, dass PHI im Laufe der Zeit – abzgl. gewisser lokaler Schwankungen – generell zunimmt, zugleich auch die Zahl der Mitglieder der Population. (vgl. 106f) Zusätzlich zum Grad der Zusammengesetztheit des individuellen Systems mss man auch den Organisationsgrad der Systemumgebung berücksichtigen: Werkzeuge, Landwirtschaft, Verkehr, Rechtssysteme, Schrift, usw. (vgl. 107f) Nimmt insgesamt der Grad der Zusammengesetztheit zu, will Denbigh von einem Prozess der Formation sprechen.

21. Denbigh spekuliert auch darüber, ob man den Grad der Zusammengesetztheit dazu benutzen kann, um den Begriff der Kreativität ins Spiel zu bringen.

22. Ferner geht es um die Entstehung biologischer Systeme. Während für die Änderungen von organisatorisch einfachen Systemen die allgemeinen physikalischen Gesetze zur Beschreibung ausreichen, haben Organisationen mit einem höheren Grad von Zusammengesetztheit die Besonderheit, dass sehr spezifische Konstellationen vorliegen müssen, die für sich genommen extrem unwahrscheinlich sind. Im Fall biologischer Systeme ist die Entstehung bislang nicht klar und erscheint extrem unwahrscheinlich.

23. Ein Denkansatz wäre – nach Denbigh –, dass sich die Komplexität in kleinere Subprobleme delegieren lässt. (Vgl.S.110f) Dazu kommt die weitere Beobachtung/ Überlegung, dass sich im Falle von biologischen Systemen feststellen lässt, biologische Systeme dazu tendieren, die Ausgangslage für die Aggregation neuer Systeme immer weiter zu optimieren. (vgl.S.112f)

24. Stellt man eine Folge wachsender Organisiertheit auf (Denbigh nennt: Partikel – Atome – Moleküle – Zellen – Organismen), dann kann man nach Denbigh einen Zuwachs an Individualität und an Kontrolle beobachten bei gleichzeitiger Abnahme der Gesetzeskonformität; letzteres besagt, dass biologische Systeme je komplexer sie werden umso weniger direkt unter irgend ein physikalisches Gesetzt fallen. (vgl. S,114f)

25. Die Funktionen, die auf den jeweils höheren Ebenen der Organisation sichtbar werden, lassen sich nicht direkt aus den Komponenten der darunter liegenden Ebenen ableiten. Sie zeigen – hier zitiert Denbigh (Polanyi 1967) – etwas Neues. Dieses Auftreten von etwas Neuem verglichen mit den bisherigen Systemeigenschaften markiert nach (Polanyi 1967) einen Prozess, den er Emergenz nennt. Das neue Ganze ‚erklärt‘ die Teile, nicht umgekehrt. (vgl. S.116)

DISKUSSION

  1. Trotz der Behinderung durch die fehlenden Seiten (ein angeblich vollständiges Exemplar ist nachbestellt) bietet der Text von Denbigh doch spannende Stichworte, die unbedingt weiter verfolgt und geklärt werden müssen. Hier nur mal erste Notizen, damit diese Aspekte nicht untergehen.
  2. Das Zusammenspiel von Energie-Materie einerseits und Entropie andererseits wirft noch viele Fragen auf. Wenn man davon ausgeht, dass die Gesamtmenge der Energie-Materie konstant ist (was letztlich nicht wirklich klar ist; es ist eine Annahme!), man aber zugleich beobachten kann, dass die Energie-Materie unterschiedliche Zustände annehmen kann, was die Wahrscheinlichkeit von Veränderungen auf allen (?) Ebenen betrifft, so bedeutet dies, dass das Reden über Energie-Materie für uns Menschen letztlich nur interessant ist, sofern Energie-Materie sich messen lässt und im Messen mögliche Veränderungen zeigt. Eine unveränderliche und unmessbare Energie-Materie existiert für uns nicht.
  3. Was wir aber messen, das sind punktuelle Ereignisse in einem unbekannten riesigen Raum von Zuständen/ Ereignissen, der sich uns weitestgehend entzieht.
  4. Wenn wir nun feststellen, dass es Veränderungsphänomene gibt (Zerfallsprozesse, Partikelabstrahlungen, Wärmeaustausch, …), dann deutet dies darauf hin, dass Energie-Materie eine große Zahl von unterschiedlichen Zuständen einnehmen kann, von denen einige so sind, dass im Zustandswechsel endliche Energie-Materie-Mengen auf andere Zustände einwirken können und dabei – falls es sich um sogenannte biologische Systeme handelt – diese andere Zustände diese verfügbare Energie-Materie-Mengen für systeminterne Prozesse nutzen können.
  5. Obwohl der Begriff der Entropie in der Literatur viele unterschiedliche Bedeutungen besitzt (dem wird noch weiter nachzugehen sein), ist ein Bedeutungskern jener, dass die Verfügbarkeit von solchen endlichen Energie-Materie-Mengen damit beschrieben wird: maximale Entropie liegt vor, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind.
  6. Während sich im Universum Veränderungsprozesse auch unabhängig von biologischen Systemen beobachten lassen, so sind die biologischen Systeme im Kontext von Entropie dennoch auffällig: während Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), zeigen sich die biologischen Systeme als Entropie-Konverter! Sie kehren die Prozessrichtung einfach um: sie nutzen die Veränderungsprozesse von minimaler zu maximaler Entropie dahingehend aus, dass sie diese lokal für endliche Zeitspannen von einem Entropielevel X zu einem Entropielevel X-n konvertieren (mit ‚X-n‘ als weniger Entropie als ‚X‘).
  7. Für diese Prozessumkehr gibt es keine physikalischen Gesetze außer der zwielichtigen Gravitation. Im Gefüge der aktuellen physikalischen Theorien passt die Gravitation bislang nicht so recht hinein, macht sie doch genau das, was die biologischen Systeme im kleinen Maßstab vorexerzieren: die Gravitation zieht Energie-Materie-Mengen so zusammen, dass die Entropie abnimmt. Die dadurch entstehenden Energie-Materie-Konstellationen sind die Voraussetzungen dafür, dass Veränderungsprozesse – und damit biologische Systeme – stattfinden können (ist Gravitation jene innere ‚Feder‘, die ein Universum auf lange Sicht immer wieder soweit zusammen zieht, bis es zum nächsten BigBang kommt?).
  8. Folgt man der Idee von den biologischen Systemen als Entropie-Konvertern, dann wird interessant, wie man das Besondere an jenen Systemen charakterisiert, die wir biologisch nennen. Denbigh offeriert hier – offensichtlich stark beeinflusst von anderen Autoren, u.a. Michael Polanyi – das Konzept eines Systems, dessen Organisation durch Elemente (n,N), Beziehungen (c) und Systemfunktionen (f,…) beschreibbar ist. Je nach Anzahl und Dichte der Verschränkungen kann man dann Organisationsgrade (Komplexitätsstufen) unterscheiden. Diese Begrifflichkeit ist noch sehr grob (verglichen z.B. mit den Details in einem Handbuch über die biologischen Zellen), aber sie bietet erste Angriffsflächen für weitergehende Überlegungen.
  9. So stellt sich die Frage nach der Entstehung solch komplexer Systeme, die bis heute nicht klar beantwortet ist.
  10. So stellt sich die Frage nach der Entwicklung solcher Strukturen von einem einfacheren Zustand zu einem komplexeren: woher kommen die viel komplexeren Strukturen und speziell dann Systemfunktionen, die sich nicht aus den Bestandteilen als solchen herleiten? Das Wort Emergenz an dieser Stelle klingt gut, erklärt aber natürlich nichts.
  11. Faktisch beobachten wir entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …).
  12. Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle, die das Phänomen biologischer Systeme im Kontext der gesamten Naturprozesse plausibel machen. Die bisherigen naturwissenschaftlichen Theorien erscheinen für dieses komplex-dynamische Phänomen der biologischen Systeme zu einfach, zu primitiv. Das liegt zu großen Teilen möglicherweise auch daran, dass sich die meisten Naturwissenschaftler bislang schwer tun, die Phänomene des biologischen Lebens in ihren vollen Komplexität ernst zu nehmen. Möglicherweise wird dies dadurch erschwert, dass die traditionellen Geisteswissenschaften ebenfalls die Brücke zum naturwissenschaftlichen Zusammenhang noch nicht gefunden haben. Statt sich gegenseitig zu befruchten, grenzt man sich voneinander ab.
  13. Letzte Anmerkung: in zwei vorausgehenden Beiträgen direkt (und in weiteren indirekt) hatte ich auch schon mal Bezug genommen auf das Phänomen der Komplexitätsentwicklung biologischer Systeme (siehe: Randbemerkung: Komplexitätsentwicklung (Singularität(en)) und Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2. Die Formulierungen in meinen Beiträgen war etwas schwerfällig und noch wenig überzeugend. Mit dem Ansatz von Denbigh, Polanyi und anderen lässt sich dies sicher deutlich verbessern.

 

Fortsetzung folgt

QUELLEN

1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
2. John von Neumann (1966), Theory of Self-Reproducing Automata, edited and completed by Arthur W.Burks, Urbana – London: University of Illinois Press
3. Michael Polanyi (1967), The Tacit Dimension, Routledge & Keagan Paul.
4. Michael Polanyi (1968) Life’s Irreducible Structure. Live mechanisms and information in DNA are boundary conditions with a sequence of boundaries above them, Science 21 June 1968: Vol. 160 no. 3834 pp. 1308-1312
DOI: 10.1126/science.160.3834.1308 (Abstract: Mechanisms, whether man-made or morphological, are boundary conditions harnessing the laws of inanimate nature, being themselves irreducible to those laws. The pattern of organic bases in DNA which functions as a genetic code is a boundary condition irreducible to physics and chemistry. Further controlling principles of life may be represented as a hierarchy of boundary conditions extending, in the case of man, to consciousness and responsibility.)
5. Michael Polanyi (1970), Transcendence and Self-Transcendence, Soundings 53: 1 (Spring 1970): 88-94. Online: https://www.missouriwestern.edu/orgs/polanyi/mp-transcendence.htm

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

ZWISCHENREFLEXION: DEMOKRATIE – MEHR ALS NUR EIN WORT!

Letzte Änderungen (als Kommentar): 9.Sept.2013

1) In den letzten Wochen der Lektüre und Reflexionen zum Thema USA – Demokratie – Missbrauch von Demokratie – emergente Komplexität – Zukunft des Lebens auf der Erde habe ich nicht nur eine neue Nähe zu diesem alten Thema bekommen, sondern — vielleicht muss ich dies so direkt sagen — fast habe ich das Gefühl, dass ich überhaupt zum ersten Mal meine zu erahnen, welch ungeheuerliche Errungenschaft demokratische Gesellschaftsformen im Laufe der Evolution waren.
2) Für alle, die in Demokratien leben oder gar darin aufgewachsen sind, besteht allerdings immer die Gefahr, sich an das Wunderbare so zu gewöhnen, dass man es irgendwie gar nicht mehr wahrnimmt, es wird zum Alltag, ein Grau in Grau, in dem alltägliche Ereignisse die Wahrnehmung anfüllen und die ermöglichende Hintergründe verschwinden, verblassen, unwirklich werden, bis dahin, dass irgendwann niemand mehr so richtig weiß, dass man tatsächlich in einer Demokratie lebt; dass man noch versteht, was es bedeutet, in einer Demokratie zu leben, und welch ungeheure Prozesse in der Vergangenheit notwendig waren, dass es dazu kommen konnte.
3) Und es ist genau der Alltag, in dem sich einerseits der ‚Sinn von Demokratie‘ ‚erfüllt‘, indem die Menschen in einer Demokratie in einer Weise frei leben können, wie sie es in keinem anderen Gesellschaftssystem können; zum anderen ist es aber auch diese Freiheit — gerade dann, wenn sie zur ‚Normalität‘ wird — die in gewisser Weise Ertauben und Erblinden lässt für das Kostbare an ihr. Solange man genug zu Essen und zu Trinken hat wird man sich kaum darum kümmern, wo Essen und Trinken herkommt; erst wenn das Wasser knapp wird, wenn Essen ausbleibt, fängt man an, danach zu suchen. Dann kann es zu spät sein. Ohne Wasser kein Essen, ohne Essen kein Leben. Dann fehlt auch die Kraft zu allem anderen.
4) Neben der ‚Gewohnheit‘ schlechthin, die alle Gehirne einlullt (ob Reich oder Arm, ob ‚einfach‘ oder ‚gebildet‘, ob ‚machtfern‘ oder ‚machtvoll‘), sind es die Eigenart von Institutionen, die jedes Mitglied durch ihre Rollen und Regeln in ihren Bann ziehen. Davor ist keine Institution gefeit. Selbst eine ’staatliche‘ Einrichtung, die von ihrer juristischen Begründung her, dem ‚Staat dienen‘ soll, kann einem Staat nur in dem Masse dienen, wie ihre Mitglieder auch in der Weise ‚denken‘ und ‚fühlen‘, wie sie ihrem staatlichen Auftrag entspricht. Wie die Geschichte uns lehrt, gibt es zwischen dem ‚Auftrag‘ und dem ‚Denken‘ und ‚Fühlen‘ keinen Automatismus; das Handeln und das Selbstverständnis von Mitgliedern jeder Institution kann sich sehr weit von dem entfernen, was mit dem Auftrag gemeint ist. Und wenn die Leiter oder ‚Chefs‘ von Institutionen schon ’schiefliegen‘ (was sehr schnell der Fall sein kann), dann kann dies eine Institution sehr direkt und sehr schnell ‚prägen‘.
5) Da alle Institutionen diese Sollbruchstelle ‚Irrtum‘, ‚Fehlinterpretation‘, ‚unkritische Gewohnheiten‘ usw. besitzen, würde eine Demokratie versuchen, eine maximale Transparenz zwischen allen Institutionen herzustellen, Verfahren einrichten, die bewusst mit Irrtümern rechnen und die es erlauben, Irrtümer zu korrigieren. Dem steht die ’natürliche Eigentendenz‘ von Institutionen und ihren ‚Gewohnheiten‘ entgegen, sich ‚abzuschotten‘, da die Mitglieder von Institutionen ihre Arbeit und ihren Lebensunterhalt genau der Existenz dieser Institution verdanken. Je weniger Alternativen sie für sich sehen, umso mehr werden sie ‚ihre‘ Institution ’schützen‘. Alle ‚Abweichler‘ sind bedrohlich, alle ‚Neuerer‘ gefährlich! Transparenz und Erfolgskontrollen werden als ‚feindlich‘ interpretiert.
6) Diese ‚Selbstverliebtheit‘ von Institutionen ist unabhängig von ethnischen, ideologischen, politischen oder sonstigen Randbedingungen; es sind wir Menschen selbst mit unseren Bedürfnissen und Ängsten, die wir uns mit Institutionen ’solidarisieren‘, wenn wir den Eindruck haben, sie helfen uns.
7) In einer Demokratie braucht es genauso Institutionen wie in jeder anderen Gesellschaftsform. Während aber in einer Nicht-Demokratie Institutionen ausschließlich an den jeweiligen ‚Machthabern‘ und ‚Geldgebern‘ ausgerichtet sind (bei Beachtung der starken Eigeninteressen), ist in einer Demokratie eine Institution zwar auch dem ‚juristischen Auftraggeber‘ verpflichtet, daneben aber auch und nicht zuletzt der Bevölkerung, dem diese Institution ‚dienen‘ soll. Das schafft eine höhere Verantwortung, stellt eine größere Herausforderung dar, verlangt mehr von allen Beteiligten. Demokratische Gesellschaften setzen immer und überall ‚freie Bürger‘ voraus, die sich den grundlegenden Werten verpflichtet fühlen.
8) Und damit wird deutlich, wo die primäre Schwachstelle jeder Demokratie — wie aber auch letztlich jeder menschlichen Vereinigung — liegt: der ‚freie‘ und ‚wertebewusste‘ Bürger fällt nicht einfach so vom Himmel, er muss ‚entstehen‘ durch langwierige Lernprozesse, die nie aufhören. Er muss lernen, sich eine eigene Meinung zu bilden, die wirklichkeitsbezogen (= wahr) ist und zugleich ‚kritisch‘ in dem Sinne, dass er/sie weiß, warum er/sie das so sieht; er/sie hat Begründungen, kann begründen, kann Fragen stellen und kann Antworten finden.
9) Doch im Alltagsgeschäft — siehe die vielen früheren Blogeinträge –, in dem jeder um seinen Lebensunterhalt kämpfen muss, ist der Raum und die Zeit für notwendige Informations-, Kommunikations- und Denkprozesse mehr als knapp. Faktisch lässt jeder auf irgendeine Weise vieles ‚von anderen Denken‘ im Vertrauen, dass diese es schon richtig machen…. und das erscheint fast unausweichlich angesichts der — selbst erzeugten — wachsenden Komplexität der Umwelt.
10) Und in dem Masse, wie jeder auf den anderen angewiesen ist, muss er darauf vertrauen können, dass der andere das ‚Richtige‘ meint und tut. Vertrauen ist eine Grundkategorie in modernen komplexen Gesellschaften — auch wenn Vertrauen per se keine Korrektheit oder Richtigkeit garantiert. Selbst wenn der andere, dem man vertraut, beste Absichten hat, kann er irren.
11) Und hier wird wiederum deutlich, dass eine funktionierende, transparente, qualitativ hochwertige Öffentlichkeit die wichtigste Schlagader jeder lebendigen Demokratie ist. Beginnt diese zu leiden, wird diese geschwächt, wird sie verzerrt und manipuliert, dann zerbricht eine Demokratie quasi an ‚inneren Blutungen‘. Alle Mitglieder einer Demokratie — einschließlich ihrer Institutionen — werden desintegriert und partikuläre Interessen gewinnen die Oberhand (vorzugsweise Geheimdienste und Militär verbunden mit jenen Unternehmen, die dadurch profitieren (Paradebeispiel der zweit Irakkrieg)).
12) In solchen ‚verzerrten‘ undemokratischen Situationen können nur außergewöhnliche Maßnahmen (wie z.B. die von Martin Luther King oder anderen politischen Bewegungen) helfen, das allgemeine Bewusstsein so zu beeinflussen, dass eine Mehrheit sich für die notwendigen demokratischen Werte bereit findet. Demokratie ohne entsprechenden Einsatz kann es auf Dauer nie geben. Ein demokratisches Bewusstsein entsteht nicht von selbst. Es muss sich anlässlich von Fragestellungen aktiv und öffentlich formen (in diesem Kontext sind z.B. Polizeikräfte, die Demonstranten nicht mehr als ‚Bürger‘ wahrnehmen und nicht als solche behandeln, keine ‚demokratischen‘ Kräfte mehr, genauso wenig jene, die sie befehligen).
13) Doch zurück zum Grundsätzlichen: wenn die biologische Evolution nun mal diese exponentiell wachsende Komplexität aus sich heraus gesetzt hat und wir wissen, dass es ein ‚Optimum‘ nur geben kann, wenn alle Beteiligten sich dem Prozess — letztlich auf ‚demokratische‘ Weise !!! — nicht ‚unterwerfen‘, sondern sich bewusst und verstehend und motiviert ‚einordnen‘, dann ist Demokratie nicht nur ein polit-technisches Problem der hinreichenden Kommunikation, sondern auch ein Problem der ‚Motivation‘, der ‚Werte‘, ja sicher auch eines der geeigneten ‚Spiritualität‘. Woher soll all die Motivation kommen? Wie soll jemand sich für eine ‚gemeinsame Sache‘ einsetzen, wenn viele wichtige Vertreter in der Öffentlichkeit — meist aus Dummheit — ‚Egoismus‘ predigen, ‚Gewalt‘ verherrlichen, ‚Misstrauen‘ sähen, und Ähnliches mehr.
14) Nah betrachtet kann man ja niemanden zu einer ‚demokratischen Gesinnung‘ zwingen; noch so viele Anregungen und Lernprozesse bleiben ‚unvollendet‘, wenn die betreffende Person ‚von sich aus‘ ’nicht will‘. Umgekehrt heißt dies, eine demokratische Überzeugung und ein bewusstes demokratisches Verhalten sind Persönlichkeitsmerkmale von großem Wert, die einem ‚Geschenk‘ an die Gesellschaft gleich kommen. Die Menschen der amerikanischen Unabhängigkeitserklärung, die vielen Menschen und Bewegungen weltweit, die sich für die Rechte der Menschen und eine menschliche Gesellschaft einsetzen, sind alle nicht ‚Geschickte‘, sondern aus eigenem Antrieb ‚Berufene‘ für eine bessere menschliche Gesellschaft, letztlich für uns alle. ‚Demokraten‘ sind Menschen, die sich ihrer ‚Menschlichkeit‘ im Kontext aller anderen Menschen — auf die eine oder andere Weise — ‚bewusst‘ geworden sind und die mit ihrem Leben dazu beitragen wollen, dass wir ‚gemeinsam‘ eine Zukunft als ‚Menschen auf dieser Erde‘ haben.
15) Alle wissenschaftliche Erkenntnisse deuten darauf hin, dass wir den aktuellen Komplexitätssprung der Evolution nur in dem Umfang werden bewältigen können, in dem wir es schaffen, möglichst viele Bereiche der Menschheit ‚von innen her‘ dazu zu befähigen, die alltäglichen Prozesse entsprechend zu gestalten. Die Zukunft ist in diesem Sinne nicht nur eine technologische Herausforderung, sondern auch — und vielleicht je länger um so mehr — eine ‚personale‘, ’spirituelle‘ Herausforderung. Die Moral, Ethiken, Verhaltensmuster, Machtspiele der Vergangenheit werden nicht ausreichen, um die nächste Hürde zu nehmen. Bislang haben wir ‚Heilige‘ und ‚Helden‘ gern ins Museum gestellt als die großen Ausnahmen, auf möglichst hohe Podeste, dass nur ja niemand auf die Idee kommen könnte, solches Verhalten mit dem Alltag zu nahe in Verbindung zu bringen. Aber die Wahrheit ist, wir brauchen dieses ‚Heroisch-Heilige‘ für jeden von uns, letztlich. Es ist nur nicht ganz klar, wie wir diese ‚von innen getriebene‘ Bewegung wirksam fördern können. Möglicherweise müssen wir das auch gar nicht, weil jeder von uns dies ja letztlich verkörpert. Er muss sich seiner nur ‚bewusst werden‘. Der ‚freie Mensch‘ ist etwas ‚Unverfügbares‘, ein Stück ‚wahrhafter Offenbarung‘, und jede Religion, jedes politische System muss sich daran messen lassen. Ein am Leben interessiertes System kann nur in dem Masse ‚gut‘ sein, als es ‚freie Menschen‘ zulässt und fördert.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.