Archiv der Kategorie: Energie

BUCHPROJEKT 2015 – Zwischenreflexion 14.August 2015 – THERMODYNAMIK, BIOLOGISCHE SYSTEME. Viele offene Fragen

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

Letzte Aktualisierungen: 14.Aug.2015, 18:45h

1. Der Ausflug in die Thermodynamik im Zusammenhang mit einer Definition des biologischen Lebens erweist sich als äußerst fruchtbar (es gab schon frühere Blogeinträge zum Thema. Einige findet man, wenn man unter www.cognitiveagent.org auf der rechten Seite bei den Kategorien die Kategorie ‚Energie – freie‘ anklickt. Hier besonders interessant vielleicht der Eintrag zu einem Buch von Paul Davies). Als hervorragende Quelle zum Thema benutze ich das Buch „ASTROBIOLOGY. A Multidisciplinary Approach“, von Jonathan I.Lunine (San Francisco – Boston – New York et al.: Pearson-Addison Wesley, 2005), dazu viele weitere Quellen.

2. Wir Menschen (‚homo sapiens‘) als einzige überlebende Art der Gattung ‚homo‘ sind ja nur ein Teil des umfassenderen Phänomens des biologischen Lebens auf er Erde (und soweit bis heute bekannt im ganzen bekannten Universum).

3. Das biologisch Leben wiederum ist nur ein kleiner Bereich im Gesamt des universalen Geschehens.

4. Die Physiker haben für dieses Gesamtgeschehen unterschiedliche Beschreibungsmodelle entwickelt, die bis heute weder vollständig sind noch völlig integriert. Vielleicht kann man hier von ‚Teiltheorien‘ sprechen, die jeweils eine Menge Phänomene gut ‚beschreiben‘, aber eben nicht alle.

5. Eine solche Teiltheorie ist für mich die Thermodynamik, die in Form ihrer vier Hauptsätze (0 – 3) eine Kernidee besitzt, die dann aber für die unterschiedlichsten Bereiche ‚angepasst‘, ’spezialisiert‘ wurden. Zugleich wurden mögliche weitere Sätze hinzugefügt. Man kann nicht behaupten, dass die Thermodynamik in dieser Form eine geschlossene Theorie darstellt; noch weniger ist sie überzeugend mit den übrigen physikalischen Teiltheorien integriert.

6. Interessant ist auch die Korrespondenzbeziehung der Thermodynamik zum Entropiebegriff. Aufgrund der durchgängigen Korrespondenz des Redens über ‚Entropie‘ und des Redens über ‚Thermodynamik‘ liegt es nahe, eine gemeinsame Struktur zu unterstellen, die beiden Begriffsnetzen zugrunde liegt, d.h. Dass es letztlich ein Modell dazu gibt. Der Ansatzpunkt dazu liegt in der Art und Weise, wie man in der Basis-Formel ΔE = Q + Q den Term ‚Q‘ (für Wärme) und ‚W‘ (für Arbeit) interpretiert. Wärme bezieht sich hier auf eine innere energetische Eigenschaft einer Materieeinheit (gebundene Energie und kinetische Energie) und Arbeit auf Zustandsänderungen des Systems. Je nach Anwendungsgebiet muss diese innere Energie und müssen die Zustandsänderungen in konkrete Eigenschaften ‚übersetzt‘ werden.

7. In der Thermodynamik im engeren Sinne spielt Gravitation keine Rolle. Da aber im realen physikalisch bekannten Universum u.a. die Gravitation überall wirksam ist, kann es keine Systeme geben, die ‚außerhalb‘ der Gravitation vorkommen. Dies bedeutet, dass Gravitation immer wirkt und damit ein Kraft ausübt, die umso stärker sichtbar wird, umso größer die beteiligten Massen sind, die dann zugleich ‚Druck‘ ‚auf sich selbst‘ und ‚aufeinander ‚ausüben. Wie bekannt ist es die Gravitation die zu Materieansammlungen geführt hat, zu Sternenbildungen, innerhalb der Sterne zu Fusionsprozessen, die unterschiedliche schwere Elemente erzeugt haben, die große Teile von Energie gebunden haben. Diese durch die Gravitation umgeformte Energie liegt in unterschiedlichen Zustandsformen vor. Sofern Energie über Temperatur ‚messbar‘ ist, spricht man zwar von ‚Wärme‘ (Q), aber die Wärme korrespondiert mit den inneren Eigenschaften der jeweiligen Systeme, die wiederum über ihre kernphysikalischen Eigenschaften definiert sind. ‚Wärme‘ erscheint insofern nur als ein Art Hilfsbegriff, um solche impliziten kernphysikalischen Eigenschaften zu beschreiben, durch die Energie kodiert ist.

8. Mit dem Entropiebegriff (S) kann man über viele kernphysikalische Spezialitäten hinwegsehen und und ein beliebiges System als eine Menge von Elementen betrachten, deren Verhalten statistisch maximal unsicher ist und damit maximal viele Freiheitsgrade besitzt (in physikalischen Systemen bei sehr hohen Temperaturen) oder wo alle Zustände maximal wahrscheinlich sind und minimale Freiheitsgrade besitzen (physikalisch bei sehr tiefen Temperaturen). Das Maximum der Entropie ist bei maximalen Freiheitsgraden gegeben.

9. Nach dem zweiten Hauptsatz der Thermodynamik tendieren geschlossene Systeme zum Zustand maximaler Entropie, da die Unterschiede in der Energieverteilung sich langfristig ‚ausgleichen‘.

10. Im bekannten Universum ist dieser Zustand noch nicht erreicht. Aufgrund der Wirkung der Gravitation gibt es viele Bereiche höherer Materiekonzentration und damit höherer Energiedichte. Diese lokalen Energiekonzentrationen folgen einer Prozesslogik, die zunächst immer mehr Energie anzieht, durch die begleitenden Drücke zu chemischen Prozessen führt, die viel Energie an die Umgebung abgeben, bis der Prozess in sich zusammenbricht. Die Energie, die in die Umgebung abgegeben wird erhöht einerseits die Entropie, stellt aber für andere Systeme ‚freie Energie‘ dar, die für/ in diesen anderen Systemen ‚Wirkungen‘ erzielen kann (z.B. in der Atmosphäre der Erde Wirbelstürme).

11. Im Falle biologischer Strukturen haben wir es mit Strukturen zu tun, die in der Lage sind, solche ‚freie Energie‘ aufzunehmen, diese für Zustandsänderungen zu nutzen, aber so, dass die thermodynamischen Verhältnisse abseits eines Gleichgewichtszustandes bleiben. Die aufgenommene Energie bewirkt Zustandsänderungen (= Arbeit), die wiederum den energetischen Zustand des Gesamtsystems beeinflusst, aber so, dass es seine Fähigkeit behält, weitere Arbeit zu verrichten. Ein biologisches System trägt zwar durch seinen ‚Abfall‘ zur Vermehrung von Entropie bei, aber durch die synchrone Neuaufnahme freier Energie und deren Nutzung wird diese Entropiezunahme zumindest für den Bereich des biologischen Systems wieder ausgeglichen (zu dieser Thematik sehr gut das Kap.7 von Lunine).

12. Das Auftreten von immer komplexeren biologischen Systemen stellt aus physikalischer Sicht extrem schwierige Fragen. Selbst schon die Anfänge biologischer Systeme im Rahmen der sogenannten chemischen Evolution sind bis heute in keiner Weise erschöpfend geklärt. Man kann dies als weiteren Hinweis darauf deuten, dass die heutigen physikalischen Theorieansätze möglicherweise entweder zu einfach sind (obwohl manche eher umständlich wirken), oder aber zu wenig Faktoren ernsthaft berücksichtigen (was gestützt wird durch die geringe Neigung, die schon heute vorhandenen Teiltheorien ernsthaft zu integrieren).

13. ANMERKUNG: Im Buch ‚THE ROAD TO REALITY‘ von Roger Penrose (2004) (veröffentlicht durch Random House, London) finden sich zu diesem Thema viele ausführliche Stellungnahmen. Unter anderem in den Kapiteln 27 und Kap.30 hebt er deutlich hervor, dass der gegenwärtige Zustand der physikalischen Theorien bzgl. Gravitation und Entropie unbefriedigend ist. Zugleich bietet er anregende Überlegungen, dass man die Thermodynamik, die Entropie, die Gravitation, die Einsteinsche Relativitätstheorie und die Quantentheorie zusammen bringen müsste. Ferner hat bei ihm die Entropie einen sehr allgemeinen Charakter. Mit Hilfe des 2.Hauptsatzes kann er sowohl das Auftreten des Big Bang motivieren, seine extreme Besonderheit, wie auch die Existenz und den Charakter der schwarzer Löcher. Überall spielt die Gravitation eine zentrale Rolle.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Wie alles anfing

Die Überlegungen im vorausgehenden Kapitel beziehen sich auf das, was heute ist, auf die Gegenwart. Wie können z.B. Philosophen die Innensicht ihres Bewusstseins beschreiben; wie können Psychologen das beobachtbare Verhalten untersuchen. Was können die Gehirnforscher über die Struktur und die Funktionen des Gehirns feststellen. Diese Aufgabe ist groß genug, dass man damit mehr als ein Leben ausfüllen kann. Hätte man diese Beschreibungsaufgaben vollständig erfüllt — bislang fehlt da noch einiges –, würden dennoch wichtige Teile am Bild fehlen, vielleicht sogar die wichtigsten, ohne die das Ganze nicht verständlich ist: der reale Entstehungsprozess; wie es zum heutigen Zustand kommen konnte? Wie ist es möglich, dass sich solch komplexen Strukturen im Universum, als Leben auf der Erde herausbilden konnten, ohne dass man eine ‚äußere‘ Einwirkung erkennen kann? Was soll das Ganze? Wohin wird dies führen? Wohin kann dies führen? Welche Rolle spielen wir Menschen dabei? Sind wir nur eines von vielen vorübergehenden Phänomenen des Lebens, das wieder vergehen wird, bevor es bemerkt wurde?

Zeichen der Veränderung

Beginnend mit dem 19.Jahrhundert kam es in Westeuropa zu grundlegenden Änderungen im bis dahin vorwiegend christlich-biblisch geprägten Menschen- und Weltbild. Immer mehr Phänomene in der Veränderung von Lebensformen im Kontext unterschiedlicher Ablagerungsschichten im Gestein und Erdreich wurden entdeckt (Anmerkung: Aus meiner Sicht ein sehr hilfreiches Buch für diese Zeit ist u.a. Peter J.Bowler, „Evolution. The History of an Idea“, Berkeley, Los Angeles (CA): University of California Press, 1983, rev.ed. 1989).

Im Falle der Fossilien waren es berühmte Naturforscher wie z.B. Cuvier (1769 — 1832) , Étienne Geoffroy Saint-Hilaire (1772 – 1844) und Charles Robert Darwin (1809 — 1882), die neben der Vielfalt auch die Veränderungen in den unterschiedlichsten geologischen Schichten erkannten. Im Fall der geologischen Schichten waren es Männer wie William Smith (1769 — 1839), Roderick Impey Murchison (1792 — 1871), Adam Sedgwick (1785 — 1873), John Phillips (1800 – 1874) und Charles Lyell (1797 — 1875), die es schafften, erste Klassifikation von Erdschichten und deren chronologischer Abfolge mit Korrelation zu Fossilien aufzustellen. Insgesamt entstanden durch viele verschiedene, z.T. kontrovers diskutierte, Untersuchungen die ersten Umrisse eines Bildes, in dem die aktuelle Gestalt der Erde und der Lebensformen eine Folge von Veränderungen, eine Geschichte, beinhalten. Die Details dieser Geschichte (Vulkanismus, Klimaänderungen, Plattentecktonik, Baupläne,…) waren in ihren genauen Wirkungen lange Zeit zwar nicht eindeutig entscheidbar, ‚dass‘ die Erde und das Leben auf der Erde aber Veränderungen durchlaufen hatten und immer noch durchlaufen, das erschien jedoch immer mehr unabweislich.

Wie lange zurück reichte diese Geschichte? Neue thermodynamische Überlegungen von William Thomson, besser bekannt als Lord Kelvin (1824 – 1907), schränkten den zur Verfügung stehenden absoluten Zeitraum für die Entwicklung der Erde und des gesamten Universums im Laufe seines Lebens immer mehr ein, schließlich bis auf eine zweistellige Millionenzahl. Wie viele seiner Zeitgenossen ging er davon aus, dass die Erde und die Sonne sich kontinuierlich abkühlen, ohne dass neue Energie zur Verfügung steht, die dieser Abkühlung entgegen wirken könnte. Es brauchte die ersten Jahrzehnte des 20.Jh. um mit Hilfe der neuen Erkenntnisse aus der (Nuklear-)Physik bzw. aus dem Spezialgebiet der Teilchenphysik verstehen zu können, dass Sterne und Planeten eigene Energievorräte besitzen und über Prozesse verfügen, durch die diese Energie in Form von beobachtbaren Veränderungen (Sonnenstrahlen, Klima, Vulkanismus, Erdbeben, …) wirksam werden können.

Immer kleiner

1905 hatte Albert Einstein ganz allgemein u.a. die Äquivalenz von Masse und Energie mit seiner bekannten Formel $latex E=mc^{2}$ aufgezeigt, es brauchte aber noch weiterer gehöriger Anstrengungen, bis im Februar 1939 Lise Meitner (1878 – 1968) eine theoretische Beschreibung des ersten Kernspaltungs-Experiments veröffentlichen konnte, das Otto Hahn Ende Dezember 1938 zusammen mit seinem Assistent Fritz Straßman durchgeführt hatte. Im gleichen Jahr konnte Hans Albrecht Bethe (1906 – 2005) sein theoretisches Modell der Kernfusionsprozesse in der Sonne veröffentlichen (für die er 1967 den Nobelpreis bekam). Damit war die Tür zur Erkenntnis der verborgenen Energie in der Materie, in den Sternen, im Universum soweit geöffnet, dass dem Forscher ein glutheißer Atem entgegen schlug.

Es folgten stürmische Jahre der vertiefenden Erforschung der nuklearen Zusammenhänge, stark geprägt von den militärisch motivierten Forschungen zum Bau von Nuklearwaffen. Immer mehr Teilchen wurden im Umfeld des Atoms entdeckt, bis es dann ab den 70iger Jahren des 20.Jh zum sogenannten Standardmodell kam.

Obwohl sich dieses Standardmodell bislang in vielen grundlegenden Fragen sehr bewährt hat, gibt es zahlreiche fundamentale Phänomene (z.B. die Gravitation, die Expansion des Universums, dunkle Materie), für die das Modell noch keine erschöpfende Erklärung bietet.

Big Bang – Zeitpunkt Null

Ausgestattet mit den Erkenntnissen der modernen Physik lassen sich die Hypothesen aus dem 19.Jahrhundert zur Welt als Prozess ausdehnen auf das ganze Universum. Fasst man alle heutigen Erkenntnisse zusammen, wie dies in der sogenannten
Big Bang Theorie geschieht, nach 1990 gefasst als Lambda-CDM-Modell, führt dies auf ein Ereignis vor jeder physikalisch messbaren Zeit zurück. Ein solches Ereignis gilt den Physikern als eine Singularität. Da es im Universum auch andere Formen von Singularitäten gibt, nenne ich jene Singularität, mit der das bekannte Universum begann, hier die erste Singularität.

Durch die Weiterentwicklung der Relativitätstheorie von Albert Einstein konnten Stephen William Hawking (geb.1942),
George Francis Rayner Ellis (geb.1939) und Roger Penrose (geb.1931) aufzeigen, dass die Größen Raum und Zeit mit der ersten Singularität beginnen.

Von heute aus gesehen trat die erste Singularität vor 13.8 Mrd Jahren auf. Beginnend mit einer unendlich extremen Dichte und Hitze begann aus dem Ereignis heraus eine Ausdehnung (Raum und Zeit), die begleitet war von einer zunehmenden Abkühlung. Gleichzeitig kam es zur Herausbildung von subatomaren Teilchen, aus denen sich einfache Atome formten (Anmerkung: Die Entstehung der ersten Atome wird in der Zeitspanne 10 Sek – 20 Min verortet.). Gigantische Ansammlungen dieser ersten Elemente führten dann aufgrund der Gravitation zu Verdichtungen, aus denen Sterne und Galaxien hervorgingen (Anmerkung: Erste Sterne, die das dunkle Weltall erleuchteten werden nach ca. 100 Mio Jahren angenommen. Erste Galaxien etwa 1 Mrd Jahre später.). In den Sternen fanden Kernfusionsprozesse statt, die im Gefolge davon zur Bildung von immer schwereren Atomen führten. Ferner wird seit etwa 6.5 Mrd Jahren eine Beschleunigung bei der Ausdehnung des Universums beobachtet. Man vermutet, dass dies mit der ‚dunklen Energie‘ zu tun hat. Viele Fragen sind offen. Nach letzten Messungen geh man davon aus, dass das bekannte Universums zu 73% aus dunkler Energie besteht, zu 23% aus dunkler Materie, zu 4.6% aus ’normaler‘ Materie und zu weniger als 1% aus Neutrinos (Anmerkung: Jarosik, N. et al. (WMAP Collaboration) (2011). „Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Sky Maps, Systematic Errors, and Basic Results“. NASA/GSFC. p. 39, Table 8. Retrieved 4 December 2010).

Fortsetzung mit Kapitel 5

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

EMERGING MIND – Mögliche Konsequenzen

Letzte Änderung: 9.April 2015, 12:10h – Minimale Korrekturen; Lesbarkeit verbessert durch Abstände; Zwischenüberschriften

1) Die ganzen Überlegungen zum ‚Emerging Mind‘ sind noch sehr anfangshaft, spekulativ. Andererseits, angesichts der vielen ungelösten Fragen, ohne diese Arbeitshypothese und die interessanten Zusammenhänge mit dieser Arbeitshypothese ist es eigentlich unmöglich, diese Arbeitshypothese nicht weiter zu denken. Fehler zeigten sich ja im allgemeinen am ehesten dann, wenn man versucht, eine Hypothese konsequent anzuwenden und sie auf diese Weise immer mehr ‚Überprüfungen‘ unterzieht.

EMPIRISCHES UNIVERSUM ALS FOLGE VON STRUKTUREN

2) Bisheriger Ausgangspunkt ist ja die Annahme einer Prozesskette S*(t+n) = f(S(t)) mit ‚t‘ als einem Zeitpunkt, ‚S‘ als einer identifizierbaren Struktur zu diesem Zeitpunkt und ‚f‘ als eines funktionalen Zusammenhanges, der die Struktur ‚S‘ in die Struktur ‚S*‘ überführt.

3) In vorausgehenden Einträgen hatte ich exemplarisch mögliche Strukturen identifiziert beginnend mit dem Energieausbruch E des BigBang, der dann in der nachfolgenden Abkühlung immer mehr Strukturen ‚hervorgebracht‘ (=f?) hat: Quanten [Q], Atome [At], Moleküle [Mol], usw. Man bekommt dann eine Prozesskette der Art EMPIRISCHER-KOSMOS = S_Q(t+n1) = f(S_E(0)), S_At(t+n1+n2) = f(S_Q(t+n1) ), usw. wobei die Energie eine Art ‚Nullstruktur‘ ist verglichen mit den folgenden Strukturausprägungen.

4) Bedenkt man ferner, dass jede Funktion ‚f‘ in der ‚Realität‘ eine ‚reale Abbildung‘ sein muss, d.h. eine ‚Operation‘, die ‚real etwas bewirkt‘, dann bedeutet dies, dass man parallel zu den Strukturen S_i(), die man zu verschiedenen Zeitpunkten unterscheiden kann, für die Veränderungsoperation ‚f‘ (von der noch unklar ist, ob es immer die ‚gleiche‘ ist), einen ‚Träger‘ annehmen muss, ein ‚Medium‘, das diese Ausführung ermöglicht. In der klassischen Makrophysik gibt es neben den unterscheidbaren Makrostrukturen ’nichts Konkretes‘, was als Träger in Frage kommt ausser den ‚beobachtbaren Kräften‘, die wir durch ihre spezifischen ‚Manifestationen‘ ‚indirekt‘ erkennen und die wir hypothetisch in Form von ‚Gesetzen‘ benennen und damit ‚dingfest‘ machen. Im Licht der Quantenphysik (was sich bislang vielleicht eher noch als ein ‚Halbdunkel‘ darstellt, das wir noch kaum verstehen…) muss man annehmen, dass die Wahrscheinlichkeitsfelder ihre Kohärenz immer wieder durch ‚Kräfte‘ verlieren, die dann zu den tatsächlich beobachtbaren Makroereignissen führen. Diese in der Quantenfeld lokalisierten hypothetischen Kräfte bieten sich als Kandidaten für den Operator ‚f‘ an, der die unterschiedlichen Strukturbildungen E → S_Q → S_At → … ermöglicht.

ENERGIE: EINMAL UND IMMER WIEDER

5) Neben vielen interessanten Aspekten ist bemerkenswert, dass diese Prozesskette EMPIRISCHER-KOSMOS bis zur Strukturform der Moleküle durch eine einmalige Energiezufuhr (’statisch‘) diese Strukturen erhält; jenseits der Moleküle S_Mol, ab der Strukturform ‚Zelle‘ S_Cell, benötigen diese komplexe Strukturen kontinuierlich eine beständige Zufuhr von Energie (‚dynamisch‘) in Form von chemisch gebundener Energie, die dann mittels Metabolismus ‚freigesetzt‘ und für verschiedene energieintensive Prozesse genutzt wird. Mit fortschreitender Komplexität der Strukturformen (Pflanzen, Tiere, Hominiden, …) wird der Aufwand immer grösser und die Formen von Energiegewinnung, -transport, -speicherung, -verwertung immer komplexer.

ENTSTEHUNG VON ZEICHEN INNERHALB DER MATERIE

6) Ferner ist bemerkenswert, dass bei fortschreitender Komplexität der Strukturformen sich solche molekular basierte Strukturen bilden können, die dann Repräsentationen auf einer höheren Ebene realisieren können, chemische Ereignisse, die als Zeichen funktionieren, die Bedeutungsbeziehungen realisieren können (= semiotischer Raum, Semiose, Zeichenprozesse). Damit ist es möglich, sich von der Konkretheit molekularer Strukturen in gewisser Weise zu befreien und im semiotischen Raum abstrakte Strukturen aufzubauen, die für beliebige Strukturen stehen können. Nicht nur lassen sich damit die vorfindlichen molekularen Strukturen ‚abbilden‘, ‚modellieren‘, sondern man kann mit ihnen ‚herumspielen‘, sie beliebig ‚variieren‘, ‚kombinieren‘, und damit den realen Augenblick ‚transzendieren‘. Im semiotischen Raum kann die reale Gegenwart durch eine erinnerbare Vergangenheit und eine potentielle Zukunft erweitert werden. Dieser Prozess ist schleichend und gewinnt in den höheren Säugetieren, bei den Hominiden und speziell beim homo sapiens sapiens einen vorläufigen Höhepunkt.

BESCHLEUNIGUNG DER KOMMUNIKATION

7) Seit der Verfügbarkeit des semiotischen Raumes innerhalb eines Systems kann man eine dramatische Beschleunigung in der Kommunikation und Koordinierung zwischen den Teilnehmern beobachten, Explosion an Werkzeug, Verfahren, Regeln, Organisation usw.

FLEXIBILISIERUNG DER ENERGIEZUFUHR

8) Die nächste grosse Revolution findet statt, als es gelingt, die molekül-basierten semiotischen Räume mit Hilfe von atomar-basierten Technologien in den wesentlichen Signal- und Zeicheneigenschaften zu kopieren (= Computer), so dass nun die Bildung von ‚künstlichen (technischen) semiotischen Räumen‘ möglich wurde, in Kombination mit einer globalen Vernetzung (= Computernetzwerke, Internet, WWW). Während molekül-basierte semiotische Räume chemisch gebundene Energie zu ihrem ‚Betrieb‘ benötigen, benötigen die atomar-basierten semiotischen Räume Energie in Form von technisch manipulierbaren Potentialunterschieden (= Elektrizität). Diese Form ist universeller und flexibler.

STEIGERUNG DER KOMPLEXITÄT

9) Seit der Verfügbarkeit von künstlichen — auf elektrischer Energie basierenden — semiotischen Räumen konnte die Komplexitätsentwicklung sowohl in ihrer inhärenten Komplexität wie auch in der Geschwindigkeit ihrer Entwicklungen weiter gesteigert werden.

MODIFIKATIONEN DES VERÄNDERUNGSOPERATORS

10) Interessant ist, dass der Veränderungsoperator ‚f‘ nun deutlich unterschieden werden kann. Während der Übergang von der Struktur ‚vor dem HS (‚homo sapiens‘)‘ – also etwa S_PreHs(t) – zur Struktur S_Hs(t+n) noch mit dem Operator ‚f‘ geschrieben werden kann S_Hs(t+n) = f(S_PreHs(t)) ist der Übergang von der Struktur S_Hs zu der neuen Struktur S_NetComp(t) von S_Hs vorgenommen worden, also S_NetComp(t+n) = f_hs(S_Hs(t+n)). Dies ist möglich, weil die impliziten semiotischen Räume von Hs die Definition von Operatoren ermöglichen, die dann ‚umgesetzt‘ werden können. Allerdings wird man wohl annehmen müssen, dass in diese Umsetzung f_hs wohl auch das allgemeine ‚f‘ mit eingeht, also genauer S_NetComp(t+n) = f_hs u f(S_Hs(t+n)).

11) Aktuell sind die künstlichen technischen Strukturen S_NetComp noch nicht in der Lage, sich selber zu vervielfältigen. Grundsätzlich ist nicht zu sehen, warum dies nicht eines Tages möglich sein sollte.

12) Klar ist allerdings, dass der Veränderungsoperator ‚f‘ nun als zusätzliche Teilkomponente f_NetComp enthält, also S_Future(t+n) = f u f_NetComp(S_Past(t)).

PROJEKTION IN DIE ZUKUNFT

13) So mächtig die Kombination ‚f u f_NetComp‘ wirkt, so fragil ist das Ganze. Würde aus irgendwelchen Gründen mal kein Strom verfügbar sein, dann würde S_NetComp vollständig ausfallen und damit würden schon heute weite Bereiche der ‚Zivilisation‘ weitgehend zusammenbrechen.

14) Ein weiterer Aspekt deutet sich an: aufgrund der heute verfügbaren Daten wissen wir, dass der aktuelle Körper des Menschen nur ein ‚Durchgangsstadium‘ markiert. Viele Millionen Jahre vorher sah dieser Körper anders aus und gehen wir weiter zurück, dann verlieren sich die heute bekannten Strukturen in immer fremdartigeren Formen, die kaum noch etwas mit der heutigen Gestalt zu tun haben. Umgekehrt müssen wir also davon ausgehen, dass sich – auch ohne unser Zutun – die aktuelle Körperform weiter verändern wird.

15) Dazu kommt der Aspekt, dass wir mittels des impliziten semiotischen Raumes wie auch durch die heute extern verfügbaren künstlichen semiotischen Räume samt hochentwickelter Werkzeuge den Umbau der aktuellen Körperformen aktiv betreiben könnten (und möglicherweise auch sollten?).

16a) Andererseits stellt sich aber die Grundsatzfrage, ob die Linie der molekülbasierten Körper überhaupt weiterverfolgt werden sollte. Die künstlichen semiotischen Räume mit der Energieversorgung durch flexiblen Strom bieten u.U. auf Dauer bessere Chancen, sich im Universum zu behaupten. Dies rührt dann aber an der Grundsatzfrage, ob die materielle Hülle einer Struktur (im Falle des HS sein molekülbasierter Körper) tatsächlich wichtig ist.

VERORTUNG DES GEISTES

16b) Wenn die Arbeitshypothese stimmt, dass die entscheidenden Operatoren ‚f‘ letztlich von den realisierten Strukturen unabhängig sind, sondern sich nur unter Verfügbarkeit solcher materieller Strukturen ‚zeigen‘, dann würde es für diese(n) Operator ‚f‘ egal sein, ob das ‚Medium‘ chemische Moleküle sind oder atombasierte Strukturen. Nicht das Medium repräsentiert den Geist, sondern der Geist wird anlässlich verfügbarer Strukturen ’sichtbar‘. Die Annahme wäre also etwa die, dass ‚Geist‘ subset E und ‚f‘ in ‚Geist‘ als dem vorab gegebenem ‚Medium‘ gründet; innerhalb von diesem Geist können Veränderungsoperatoren angewendet werden.

17) Der ‚Geist‘ wäre in diesem Sinne das (für uns) vorweg schon immer Gegebene, das quasi ‚Untötbare‘, und nur in dem Maße, wie es hinreichend geeignete Strukturen (welcher Art auch immer) gibt, kann sich dieser Geist durch seine ‚Wirkungen‘ (= Manifestationen, Ereignisse, Wirkungen, Phänomene) zeigen (für uns, die wir aktuell eine spezifische Struktur haben und mit dieser spezifischen Struktur nur ganz bestimmte Dinge erkennen können!!!).

18) Damit wäre jede bekannte Lebensform eine Form von ‚Geistesmanifestation‘, nur unterschiedlich differenziert. Niemand hätte einem anderen irgendetwas voraus.

19) Bizarre Ethiken, die aus dem darwinischen Evolutionsbegriff irgendwelche ‚Vorteile‘ herauszurechnen versuchten, würden sich – falls diese neue Arbeitshypothese stimmen würde – als sehr kurzsichtig erweisen. In der Evolution geht es nicht um das ‚Recht des Stärkeren‘, sondern um den Aufbau solcher komplexer Strukturen, die immer mehr von dem ‚Geist‘ sichtbar machen, der schon immer da ist und von dem jede partielle individuelle Struktur immer nur ein kleines Zipfelchen sichtbar machen kann. Klar ist in diesem Szenario auch, dass der einzelne als solcher keine grundlegende Bedeutung besitzt, höchstens in dem Sinne, dass er dazu beiträgt, das gemeinsame Ganze voran zu bringen. Der Kult um persönlichen Besitz, persönliche Macht, individuelle Schönheit und ‚Ruhm‘ hat hier keinen Platz. Er wirkt seltsam bizarr, fremdartig, lächerlich. Die Zukunft wird den symbiotischen Gemeinschaften gehören, wo die Fähigkeiten von jedem maximal entwickelt und in ein gemeinsames Ziel eingebunden werden können. Insofern bleibt Individualität wichtig, aber nur als Teil eines gemeinsamen Ganzen.

Siehe auch die neue Emerging Mind Webseite!

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER.

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

VORGESCHICHTE

1) In der Vergangenheit wurde in diesem Blog schon öfters über das Emerging Mind Project gesprochen; zu Beginn noch unter einem anderen Namen. Wobei letztlich – wer diesen Blog intensiv liest, wird es merken bzw. gemerkt haben – der ganze Blog im Grunde auf dieses Projekt hingeführt hat – was sich natürlich erst im Nachhinein so feststellen lässt.
2) Einige Blogeinträge, die einen besonders deutlichen Bezug haben zum Emerging Mind Project sind etwa die folgenden: Erste öffentliche Idee zu einem Projekt; damals noch ‚Reengineering Goethes Faust‘ genannt.; Treffen im Cafe Siesmayer; die Projekt-Idee gewinnt weiter an Fahrt. Überlegungen zu ein paar theoretischen Begriffen; Im Anschluss an die Brasilienvorträge erste Konkretisierungen des ‚Geist‘-Begriffs im Kontext der Evolution; das zog weitere Kreise; die ausführliche Reflexion zu Kauffmans Buch brachte an vielen Punkten wertvolle Anregungen; Beobachtungen im Kontext des Komplexitätsbegriffs und seiner Verdichtung in der globalen Evolution; weitere Präzisierung zur Beschleunigung der Komplexitätsentwicklung.

ROLLE DES BLOGS FÜR EMP

3) Im Blog geht es auf der persönlichen Seite um die Klärung der eigenen Fragen und Gedanken; auf der offiziellen Ebene geht es um eine philosophische Auseinandersetzung mit dem heute verfügbaren Wissen um unsere gemeinsame Welt. Dabei kam es bislang schon zu erstaunlichen Umakzentuierungen. Aus meiner Sicht besonders stimulierend ist die Klärung des Verhältnisses von Philosophie und Wissenschaft (Wissenschaft als Untergebiet der Philosophie), Philosophie und Kunst (Kunst ist der kreative Teil des Denkens), Philosophie und Theologie (Theologie als jener Teil der Philosophie, der sich speziell mit der Frage der möglichen ‚Botschaft in allem‘ beschäftigt und den sich daraus ergebenden spezifischen Anforderungen an den einzelnen (Spiritualität)). Eine Konsequenz vom letzten Punkt scheint zu sein, dass alle bisherigen Religionen damit in einer einzigen Religion münden, in einem Universum, mit einem Sinn für alle (was nicht heißt, dass alle den einen Sinn in gleicher Weise ‚interpretieren‘).

EMERGING MIND PROJECT – INM 11.Juni 2013

4) Am 11.Juni 2013 gab es im Institut für neue Medien (INM)(Frankfurt) eine erste öffentliche Veranstaltung im Rahmen der unplugged heads Reihe, die sich offiziell dem Emerging Mind Projekt widmete. Michael Klein (Mitgründer und Direktor des INMs), Gerd Doeben-Henisch (Professur für ‚Dynamisches Wissen‘ an der FH Frankfurt, Mitgründer und Vorstand des INM), Manfred Faßler (Professor am Institut für Kulturanthropologie und Europäische Ethnologie an der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Seine Forschungs- und Lehrbereiche sind die Medienevolution und medienintegrierte Wissenskulturen. )
5) Dieses Treffen diente dem Zweck, das öffentliche Gespräch zum Projekt zu eröffnen und war – auch entsprechend der offenen Gesprächskultur der unplugged heads Reihe – sehr locker. Im Folgenden folgt keine Beschreibung dieses Gesprächs sondern ein paar Gedanken, die der Autor des Blogs im Anschluss an dieser Veranstaltung hatte.

EXPERIMENTELLE MUSIK

6) Wer rechtzeitig da war, konnte zur Einstimmung ein Stück experimentelle Musik hören mit dem Titel They Appear and Disappear von cagentArtist. Gegen Ende wurde auch noch das Stück Another Pattern-Cloud Exercise, extended aufgeführt, ebenfalls von cagentArtist. Bei dieser Musik handelt es sich nicht um Musik für den Konzertsaal, sondern um ‚Labormusik‘, die nach der ‚Radically Unplugged‘ Methode im Labor erzeugt wird zur Erforschung des Klangraums unter spezifischen Randbedingungen.

IDEENGESCHICHTLICHER WENDEPUNKT?

7) An diesem Abend kamen in sehr intensiven 3 Stunden sehr viele interessante Aspekte zur Sprache. Mir selbst wurde im Laufe des Abends bewusst, dass man die Geschichte der Ideen möglicherweise neu strukturieren könnte bzw. müsste. Der große ‚Umschaltpunkt‘ wäre dann die Zeit des Auftretens der neuen experimentellen und formalen Wissenschaften (ungefähr ab der Renaissance) bis zum Emerging Mind project. Denn bis zum Aufkommen und zur gesellschaftlich relevanten Etablierung der neueren Wissenschaften konnotierten die Menschen das ‚Lebendige‘ im Gegensatz um ‚Nichtlebendigen‘ mit etwas Besonderem, schrieben im besondere Eigenschaften zu, und einer der dabei benutzten Begriffe (mit jeweils anderen Worten in anderen Sprachen) war der Begriff ‚Geist‘, der insbesondere dem Lebewesen Mensch inne zu wohnen schien.

‚GEIST‘ FRÜHER

8) Der Begriff ‚Geist‘ ist aber – wie sich jeder in den Zeugnissen der Geschichte überzeugen kann – alles andere als klar und gebunden an eine Vielzahl von ‚Manifestationen‘, die alle Bereiche überdecken: normales Leben, Rhetorik, Handwerk, Kunst, Philosophie usw. Man kann diesen Begriff wie so eine Art ‚imaginären Fluchtpunkt aller Projektionen‘ ansehen, die man auf den Menschen aufgrund seines erfahrbaren Verhaltens richten konnte. Mit neuzeitlichen Begriffen könnte man mit Kant vielleicht von einer allgemeinen ‚transzendentalen Bedingung‘ sprechen, die man annehmen muss, um die verschiedenen Erscheinungsweisen des Menschen zu verstehen. Noch moderner könnte man von einer ‚Funktion‘ sprechen, die dem ‚Körper‘ des Menschen eben jene charakteristischen Eigenschaften verleiht, die wir als spezifisch ‚Menschlich‘ ansehen gelernt haben.
9) Nebenbei: Es gibt ein starkes Wechselverhältnis zwischen diesen Auffassungen von ‚Geist‘ und der Annahme einer menschlichen ‚Seele‘. Ich habe aber nicht den Eindruck, dass dieses Verhältnis bislang abschließend geklärt wurde. Dies mag darin begründet sein, dass beide Begriffe ‚geist‘ und ‚Seele‘ in sich weitgehend unbestimmt sind; sie leben von ‚Randbedingungen‘, von ‚Konnotationen‘, von ‚Manifestationen‘, von begrifflich-logischen Schlüssen, die wenig Anhaltspunkte in der Realität haben.

AUSTREIBUNG DES BEGRIFFES ‚GEIST‘

10) Für den Gesamtzusammenhang wichtig ist es, dass diese über viele tausend Jahre anhaltende vage Sprechweise von ‚Geist‘ mit der Entwicklung der experimentellen und formalen Wissenschaften immer mehr an Anhaltspunkten verloren hat. Die Erforschung der realen Natur und des Weltalls konnte zunächst nirgends ‚Geist‘ entdecken und trugen damit zum Bilde eines ‚toten, leeren Weltalls‘ bei. Parallel führten die Untersuchungen der Entstehung der Lebensformen und des Körpers dazu, dass man zwar immer mehr Details der Körper und ihres ‚Formenwandels‘ entdeckte, aber auch nirgends ‚Geist‘ dingfest machen konnte. Im Körper fand man über all nur Zellen; auch isolierte Zellen im Gehirn (ca. 100*10^6), und jede Zelle zerfällt in Moleküle, diese in Atome, diese in Quanten, usw. Nirgends traf man auf ‚Geist‘. Damit geriet das Selbstbild des Menschen, seine Besonderheiten immer mehr in einen Erklärungsnotstand. Theologische Interpretationen verlieren weitgehend ihre rationale Basis; sie hängen quasi ‚in der Luft‘.
11) Betrachtet man die verschiedenen einzelwissenschaftlichen Erkenntnisse, dann sind sie alle transparent, nachvollziehbar, wirken sie rational. Allerdings leiden nahezu alle diese Erkenntnisse an der einzelwissenschaftlichen Zersplitterung; keine Disziplin hat mehr die Zusammenhänge im Blick.

RÜCKKEHR DES ‚GEISTES‘ – MENS REDIVIVUS?

12) Die massivste Erschütterung dieses trostlosen Blicks auf unendlich viele Einzelteile, die sich im Dunst der Quanten und primären Anfangsenergie zu verlieren scheinen, kommt nun aber ausgerechnet nicht von den Geisteswissenschaften (dazu sind ihre Elfenbeintürme doch ein bisschen zu hermetisch geworden), auch nicht von der Anatomie und den Neurowissenschaften, sondern von jener Disziplin, die die Entzauberung des alten Weltbildes als erste begonnen hatte: von der Physik.
13) Es sind letztlich Physiker, die auf unterschiedliche Weise die Ungereimtheiten der Strukturbildungen seit dem Energieausbruch des Big Bang bemerken und beim Namen nennen. Schon der Übergang von reiner Energie zu Quanten gibt fundamentale Fragen auf. Während das Gesetz von der Entropie bei Vorliegen von Energieungleichheiten (sprich Strukturen) einen großen Teil von Vorgängen des gerichteten Ausgleichs beschreiben kann, versagt das Entropiegesetz vollständig für den umgekehrten Vorgang, für die Erklärung einer anhaltenden Strukturbildung, und nicht nur einer ‚Strukturbildung einfach so‘, sondern einer Strukturbildung mit einer sich exponentiell beschleunigten Komplexität.
14) Angestoßen von diesen drängenden Fragen der Physiker kann man beginnen, die verschiedenen Evolutionen (chemische, biologische, soziale, usw.) als ‚Hervorbringungen von immer komplexeren Strukturen‘ zu sehen, für die bestimmte ‚Strukturbildungsfunktionen‘ zu unterstellen sind, die weitab vom ‚Zufall‘ operieren.
15) Erste Indizien deuten darauf hin, dass die exponentielle Beschleunigung daraus resultiert, dass die zum Zeitpunkt t entstandenen Strukturen S mitursächlich dafür sind, dass die nächsten noch komplexeren Strukturen S‘ zum Zeitpunkt t+n gebildet werden können. Wir haben also eine Art Zusammenhang S'(t+n) = f(S(t)) mit ‚f‘ als der unbekannten Funktionalität, die dies ermöglicht.
16) Wenn man jetzt weiß, dass Funktionen (man denke nur an einfache Additionen oder Subtraktionen) nicht an den Elementen ablesbar sind (also man hat ‚4‘, ‚2‘, und nach der Addition hat man ‚6‘), sondern als Funktionszusammenhang in einem ‚anderen Medium‘ vorausgesetzt werden müssen, dann ist klar, dass die Analyse der Bestandteile von Körpern oder Zellen oder Atomen usw. niemals das zutage fördern, was eigentlich interessant ist, nämlich deren Funktionalität. Wenn nun also das mit ‚Geist‘ Gemeinte mit solchen zu unterstellenden (da sich in Ereignissen manifestierende) Funktionen konnotieren würde, dann wäre klar, dass die vielen einzelwissenschaftlichen Detailanalysen so gut wie keine interessanten Zusammenhänge enthüllen können; die ‚Unsichtbarkeit‘ von ‚Geist‘ wäre dann nicht der Tatsache geschuldet, dass es so etwas wie ‚Geist‘ nicht gäbe, sondern der Tatsache, dass wir nur ‚falsch hinschauen‘.
17) Hier bleibt einiges zu tun.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500
Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER

 

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

DIE ANDERE DIFFERENZ – Teil3 – Definition des Lebens

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 6.März 2012

(1) Nachdem in vorausgehenden Blogeinträgen das biologische Leben mit dem Konzept der ‚anderen Differenz‘ beschrieben wurde ergänzt um   ein paar theoretische Überlegungen zu möglichen formalen Modellen, hier nochmals kurze Überlegungen zur ‚Definition‘ von ‚Leben‘.

 

(2) Definitionen im Sinne der formalen Logik sind solche Begriffe (‚Terme‘), die als ‚Abkürzungen‘ für eine Menge ’schon bekannter Eigenschaften‘ eingeführt werden. Also Definiendum := Definiens; das ‚Definiendum‘ ist das zu Erklärende und das ‚Definiens‘ ist das schon Bekannte, mit dem erklärt wird.

 

 

(3) Solch eine Definition sieht unscheinbar aus, stellt aber einen ‚Auswahlprozess‘ dar: aus der großen Menge E der verfügbaren bekannten Eigenschaften wird eine kleine Teilmenge E‘ ausgewählt, die künftig unter einem neuen ‚Namen‘ (Label) auftreten soll, da der Autor einer solchen  Einführung Gründe hat (das wird jetzt mal unterstellt), genau diese Eigenschaften E‘ als in mindestens einer ‚Hinsicht‘ als ‚relevant‘ anzusehen.

 

(4) Sofern es sich bei solchen Eigenschaften E‘ um ‚empirische Eigenschaften‘ handelt, also Eigenschaften von Dingen, die sich im intersubjektiven Raum ‚beobachten‘ – oder gar ‚messen‘ – lassen, kann eine solche Auswahl möglicherweise eine Menge von Eigenschaften beschreiben, die ein ‚zusammenhängendes Phänomen‘ beschreiben. Beispiele wären technische Geräte (Kafffeemaschine, Mobiltelefon, Waschmaschine,….) oder Gebäude (Einfamilienhaus, Bürogebäude, Brücke, …), aber auch Pflanzen und Tiere, oder Kombinationen davon wie eine ‚Viehweide‘, ein ‚Reservat‘, ein ‚Sumpfgebiet‘, ein ‚Dschungel‘, usw. Ein ‚zusammenhängendes Phänomen‘ wäre in diesem Sinne also so etwas wie ein ‚Gegenstand‘, ein ‚Objekt‘, eventuell mit ‚unscharfen Rändern‘, wo man unsicher ist, ob dies auch noch ein ‚Haus‘, ein ‚Telefon‘ oder eine bestimmte ‚Pflanze‘ ist.

 

(5) Die Bildung einer Auswahl von Eigenschaften E‘ mit einem neuen ‚Namen‘, mit einer neuen ‚Abkürzung‘, stellt im ’normalen Leben‘ meist ein Vorgang dar, bei dem Menschen versuchen solche Eigenschaftsbündel E‘ hervor zu heben, die für den praktischen Ablauf des Lebens irgendwie eine Bedeutung haben und die in dieser spezifischen Konstellation ‚vorkommen‘. Während bei technischen Geräten der Hersteller in der Regel sagen kann, welche Eigenschaften sein Gerät ‚laut Plan‘ haben soll (und wir aufgrund von solchen Angaben auch die Korrektheit und Vollständigkeit eines Gerätes samt seiner Funktion normalerweise überprüfen können), ist es bei  ’natürlichen Gegenständen‘ zunächst mal so, dass wir nicht wissen, was ‚laut Plan‘ dazugehören soll. Geologische und klimatische Prozesse z.B. sind so komplex, dass wir bis heute nicht nur viele konkrete Experimente anstellen müssen, um Hinweise DAT_emp auf ‚beteiligte Eigenschaften‘ ‚finden‘ zu müssen, wir können aufgrund solcher empirischer Messwerte DAT_emp mit den bisher bekannten Modellen TH_emp immer nur sehr begrenze Aussagen machen, Annäherungen an den Gesamtzusammenhang. Im Falle biologischer Gegenstände haben wir gelernt, dass wir mit RNA- bzw. DNA-Molekülen die ‚Pläne‘ für die daraus sich entwickelnden Pflanzen und Tieren vorliegen haben, eine genaue Zuordnung zwischen einem solchen RNA-/ DNA-Plan und den daraus sich ergebenden individuellen Wachstumsprozessen (Ontogenese) lässt sich aber bislang nur sehr begrenzt treffen. Immerhin hat man mit diesen Plänen eine Art ‚Signatur‘ des jeweiligen zugehörigen Organismus in der Hand, und diese Signaturen kann man miteinander vergleichen. ‚Ähnlichkeiten‘ zwischen solchen Signaturen werden dann als ‚genetische Verwandtschaft‘ gedeutet; je ähnlicher umso mehr miteinander verwandt.

 

(6) Wenn es nun darum geht, zu definieren, was man unter dem neuen Begriff  ‚(biologisches) Leben‘ verstehen, dann steht man vor der Herausforderung, zu entscheiden, welche der bekannten empirischen Eigenschaften E‘ man als ‚relevant‘ ansieht für diesen Begriff. Welche Eigenschaft E’_i muss man unbedingt ‚dazutun‘ und zwar so, dass ein Verzicht auf diese Eigenschaft E’_i den Begriff wesentlich ‚unvollständig‘ machen würde, also E‘ = {E’_1, E’_2, …}.

 

(7) Wichtig hierbei ist schon der Hinweis ‚bekannt‘: wer immer sich an solch einer Begriffsbildung versucht, er wird das Problem haben, dass er/ sie immer nur aus jenen Eigenschaften E auswählen kann, die zu diesem Zeitpunkt ‚bekannt‘ sind. Das ‚verfügbare Wissen E‘ ist zu jeder Zeit t unterschiedlich gewesen, und auch innerhalb einer Zeitspanne (t, t‘) kann das verfügbare Wissen bei verschiedenen Menschen sehr unterschiedlich sein (ein Spezialist für Pflanzenkunde wird in der Regel über ein ganz anderes Wissen E_x von E verfügen wie ein Jurist E_x‘ oder ein Schreiner E_x“, also E_x ≠ E_x‘ ≠ E_x“. Wenn man also über die ‚bekannten‘ Eigenschaften E spricht, dann sollte man also mindestens einen Zeitpunkt t mit angeben, oder ein Zeitintervall (t,t‘), und zusätzlich den jeweiligen ‚Autor‘. Angenommen t‘ sei deutlich später wie t, dann würde man vielleicht vermuten, dass die bekannten Eigenschaften E zum Zeitpunkt t‘ E(t‘) alle bekannten Eigenschaften E zu einem vorausgehenden Zeitpunkt t E(t) mit beinhalten E(t) subset E(t‘). Dies muss aber keinesfalls so sein, denn entweder ist dieses Wissen zwischendurch wieder verloren gegangen (durch die Zerstörung von Bibliotheken mit dem griechischen Wissen gab es viele Jahrhunderte, in denen das Wissen ‚geringer‘ war als zu den Zeiten der Griechen; erst durch die vor der Zerstörung angefertigten Übersetzungen ins Arabische, die mit dem Islam dann über Spanien wieder nach Europa kamen, gelang das Wissen dann wieder ‚zurück‘ in die Köpfe und entfaltete im Mittelalter eine neue, ungeheure Kraft), oder aber, man gewann neue tiefgreifende Einsichten, so dass man nun ‚andere‘ Eigenschaften E* subset E(t‘) kennt, die zuvor keine Rolle gespielt haben, also E(t) cut E(t‘) = E*, die dann nun in die Definition eingehen können. Die Entwicklung des Wissens um Eigenschaften im Laufe der Zeiten E(t) –> E(t+1) –> E(t+2) –> … muss also keinesfalls ‚geradlinig‘ verlaufen; eine Population kann Eigenschaften ‚vergessen‘, die schon mal wichtig waren oder ’neue‘ finden, die zuvor nicht bekannt waren.

 

(8) Bei meinen Überlegungen, die zum Konzept der Differenz führten, habe ich mich von vielen Autoren inspirieren lassen (siehe Blogeinträge vorher oder einige meiner Buchbesprechungen bei Amazon (Deutsch und Englisch!)). Direkt nenne würde ich hier jetzt nur Gale (2009) und – insbesondere — Ward und Brownlee (2000). Storch et al (2007) ist ein Beispiel – wie man es heute leider oft findet –wo hochkarätige Experten sehr viel Detailwissen zusammengetragen haben, wo aber der eigentliche ‚Leitbegriff‘ selbst — nämlich der des Lebens – nicht thematisiert wird! In einem Buch über ‚Evolutionsbiologie‘ gibt es keinen einzigen Gedanken dazu, was eigentlich der Leitbegriff all der vielen beeindruckenden Einzeluntersuchungen ist, keinerlei theoretisches Konzept zum Leben; hier wird mit großer Detailkenntnis eine molekulare ‚Maschinerie‘ im historischen Kontext geschildert, es bleibt aber – aus philosophie-wissenschaftlicher Sicht — völlig unklar, ob dies etwas mit ‚Leben‘ zu tun haben soll, weil nirgends definiert ist, was diese Autoren unter ‚Leben‘ verstehen (wobei aus übergreifendem Wissen klar ist, dass diese vielen Details natürlich ‚irgendwie‘ etwas mit ‚Leben‘ zu tun haben, nur vergeben sich diese Autoren eine Chance, dies klar zu machen).

 

(9) Die Variabilität der bekannten Eigenschaften E(t) hängt dabei nicht nur von der generellen ‚Bekanntheit‘ ab, sondern auch, wie die unten angeführten Publikationen demonstrieren, vom ‚Standpunkt des Betrachters‘. Wenn ich mich primär nur für die chemischen Eigenschaften bestimmter Moleküle interessiere, achte ich auf andere Aspekte, als wenn ich die Frage stelle, was denn die grob als ‚biologisch‘ klassifizierten Eigenschaften E_biol subset E_emp generell charakterisiert, auch mit Blick auf andere Kontexte als die Erde. Eine solche ‚erweiterte Perspektive‘ kennzeichnet die Astrobiologie. Sie fragt explizit nach den Bedingungen, unter denen ‚Leben‘ auf der Erde möglich wurde, ist und sein wird sowie, ob und in welchem Umfang ‚Leben‘ auch woanders im Universum möglich ist. Um solch eine Frage so generell stellen zu können, muss man sich Gedanken machen, wie man den möglichst prägnant den Begriff ‚Leben‘ so fasst, dass alle Eigenschaften E_life subset E_emp, die unbedingt notwendig sind, explizit kenntlich gemacht werden, so dass man das Phänomen ‚Leben‘ im gesamten Universum ‚identifizieren‘ kann. Dazu reicht es in keinem Fall, einfach zu unterstellen, jeder wisse ja, was ‚Leben‘ sei, daher genüge es, einfach mal unterschiedliche dinge aufzuzählen, die irgendwie in diesem Zusammenhang bekannt sind. Solche Aufzählungen haben zwar den grossen Vorteil, dass sie strenggenommen niemals ‚falsch‘ oder ‚wahr‘ werden können ( da ja nicht klar ist, im Hinblick auf welche Eigenschaftsmenge sie letztlich ‚bewertet‘ werden sollen), verlieren damit aber wissenschaftlich entschieden an Wert.

 

(10) Als einzelner Mensch beurteilt man das, was man möglicherweise unter ‚Leben‘ versteht, vom Standpunkt seines ’subjektiven Erlebens‘. Dies ist eine Mischung aus ‚Aussenweltwahrnehmungen‘ mit ‚Innenwahrnehmungen‘, also im letzteren Fall von allerlei diffusen Stimmungen, Gefühlen, Bedürfnissen usw. Wir können ‚Leben‘ gar nicht ohne unseren eigenen Standpunkt, nicht ohne die Besonderheiten unseres eigenen Körpers, wahrnehmen. Von daher haben persönliche Schilderungen von ‚Leben‘ stark psychologische und autobiographische Färbungen. Durch die moderne Wissenschaft haben wir aber gelernt, wie wie zwischen den ’subjektiven Anteilen‘ unserer Welterfahrung und den empirisch beschreibbaren Eigenschaften unterscheiden können. Da unser subjektives Erleben an unser Gehirn gebunden ist, dieses in einem Körper eingebettet ist, der sowohl eine individuelle Geschichte hat (Wachstum, Lernen, Ontogenese) wie auch als Teil einer Population eine phylogenetische Geschichte besitzt (die Teil der übergreifenden biologischen Evolution ist, die wiederum eingebettet ist ein eine chemische Evolution, die wiederum nicht isoliert ist, …), wird man das subjektive Erleben auch besser einordnen können, wenn man es von diesen übergreifenden Zusammenhängen aus betrachtet (ohne dass man das subjektive Erleben darauf ‚reduzieren‘ würde; damit würde man wichtige Erkenntnisse ‚verschenken‘, die nur so verfügbar sind).

 

(11) Biologen tendieren dazu, Phänomene des Lebens von ihren ‚Mechanismen‘ her zu betrachten, was naheliegt, da ja der Biologe sich dem Phänomen des ‚Lebens‘ von seinen konkreten Erscheinungsformen her nähert. Durch Inspizierung vieler tausender, zehntausender – oder mehr — spezieller Erscheinungsformen von ‚Leben‘ wird er in die Lage versetzt zu vergleichen, zu klassifizieren, Beziehungen aufzuspüren, Abhängigkeiten zu identifizieren, um dann – möglicherweise – mittels erster ‚Modelle‘ oder ‚Theorien‘ diese vielen Phänomene zu ’systematisieren‘. Insofern geht es dann nicht nur um ‚reine Eigenschaften‘ E_biol oder E_life, sondern es geht dann auch schon um Eigenschaften E_biol, die in sich Klassifikationen darstellen, um Beziehungen (Relationen) R_biol und Dynamiken f_biol, Ax_biol, deren typisches ‚Wechselspiel‘ erst das Phänomen ‚Leben‘ so beschreibt, wie es der Experte zu erkennen meint. Also irgendwie wird man eine Struktur haben wie z.B. TH_biol = <E_biol, R_biol, f_biol, Ax_biol>. Und im Normalfall wird es so sein, dass man mit einer ersten  Theorie TH_biol_0 anfängt, und dann im Laufe der Zeit diese dann immer immer verändert TH_biol_i, bis man dann den Zustand der gerade aktuellen Theorie TH_biol_now erreicht hat.

 

(12) Während man in dem erwähnten Buch von Storch et al. keinerlei Definition zum Begriff Leben findet – erst Recht natürlich keine Theorie – findet sich im Buch von Gale (2009) zumindest eine ‚Liste von Eigenschaften‘ (Gale, 2009:17), allerdings ohne einen klaren funktionalen Zusammenhang (und damit auch keine Theorie). Sowohl Gale (S.17) wie auch Ward and Brownlee (S.56) verweisen aber auf charakteristische dynamische Eigenschaften wie ‚Wachstum‘, ‚Interaktion mit der Umwelt‘, sowie ‚Vererbung mit Variationen‘. Dies alles unter Voraussetzung von minimalen zellulären Strukturen, der Fähigkeit zur Informationskodierung, sowie der Fähigkeit, Energie aus der Umgebung aufzunehmen um diese komplexen Leistungen verfügbar machen.

 

(13) Die Physik, die sich nicht primär für das Konzept ‚Leben‘ ineressiert, sondern an mehr allgemeinen Begriffen wie ‚Energie‘ und ‚Materie‘ (und deren Zuammenspiel) interessiert ist, hat unter anderem die Gesetzmäßigkeit aufgedeckt, dass die Entropie (salopp die ‚Unordnung‘) in einem geschlossenen System einen Maximalwert annimmt. Das aktuelle Universum ist von diesem Zustand noch weit entfernt. Die ‚Differenzen‘ zur maximalen Entropie manifestieren sich als lokale ‚Ordnungen‘ in Form von ‚frei verfügbarer Energie‘. Sofern ‚Leben‘ angenähert das ist, was Gale (2009) sowie Ward and Brownlee (2000) mit ihren wenigen Begriffen nahelegen, dann hat sich das Phänomen des Lebens genau an diesen Differenzen zur maximalen Entropie gebildet, im Umfeld freier Energien, und nicht nur das, sondern das Phänomen des ‚Lebens‘ demonstriert quasi ein Antiprinzip zur Entropie: statt Strukturen ‚auszugleichen‘ werden hier Strukturen in Form frei verfügbarer Energien in andere Strukturen umgeformt, und zwar expansiv und mit einer immer größeren Komplexität. Das Phänomen des Lebens als Ganzes ist vergleichbar mit einem großen Staubsauger, der alle frei verfügbare Energie im kosmologischen Gesamtzustand unter der maximalen Entropie ‚aufsaugt‘ und damit neue, vorher nicht dagewesene Strukturen generiert, die neue Eigenschaften aufweisen, die weit über die bekannten physikalischen Phänomene hinausgehen. Angenommen, das Phänomen des Lebens als Ganzes könnte die frei verfügbaren Energien idealerweise vollständig nutzen, dann würde sich die maximale Existenzzeit des Lebens im Universum aus der Zeit ergeben, in der im Universum noch Energie frei verfügbar ist. Sicher aber sind weitere Varianten möglich, die wie heute einfach noch nicht sehen, weil unsere Wissensfähigkeit dramatisch eingeschränkt ist.

 

(14) Andererseits, während die Biologen stark an den konkreten Eigenschaften von Manifestationen des Lebens ‚hängen‘, kann man versuchen, diese Eigenschaften von einem ‚abstrakteren‘ Standpunkt aus zu betrachten, was ich in den vorausgehenden Blogeinträgen versucht hatte. Nach dem bekannten Spruch, dass man ‚den Wald vor lauter Bäumen nicht sieht‘, kann die Vielzahl der Eigenschaften biologischer Systeme das Denken daran hindern, die im Leben implizit vorhandenen Strukturen zu erkennen. In meinen Überlegungen hatte ich versuchsweise angenommen, dass die gesamte Maschinerie biologischer Systeme (z.B. der ganze ‚Körper‘), dessen Komplexität uns erschlägt, möglicherweise nur ein ‚Mittel zum Zweck‘ ist, nämlich die Rahmenbedingungen für ein neuronales System zu schaffen, dessen Zweck wiederum die Fähigkeit ist, ‚Eigenschaften der Welt‘ in ‚kognitive Strukturen‘ umzuwandeln, durch die das gesamte Universum schrittweise ‚transparent‘ wird und damit ’sich selbst‘ nahezu beliebig ‚umbauen‘ könnte. Wie wir heute wissen, lässt sich jede Form von uns heute bekanntem Wissen und Denken über minimale Potentialsysteme realisieren, die beliebig vernetzbar sind. Von diesem Leitgedanken aus liegt es nahe, die Vielfalt der Eigenschaften biologischer Systeme unter dieser Rücksicht zu analysieren. Dies führte zur Idee des minimalen Differenzsystems, vernetzbar, energetisch betrieben, kopierbar mit Veränderungen. Alles keine wirklich neue Gedanken.

 

(15) ‚Leben‘ wäre dann also jenes Phänomen im Universum, das in der Lage ist, ausgehend von den freien Energien einer nicht-maximalen Entropie beliebig skalierbare Differenzsysteme erzeugen zu können, die sich variierend kopieren lassen, und die mit ihren jeweiligen Umgebungen (und damit mit sich selbst) interagieren – und das heißt auch: kommunizieren – können. Mit welchem konkreten Material und unter welchen konkreten Randbedingungen dies auftritt, ist unwesentlich. Das ‚Geistige‘, das sich in Gestalt von ‚Lebensformen‘ zeigt, ist letztlich eine implizite Eigenschaft der gesamten umgebenden Materie-Energie, weswegen es nicht klar ist, was das Verschwinden eines konkreten Körpers (‚Tod‘) für das Phänimen des ‚Geistes‘ letztlich bedeutet. Seiner ‚Natur‘ nach kann ‚Geist‘ nicht ’sterben‘, nur eine bestimmte Realisierungsform kann sich ändern.

 

 

 Unsere Verwandten die Tiere 1

 

 

Eine Übersicht über alle bisherigen Blogeinträge findet sich hier.

 

 

 

LITERATURHINWEISE

 

Gale, J.; Astrobiology of Earth. The Emergence, Evolution, and Future of Life on a Planet in Turmoil. New York: Oxford University Press, 2009

 

Storch, V.; Welsch, U.; Wink, M.; Evolutionsbiologie. 2.Aufl. rev. and ext., Berlin – Heidelberg: Springer Verlag, 2007

 

Ward, P.D.; Brownlee, D.; Rare earth. Why Complex Life is Uncommon in the Universe. New York: Springer-Verlag New York, Inc., 2000

DIE ANDERE DIFFERENZ – TEIL2 – THEORETISCHE MODELLE

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 3.März 2012

(1) Die Charakterisierung von ‚Leben‘ über das Konzept der ‚Differenz‘ (siehe vorausgehende Blogeinträge) kann mit unterschiedlichen theoretischen Konzepten formuliert werden. Wichtig dabei ist, dass man nicht die konkreten ‚Bestandteile‘ eines biologischen Organismus betrachtet, sondern die ‚Funktion(en)‘, die durch diese verfügbar werden. So kann man z.B. die grobe Unterteilung machen in ‚Versorgungsstrukturen‘ (Energie, Bewegung, Fortpflanzung,…) und ‚Informationsstrukturen‘. Letztere unterteilt nach ‚Strukturinformationen‘ und ‚Arbeitsinformationen‘.

(2) DNA-Moleküle (und zusätzliche Moleküle) realisieren Informationen über potentielle Körperstrukturen und jenen Wachstumsprozessen, die zu deren Aufbau führen; sie gelten damit als ‚Strukturinformationen‘. Die Nervensysteme (Gehirne), die sich mittels Strukturinformationen ausbilden können, besitzen als Eigenschaft eine spezifische ‚Lernfähigkeit‘, die es ermöglicht, dass aktuelle Ereignisse im und außerhalb des Körpers registriert und verarbeitet werden können. Diese Art von Informationen gehört zur ‚Arbeitsinformation‘.

(3) Von einem gewissen Abstraktionspunkt aus betrachtet könnte man sagen, dass der ‚Zweck‘ von biologischen System letztlich die Bereitstellung von solchen Strukturen ist, die fähig sind, Arbeitsinformationen zu realisieren. Alle anderen Strukturen haben einen ‚Supportcharakter‘: damit Arbeitsinformationen realisiert werden können, muss beständig hinreichend viel Energie herbeigeschafft werden; damit hinreichende Bewegungen im Raum möglich sind, müssen entsprechende Raumstrukturen durch Knochen, Sehnen und Muskeln bereitgestellt werden; damit der gesamte Prozess erhalten bleibt, müssen alle notwendigen Strukturinformationen hinreichend gut kopiert und partiell modifiziert (Mutation) werden können.

(4) Im folgenden soll daher das Konzept der ‚biologischen Differenz‘ vor allem am Beispiel solcher Strukturen erklärt werden, die dazu dienen, Arbeitsinformationen zu realisieren; alle anderen bleiben hier momentan außer Betracht.

 Kopplung von Differenzsystemen

 Bild 1: Kooperierende Differenzsysteme

(5) In der Literatur gibt es mehr als tausend Publikationen zu sogenannten künstlichen Neuronen, mittels deren man das Verhalten von biologischen Neuronen (Nervenzellen) modellieren kann. In diesem Kontext soll – soweit dies bei all dem Hintergrundwissen heute noch möglich ist – weitgehend von diesen bekannten Modellen abgesehen werden und ausgehend von dem Differenzgedanken die Frage nach einer minimalen Modellierung nochmals gestellt werden.

(6) Wie die Handskizze in Bild 1 andeutet, reichen als Annahmen die Folgenden: (i) wesentlich muss ein Differenzsystem zwischen mindestens zwei Zuständen {‚1‘, ‚0‘} wechseln können, wobei einer dieser Zustände, der ’sensitive‘ oder ‚kritische‘, durch Zuführung von Energie E künstlich erzeugt wird (hier angenommen als Zustand ‚1‘). (ii) Spezifische Umweltereignisse können ein spezifisches Eingangsereignis σ (Klein-Sigma) erzeugen, bei dessen Auftreten das Differenzsystem vom kritischen Zustand ‚1‘ in den unkritischen Zustand ‚0‘ übergeht. (iii) Beim Verlassen des kritischen Zustands wird ein spezifisches Ausgangsereignis ξ (Klein-Xi) erzeugt, das in die Umgebung des Differenzsystems hineinwirken kann. (iv) Sofern genügend Energie vorhanden ist, kann das Differenzsystem DS durch Zuführung von Energie wieder in den kritischen Zustand ‚1‘ zurückkehren. Damit wären die minimalen Bestandteile eines biologischen Differenzsystems für Arbeitsinformationen beschrieben. Für theoretische Zwecke könnte man auf weite Strecken auch auf den Faktor Energieversorgung E verzichten. Andererseits kann der Faktor Energie E ein Parameter sein, der helfen kann, die ‚Kosten‘ eines Differenzsystems, vor allem wenn es viele sind, die im Verbund arbeiten, abzuschätzen (Biologische Differenzsysteme in realen Systemen haben noch weit mehr Elemente, diese gehören aber zur ‚Versorgungsstruktur‘, die wir hier ausklammern). Als Besonderheit von biologischen Differenzsystemen sollte man noch erwähnen, dass es im Bereich der Eingangsereignisse σ neben den ’normalen‘ Ereignissen σ+ auch solche Eingangsereignisse σ- gibt, die den gesamten Eingang neutralisieren können, d.h. Liegt ein negatives ‚hemmendes‘ Eingangsereignis vor, dann sind alle anderen positiven ‚aktivierenden‘ Eingangsereignisse wirkungslos.

 Hemmende Ereignisse

 Bild 2: Blockierende (hemmende) Eingangsereignisse

(7) Biologische Differenzsysteme kann man dann beliebig ‚kombinieren‘, entweder entlang von Außenweltmembranen, um Umweltereignisse ‚außerhalb‘ des Systems ins ‚Innere‘ des Systems zu transformieren, oder um Outputereignisse an andere Differenzsysteme weiter zu reichen. Für diese nachfolgenden Differenzsysteme sind die Outputs des einen Systems dann Inputs. Statt explizit die Differenzustände {‚1‘, ‚0‘} anzuführen, könnte man auch allgemein eine Differenzfunktion δ: σ x κ → κ‘ x ξ hinschreiben, also wenn ein Inputereignis σ auftritt und ein kritischer Zustand κ (Klein-Kappa) liegt vor, dann geht das System, in den unkritischen Zustand κ‘ über und erzeugt gleichzeitig ein Outputereignis ξ. Ein Differenzsystem wäre dann eine Struktur wie folgt < σ, κ, κ‘, ξ, δ> (ohne Energiekomponente) oder < σ, κ, κ‘, ξ, δ, E,EO> mit ι: EO —> E; ι (Klein-Iota) ist die Energiefunktion, die aus einem Energieeingangspuffer Energie in den Systemenergiepuffer E überführt.

 3-3-12_4b_differenzkoopelungparallel.png

 Bild 3: 5 Differenzsysteme {1,…,5}

(8) Eine Komposition von Differenzsystemen wäre dann eine Menge von Differenzsystemen N mit der Angabe ihrer Verbindungen Δ (Gross-Delta), also <N, Δ>. Ein einfaches Beispiel zeigt die Handskizze Nr.3: 5 Elemente sind angeordnet, und die Beschreibung der Anordnung erfolgt über eine Menge von geordneten Paaren, also z.B. der Ausgang von Element N1 geht auf den Eingang von Element N2 wird geschrieben ‚(1,2)‘, usw. Die Menge aller dieser Verbindungspaare wird geschrieben als Δ = {(1,2), (2,3), …}. Die Menge der Verbindungen Δ bildet also eine Struktur. Die Struktur gehört zur ‚Strukturinformation‘; die Informationen, die innerhalb solcher Strukturen ‚laufen‘ können, bilden die ‚Arbeitsinformation‘.

(9) Wie die Handskizze auch andeutet, arbeiten alle Elemente eines realen biologischen Differenzsystems ’simultan‘ oder ‚parallel‘. Wie verhält sich dies zum bekannten Konzept des ‚Automaten‘, wie ihn die Informatik als Grundbegriff für alle Phänomene der Berechenbarkeit benutzt? Nach der These von Church (1936) lassen sich ja alle berechenbare Prozesse zurückführen auf allgemein rekursive Prozesse, insbesondere dann auch auf die Turingmaschine. Es wäre eine interessante Frage, ob man das bislang skizzierte Differenzensystem mit einer Turingmaschine gleichsetzen könnte. Der Grundtyp eines Automaten arbeitet nicht parallel, sondern ’sequentiell‘.

 3-3-12_2b_automaton.png

 Bild 4: Automat als Grundbegriff

(10) Die Grundelemente eines Automaten, die sich letztlich von dem Konzept der Turingmaschine her ableiten, das Turing 1936/7 eingeführt hatte, bestehen auch aus Input- und Output-Ereignissen, die von einem sogenannten ‚Schreib-Lese-Band‘ stammen. Während ein Differenzsystem grundsätzlich nur einen Zustand umfasst kann ein Automat endlich viele (n) Zustände Q umfassen. Sobald es mehr als ein Zustand ist (n > 0) bilden die verschiedenen Zustände auch eine Struktur Δ ähnlich wie Differenzstrukturen, die man miteinander kombiniert. Die Struktur entsteht hier aber nicht durch fest Verbindungen zwischen Elementen, sondern durch logische ‚Übergänge‘ zwischen Zuständen; diese sind in der Regel abhängig vom jeweiligen Inputereignis σ. Vereinfachend kann man die Struktur Δ eines Automaten dann auch auffassen als eine Menge von Paaren der Art Δ = {(q1, q2), (q2, q3), …} mit ‚q_i‘ als einen der möglichen Zustände.

 3-3-12_12b_differenzkopplungpartitionierung.png

 Bild 5: Zerlegung einer Verbundsystems in individuelle Einheiten

(11) Wie steht es nun mit der sequentiellen Abarbeitung eines parallel arbeitenden Verbundes von Differenzsystemen? Generell kann man sich klar machen, dass bei einer idealen simultanen Verarbeitung diejenigen Inputereignisse σ benutzt, werden die zum Zeitpunkt t verfügbar sind (die Menge aller dieser Inputereingisse bilden den ‚Definitionsbereich‘ oder das ‚Urbild‘ der Berechnungen). Angenommen alle Differenzsysteme arbeiten gleich schnell und benötigen die Zeit (t,t‘) mit t‘ > t, dann erzeugen alle Differenzsysteme zum Zeitpunkt t‘ ein neues Ausgangsereignis ξ (Die Menge all dieser Ausgangsereignisse bilden den ‚Wertebereich‘ aller Berechnungen bzw. das ‚Bild‘). Man kann sich also abstrakt eine ‚Zerlegung‘ (Partitionierung) eines Verbundes von Differenzsystemen vorstellen, die jeweils ein Differenzsystem mit seinen speziellen Eingangs- und Ausgangsereignissen betrachtet. Wenn man jetzt jedes Differenzsystem rechnen läßt – die Reihenfolge ist irrelevant –, dann erhält man nach (t,t‘) für jedes System sein Ergebnis. Ersetzt man im Urbild alle Werte durch die neuen Bild-Werte, erhält man den Nachfolgezustand des Systems. Da es auf die Reihenfolge dieser Rechnung nicht ankommt, könnte man sie auch alle ‚hintereinander‘ (sequentiell) ausführen; dies würde am Ergebnis logisch nichts ändern. Würde die reale Zeit der Abarbeitung von Bedeutung sein, dann müsste man sicherstellen, dass bei einer angenommen Taktrate von T = t‘ – t die Einzelberechnungen mit der Geschwindigkeit T/n (n := Anzahl der beteiligten Elemente) durchgeführt würde. Für eine logische Äquivalenz ist die reale Zeit allerdings irrelevant.

(12) Die vorausgehende Überlegung deutet an, dass es prinzipiell eine Übersetzung der Parallelität in die Sequentialität geben kann. Reicht dies aus für eine Simulation durch eine Turingmaschine TM? Turing selbst hat gezeigt, wie man hier vorgehen kann. Man geht davon aus, dass man die Beschreibung eines Differenzsystem-Verbundes DS = <N, Δ> auf das Schreibleseband schreibt und in jedem Zeitpunkt auch alle Eingangsereignisse, denen dieser Verbund ausgesetzt sein soll. Dann simuliert die TM das Verhalten von DS indem – entsprechend der zuvor skizzierten Idee einer Zerlegung – die Werte für jedes Element individuell berechnet werden und dann die neuen Werte auf das Band als neue Eingangswerte eingetragen werden. Es gibt kein Argument, dass eine TM genau diese Berechnung nicht durchführen kann. Damit ist aber klar, dass eine sequentiell arbeitende Turingmaschine jeden Verbund von Differenzsystemen simulieren kann.

(13) Man kann auch leicht nachvollziehen, dass eine ‚genetische Beschreibung‘ eines Differenzsystem-Verbundes DS letztlich – wie immer die Kodierung auch vorgenommen wird – genau eine Struktur DS = <N, Δ> repräsentiert. Eine geeignete Kopier- und Mutationsfunktion (z.B. im Stile eines genetischen Algorithmus GA) könnte dann aus bestehenden Strukturen neue Strukturen generieren, die dann zum Ausgangspunkt neuer Simulationen werden.

(14) Eine andere Variante sind zelluläre Automaten. Ein zellulärer Automat (cellular automaton, CA) bezieht sich auf einen Bereich (analog dem Band eines Automaten), der im Prinzip n-dimensional sein kann. Die Funktion der Differenzsysteme haben hier Übergangsregeln der Art m —> m‘, d.h. bei Vorliegen eines bestimmten Musters m im Bereich wird dieses ersetzt durch ein Muster m‘. In der Regel ist die Menge der Regeln Δ_ca größer als 1, also Δ_ca| > 1. Alle Regeln sind gleichberechtigt, d.h. Sie werden simultan (parallel) abgearbeitet (Beispiele finden sich z.B. in dem Artikel von Gardner über Conways ‚Game of Life‘ oder im Buch von Wolfram). Ein zellulärer Automat CA besteht also aus einem Bereich W und einer Menge von Umformungsregeln Δ_ca, also CA = <W, Δ_ca>. Für jedes Element w in W werden die passenden Regeln δ aus Δ_ca angewendet, man erhält eine Folgezustand W‘. Um einen zellulären Automaten durch eine Turingmaschine zu simulieren zerlegt man den Bereich W in geeignete Teilbereiche, berechnet für jeden Teilbereich die neuen Werte w und dann setzt man den Nachfolgebereich W‘ daraus zusammen. Dieses Verfahren setzt voraus, dass die Zielbereiche in jeder Zerlegung disjunkt (voneinander unabhängig) sind. Daraus folgt, dass ein zellulärer Automat nicht mächtiger ist als eine Turingmaschine (Anmk: Man kann einen zellulären Automaten auch mittels einer kontextsensitiven Grammatik beschreiben).

(15) Die Beziehung zwischen einem Verbund von Differenzsystemen DS und einem zellulären Automaten kann man sich dadurch klar machen, dass man (siehe Bild 5) sich den Bereich W des CA vorstellt als eingeteilt in feste disjunkte Unterbereiche W_1, W_2 usw., denen bestimmte Umformungsregel ebenfalls fest zugeordnet sind. D.h. Ein Verbundsystem von Differenzsystemen ist eine eingeschränkte Version eines zellulären Automaten.

(16) Was man aus diesen Überlegungen entnehmen kann ist die Einsicht, dass biologische Differenzsysteme, sofern sie genau die Eigenschaften besitzen, die hier unterstellt wurden, sich mit den Mitteln von Automaten (maximal einer Turingmaschine) simulieren lassen. Dies wiederum bedeutet, dass man im Rahmen der Forschung (einschließlich philosophierender Wissenschaft) einen Simulationsansatz ohne Einschränkung der Allgemeinheit benutzen kann.

(17) Letzte Bemerkung: Statt mit Automaten könnte man auch mit Classifier-Systemen arbeiten (Details dazu in meinem <a href=“http://www.uffmm.org/science-technology/single/themes/computer-science/personal-sites/doeben-henisch/KNOW/gbblt/index.html“> GBBCLT-Skript</a>).

LITERATURVERWEISE

Church, A.; „An Unsolvable Problem of Elementary Number Theory“, Amer.J.Math. 58 (1936) 345-363

Gardner, M. „MATHEMATICAL GAMES. The fantastic combinations of John Conway’s new solitaire game ‚life’“, Scientific American 223 (October 1970): 120-123.

Turing, A. M. „On Computable Numbers with an Application to the Entscheidungsproblem“, In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

Wolfram, S., „A New Kind of Science“, Champaigne (IL, USA): Wolfram Media, Inc., 2002

Eine direkte Fortsetzung dieses Beitrags findet sich HIER.

Einen Überblick über alle bisherigen Blockeinträge findet sich hier