DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

WENN DAS STERBEN EINE BOTSCHAFT IST – IST DAS LEBEN NICHT WEIT. Gedanken anlässlich des Todes einer Freundin.

Vorbemerkung: Für diejenigen, die nicht daran gewöhnt sind, die Dinge des Lebens neben den Gefühlen auch mit Wissen zu betrachten, ist dieser Text vielleicht nicht hilfreich. Für diejenigen aber, die nach Antworten auf ihre Fragen suchen, kann der Text vielleicht die eine oder andere Anregung geben.

IM ALLTAG

  1. Wenn ein Mensch stirbt eingeflochten in ein lebendiges Netzwerk von Familie, Verwandtschaft, Freundschaften und Bekanntschaften, dann ist dies ein Ereignis, das nicht nur singulär, individuell an einem Ort, zu einem Zeitpunkt, isoliert von allem stattfindet; nein, alle anderen erleben es mit, registrieren es; dieses Erleben breitet sich aus wie eine Erregungswelle und löst sehr unterschiedliche Wirkungen aus.

  2. In diesem Fall der Freundin ging eine lange Krankengeschichte voraus, ein Gehirntumor war entdeckt worden. Nach dem Wissensstand der heutigen Schulmedizin galt er als unheilbar, weil man bislang kein Mittel gefunden hatte, ein solches Wachstum ernsthaft zu stoppen. Trotz aller Maßnahmen wurde immer mehr klar, was dies konkret heißt: zunehmender Verfall von Gehirn und Körperfunktionen. In den letzten Monaten war der Körper zwar noch da, aber die gewohnten geistigen Funktionen waren kaum noch wahrnehmbar. Bis zu dem Moment, wo die Ärzte dann nur noch den endgültigen körperlichen Tod feststellen konnten.

  3. An dieser Stelle ist es müßig, darüber zu diskutieren, ob es nicht irgendwie, irgendwo doch noch möglich gewesen wäre, das bekannte Leben zu verlängern oder gar ganz zu retten. Im Fall der Freundin hat das bekannte Leben aufgehört, für uns, die wir noch in diesem körperbasierten Leben anwesend sind.

DAS UNABÄNDERLICHE

  1. Unwillkürlich tauchen die Bilder einer Beerdigung auf, alle werden da sein, der Behälter mit der Asche wird das letzte sein, was wir sehen werden, bevor dieser sich in die Erde absenkt und die letzte Spur ihres Körpers unseren Sinnen entschwindet.

  2. Egal was jeder einzelne in diesem Moment denken wird, dieser Moment hat für einen Moment etwas Unabänderliches: unsere Freundin ist so, wie wir sie all die Jahre erleben durften, gegangen, gegangen worden… und zum aktuellen Zeitpunkt müssen wir davon ausgehen, dass jeder von uns ihr, in nicht allzu ferner Zeit, folgen wird, jeder, vielleicht bin ich selbst sogar der nächste, der folgt. Und wenn ich es nicht bin, dann ist es ein lieber anderer Freund oder Freundin. Die Handschrift des Sterbens durchzieht unser Leben sehr tief, sehr unweigerlich, noch sehr unfassbar.

TRAUER

  1. Mit Blick auf unsere Freundin, auf die noch lebendigen Erinnerungen an ihre gewohnte Gegenwart, ist Trauer natürlich, menschlich, eine Form von Nähe, von innerer Umarmung, von Verweilen, von Gemeinsamkeit mit allen anderen, die auch trauern. Gemeinsam trauern ist wie gemeinsam in der Musik etwas erleben. Wir erleben uns als eine Gemeinschaft, als die Gemeinschaft, die die Erinnerung an die Freundin teilt.

  2. Man kann es bei der Trauer belassen, bei den bleibenden Erinnerungen an ihren lebenspendenden trockenen Humor, ihre unaufdringliche Hilfsbereitschaft bei so vielen Gelegenheiten, ihre konkrete Sorge für die Familie und alle anderen, und vieles mehr …

NICHT DIE GANZE GESCHICHTE …

  1. Doch, es wäre schade, würde das Erleben an diesem Punkt verweilen, stille stehen. Der Vorgang des körperlichen Sterbens, so wie wir ihn erleben und wie die Menschen von Anbeginn es erlebt haben, dieser Vorgang ist nur ein kleiner Teil einer unfassbaren Geschichte, von der Geschichte eines unfassbaren Wunders, das seit Milliarden Jahren in den Tiefen unseres Universums stattfindet.

IM STERBEN OPFER

  1. Als bekannt wurde, dass unsere Freundin einen Gehirntumor hat, der unheilbar sein soll (nach heutigem Kenntnisstand), und wir alle (und ihre Familie ganz besonders) dann erfuhren, wie das Gehirn und damit nach und nach alle Körperfunktionen, abstarben, da erlebte die Freundin sich als hilflos, ja, man darf es wohl auch so sehen, als Opfer von Prozessen in ihrem Körper, denen gegenüber sie sich ohnmächtig empfand. Etwas in ihr veränderte ihren Körper und sie selbst erlebte sich dadurch immer mehr eingeschränkt, begrenzter, schwächer, immer mehr anders als bisher.

DER HAUCH DES GANZ GROSSEN

  1. Von der Wissenschaft wissen wir, dass allein unser menschliches Gehirn gut 200 Milliarden Zellen umfasst, 200 Mrd Individuen, die autonom sein können, dies sind etwa so viele Gehirnzellen, wie es Sterne in unserer Heimatgalaxie, der Milchstraße, gibt. Die Verbindungen zwischen den Gehirnzellen sind aber um das tausendfache komplexer, als jene zwischen den Sternen. Mehr noch, unser ganzer menschlicher Körper besteht aus etwa 1000 solcher Zellgalaxien, also insgesamt ca. 35 Billionen (10^12) Zellen. 1000 Galaxien in unserem menschlichen Körper, das übersteigt zur Zeit unsere Vorstellungsfähigkeit bei weitem (das menschliche Arbeitsgedächtnis kann etwa 7+/-2 Wahrnehmungseinheiten gleichzeitig bewusst verarbeiten!). Und selbst die Wissenschaft, die bisher Großes geleistet hat, steht bislang in allen interessanten Fragen noch eher ratlos vor diesem gigantischen Geschehen. Ernsthaft verstehen können wir aktuell noch so gut wie gar nichts. Die aktuelle Schulmedizin steht noch ziemlich am Anfang.

STÖRUNG DER KOOPERATION

  1. Wenn wir also konstatieren, dass bestimmte Zellen im Gehirn irgendwann anfangen, sich der gewohnten Arbeitsteilung zu entziehen, wenn sie anfangen, eine Kommunikation zu entwickeln, die nur noch dem Fortbestand dieser speziellen Zellen dient und nicht mehr dem Gesamtkunstwerk dessen, was wir ein Gehirn nennen, dann können wir dies als Störung auffassen, die, je nach Verlauf, das gesamte System aus dem Takt bringen kann. Wir erleben es als Krankheit, die zum Versagen des ganzen Körpers führen kann, das, was wir körperlichen Tod nennen.

  2. Man kann hier viele Fragen und Überlegungen anstellen. Die zentrale Frage ist natürlich, warum Zellen plötzlich die gewohnte Kooperation verweigern? Was veranlasst Zellen dazu, ihre Kommunikation, ihr Verhalten zu ändern? Und wenn es irgendwelche Zellen tun können, kann man fragen, warum es nicht noch mehr Zellen tun? Warum verweigern nicht noch viel mehr Zellen die Kommunikation mit dem Gesamtsystem? Dies wiederum kann man in die Frage transformieren, was überhaupt autonome Zellen dazu bringt, mit anderen zu kooperieren?

DAS WUNDER DER KOOPERATION

  1. Aus der Geschichte des Lebens wissen wir, dass es von den ersten einzelnen Zellen bis zu einfachen Zellverbänden ca. 2 Mrd Jahre gebraucht hat, und dann nochmals ca. 1 Mrd Jahre bis zu komplexen Lebewesen. Dies kann man als Hinweis darauf deuten, dass die Fähigkeit der Kooperation zwischen einzelnen Zellen nichts Triviales, nichts Einfaches ist, kein Selbstgänger. Die Bildung einzelner Zellen ist bis heute nicht vollständig aufgehellt und gilt als extrem komplex. Der Weg von ersten Zellen zu kooperierenden Zellen war aber offensichtlich 6-8 mal aufwendiger (nimmt man die aufgewendete Zeit als Indikator).

  2. Die molekularen Prozesse des Wachstums von Organismen sind zwar mittlerweile weiter erforscht, aber noch nicht vollständig verstanden. Dies zeigt sich auch daran, dass wir die Erhaltungsprozesse eines Körpers (wie werden in den 1000 Galaxien des Körpers einzelnen Zellen systemkonform ersetzt, Stoffwechselprozesse abgestimmt, fremde Eindringlinge erkannt und unschädlich gemacht, usw.) noch nicht genügend verstehen, noch weniger jene Prozesse, durch die sich die Zellen untereinander verabreden, ihre Arbeit ganz einzustellen (Dies ist der Fall des normalen Todes ohne spezielle Krankheiten). Vom Grundkonzept her könnten die 1000 Galaxien des menschlichen Körpers unendlich lange leben (vorausgesetzt, es gäbe eine passende Umgebung). Da aber dieses unfassbare Wunderwerk der 1000 Galaxien auf Kommunikationsprozessen beruht, die zwischen den Galaxien und den einzelnen Zellen ablaufen, müsste diese Kommunikation dauerhaft fehlerfrei funktionieren, was im Normalfall weitgehend funktioniert, weil diese Kommunikation fehlertolerant ist. Störungen, Rauschen, Fehler können in der Regel aufgefangen und ausgeglichen werden. Ein fantastisches System. Wenn Menschen 100 Jahre und älter werden, dann haben die 1000 Galaxien eines Körpers mehr geleistet, als alle menschliche Ingenieurkunst zusammen bislang geleistet hat. Im Moment wären wir nicht in der Lage, vom verfügbaren Wissen aus, vergleichbare Systeme zu bauen.

DER MENSCH FREMDELT MIT SICH SELBST

  1. Dies führt zum eigentlichen Punkt dieser Betrachtung.

  2. Während ein Mensch lebt, sind wir zwar immer wieder mal irgendwie beeindruckt, was ein Mensch so leisten kann, aber diese Beeindruckung hat deutliche Grenzen. Bei großen künstlerischen, sportlichen oder wissenschaftlichen Leistungen gibt es vielleicht Momente des Schauderns, aber so richtig, tiefgehend, radikal lassen sich Menschen selten von sich selbst (von den anderen Lebensformen reden wir hier noch gar nicht) beeindrucken. Wie auch, bei 6 oder mehr Mrd Menschen auf der Erde, angesichts von Überbevölkerung, Migrationsströmen, Reich-Arm Schismen, beständigen grausamen Bürgerkriegen irgendwo auf der Erde, da gibt es wenig Motive sich über das Wunderwerk der menschlichen Lebensform zu wundern.

  3. Der normale Mensch weiß in der Regel zu wenig über die Grundlagen des Lebens und selbst die Wissenschaften sind aufgespalten in lauter Teildisziplinen, haben das Wunderwerk in Disziplinen fragmentiert, so dass Zusammenhänge nur schwierig sichtbar werden.

  4. Wenn dann ein Mensch stirbt, ein lieber Mensch, wie unsere Freundin, und wir zuletzt nur noch das Gefäß mit ihrer Asche sehen werden, dann trägt dieser Eindruck des Totalzerfalls auch nicht gerade dazu bei, das strahlende Licht zu erkennen, das sich im Phänomen des Lebens auf der Erde seit ca. 3.8 Mrd Jahren manifestiert.

ANGEBORENE DENKSCHWÄCHE

  1. Dazu trägt auch eine Eigenart des menschlichen Gehirns bei, deren wir uns in der Regel nicht bewusst sind, und die auch selbst in der Wissenschaft bislang – scheint mir – zu wenig beachtet wird: unser Denken (eine Eigenschaft des Gehirns) zerlegt die Welt der Erfahrung in Objekte, die zwar irgendwie zusammen hängen, sich beständig in vielfältigen Wechselwirkungen befinden, aber unser Denken nimmt nur die Objekte als eigentliche Realität wahr, nicht die vielsagenden Wechselwirkungen. Die erlebbaren Beziehungen und Wechselwirkungen lassen sich nicht aus ihren Bestandteilen, den Objekten, ableiten. Der eigenständige Charakter der Wechselwirkungen, der Dynamiken, kann von unserem Denken nicht Objekthaft, statisch gedacht werden. Obwohl auch in mathematischen Modellen und Strukturen Objekte alleine nichtssagend, bedeutungslos sind, und erst unter Hinzunahme von Beziehungen und Wechselwirkungen zum Leben erwachen, kann unser Denken im Normalbetrieb diese Dynamiken nicht als die mögliche primäre Wirklichkeit erkennen.

JENSEITS DES STERNENSTAUBS

  1. Vor diesem Hintergrund kann die Asche in der Urne mit den Atomen nicht die letzte Botschaft sein. Zwar ist diese Asche nach heutigem Wissensstand auch im wahrsten Sinne des Wortes Sternenstaub, da alle Atome aus dem Universum stammen, wobei insbesondere die schweren Atome der biologischen Moleküle aus Sternexplosionen stammen, aus den Fusionsprozessen in diesen Sternen hervor gegangen sind.

  2. Aber mehr noch als der Sternenstaub in der Urne sollte uns beeindrucken, was vorher geschehen ist: dass in einem extrem unscheinbaren Winkel des Universums inmitten eines lebensfeindlichen Kontextes sich Atome zu Molekülen geformt haben, Moleküle zu Zellen, Zellverbände zu Organismen, Organismen zu Populationen mit immer komplexeren Kommunikationen und Interaktionen, Technologien, für die es nicht nur bislang keine Naturgesetze gibt, sondern die bekannten Phänomene des Lebens scheinen auf den ersten Blick sogar den bekannten Gesetzen fundamental zu widersprechen.

NICHTS AUS NICHTS

  1. Da nach einem bekannten Grundsatz aus Nichts nichts entstehen kann, wirft das Phänomen des Lebens als Dynamik jenseits seiner Elemente die Frage nach dem auf, was in der Lage ist, die Materie und die verfügbare Energie in einer Weise zu formieren, die in Richtung einer unfassbar anwachsenden Komplexität weist, die alle bekannten physikalischen und chemischen Parameter bei weitem in den Schatten stellt. Die aktuelle Physik und Chemie ist gigantisch, aber die manifesten Phänomene des Lebens sind weit gigantischer und transzendieren die physikalisch-chemischen Kategorien. Im Gesamtphänomen des biologischen Lebens manifestiert sich etwas, was alle unsere bisherigen Denkmodelle arm aussehen lässt (obgleich es gerade diese arm erscheinenden Denkmodelle sind, die uns in der Lage versetzen, die Umrisse eines unfassbar größeren Phänomens zu erahnen).

  2. Soweit wir heute wissen, hatten die Menschen seit vielen Jahrtausenden (mehr als 25.000 Jahre?) Gefühle, Stimmungen, mystische Erfahrungen, die sich nur schwer in das Gesamtgeschehen einordnen ließen. Jede Zeit hat ihren Beitrag geliefert, diese Erfahrungen ins Gesamt des Verstehens einzuordnen (nicht zuletzt auch die bekannten großen Offenbarungsreligionen). Mit den neuen wissenschaftlichen Erkenntnissen kann man darüber nachdenken, dass ein solches gigantisches Phänomen wie das biologische Leben (quanten-)physikalisch eine gemeinsame Basis in allem hat, was eine Abgrenzung des einzelnen Systems von allem anderen unmöglich macht. Abgrenzbare Objekte sind Artefakte unseres aktuellen Denkens. In der physikalischen Realität gibt es keine wirklich abgetrennten Unterräume; alles kommuniziert mit allem; alles ist in beständiger Bewegung. Das – bislang noch nicht wirklich verstandene – Phänomen des Lebens kommt aus der Tiefe der Raum-Zeit als dasjenige, was immer schon da gewesen sein muss, das was über allgegenwärtig ist, das, was sich dort manifestiert, wo es entsprechende materielle Bedingungen vorfindet, bzw. arrangieren kann. Dass die letzten, tiefsten, mystischen Gefühle mit dieser Grundwirklichkeit des Lebens zusammen hängen könnten, ist eine interessante (empirische) Hypothese. Wenn sie wahr wäre, könnte jeder sie für sich ohne Zuhilfenahme von irgendetwas anderem direkt ausprobieren. Das Leben gehört niemandem. Das Leben ist absolut souverän.

  3. Wenn dem so wäre, dann wäre jeder körperliche Tod kein wirklicher Tod, kein absolutes Ende. Die Versuche, das körperliche Leben zu verlängern wären aber auch nicht sinnlos. Irgendwie scheint es einen tieferen Sinn zu machen, dem – ansonsten unsichtbaren – Leben eine körperliche Hülle zu geben, durch die es sichtbar wird, aufscheint, und immer mehr an Kraft gewinnt, das Körperliche (Materielle) weiter zu verändern. Die Entstehung von Materie aus Energie, wäre dann zu lesen als eine Geschichte, in der Materie entsteht, um sie auf lange Sicht in einen Zustand zu transformieren, den wir noch nicht kennen.

  4. Geburt und Tod sind die Meilensteine eines individuellen Lebens, die Gelegenheit geben, sich seiner Rolle im Ganzen bewusst zu werden.

Eine Übersicht über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN. BEISPIEL CHALMERS 1995 – Problem of Consciousness

(Letzte Aktualisierung: Do 28.Juli 2016, 13:06h)

David J.Chalmers, FACING UP THE PROBLEM OF CONSCIOUSNESS, Journal of Consciousness Studies, 2, No. 3, 1995, pp.200-219

KONTEXT

  1. In einem vorausgehenden Blogeintrag mit dem Titel THOMPSON: MIND IN LIFE – Review – Teil 1 hatte ich damit begonnen, eine neue Variante phänomenologischer Forschung zu besprechen, die unter dem Titel Neurophänomenologie begründet worden war. Dieser Ansatz geht zurück auf Varela, der dazu 1996 einen grundlegenden Artikel im JoCS geschrieben hatte, in dem er wiederum auf einen Artikel von Chalmers 1995 geantwortet hatte. Seine Antwort umfasste dann gleich einen kompletten konstruktiven Vorschlag, wie man es anders machen könnte. Bevor der Artikel von Varela hier zur Sprache kommen soll, hier zunächst eine Reflexion auf den Beitrag von Chalmers 1995, der seitdem in zahllosen weiteren Artikeln intensiv diskutiert worden ist.

OBJEKTIV – SUBJEKTIV

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

  1. Im Kapitel 2 (siehe Bild) startet Chalmers seine Überlegungen zum Bewusstsein mit einer Fallunterscheidung in objektive Aspekte des Problems und in subjektive Aspekte.

  2. Die objektiven Aspekte lassen sich nach Chalmers – im Prinzip – im Rahmen der bekannten wissenschaftlichen Disziplinen relativ einfach aufklären. Als wissenschaftliche Disziplinen führt er nur eine einzige an, nämlich die Kognitionswissenschaft (‚cognitive science‘), innerhalb deren er drei methodische Ansätze unterscheidet: computerhaft (‚computational‘), neurophysiologisch und neuronal (’neural‘).

  3. Als Phänomene, die er für die Methoden der Kognitionswissenschaft im Prinzip als einfach (‚easy‘) erklärbar einstuft, zählt er auf: Umgebungsreize, verbale Äußerungen, Aufmerksamkeit, Verhaltenskontrolle, Wachheit und Schlaf, Verhaltenskontrolle und diverse interne Zustände.

  4. Daneben erkennt er aber auch noch eine subjektive Dimension im Wirklichkeitszugang. Diese erschließt sich im Darin sein (‚to be in them‘) in inneren, mentalen Zuständen. Hier trifft man auf Phänomene, Qualia, befindet man sich im Raum des Bewusstseins, im Bewusstsein.

  5. Die subjektive Dimension befindet sich außerhalb des Zugriffs der objektiven Methoden. Insofern nennt er die Fragen des Bewusstseins, die sich im subjektivne Zugang erschließen, als harte (‚hard‘) Fragen. Er spricht hier vom harten Problem (‚hard problem‘) des Bewusstseins.

FUNKTIONALE ERKLÄRUNG MIT GRENZEN

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

  1. Das 3.Kapitel läuft auf die These von der begrifflichen Kluft (‚explanatory gap‘) zwischen funktionaler Erklärung objektiver Phänomene einerseits und der korrelierenden Existenz des subjektiven Phänomens des Bewusstseins hinaus (vgl. Bild 2).

  2. Dies setzt voraus, dass die Wissenschaften, die objektive Phänomene im Umfeld des Bewusstseins erklären, dies mit Hilfe von funktionalen Erklärungen tun können. In einer funktionalen Erklärung F werden die beobachtbaren (zu erklärenden) Phänomene X in Beziehung gesetzt zu anderen beobachtbaren Phänomenen Y, und zwar so, dass der Zusammenhang einen Mechanismus (‚mechanism‘) erkennen lässt, aufgrund dessen das Auftreten von X in Abhängigkeit von Y akzeptiert werden kann. Entsprechend den zuvor angeführten Methoden der Kognitionswissenschaft(en) sieht Chalmers drei Arten von möglichen Mechanismen: (i) Computermodelle, (ii) kognitive Modelle und (iii) neuronale Modelle.

  3. Chalmers sieht keine Möglichkeit, das korrelierende Auftreten einer Bewusstseinserfahrung B im Kontext von beobachtbaren Phänomenen X und Y ebenfalls durch eine funktionale Erklärung G so zu erklären, dass sich zwischen X und Y einerseits und B andererseits ein Mechanismus angeben lässt, der als Erklärung akzeptierbar sei.

  4. Diese Unmöglichkeit der Angabe einer weiteren funktionalen Erklärung versteht Chalmers als Erklärungslücke (‚explanatory gap‘).

BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.4)

Chalmers 1995 kap.4 illustrierende Beispiele

Chalmers 1995 kap.4 illustrierende Beispiele

  1. Im Kap.4 stellt Chalmers verschiedene Autoren vor, mittels deren er seine zuvor eingeführte Klassifikation illustrieren möchte. (vgl. Bild 3)

  2. Diese Beispiele sind aber so karg beschrieben, dass man sie kaum verwerten kann. Als Beleg soll das Zitat von Edelman dienen. Im Buch von Edelman (1989) wird ein sehr ausführliches Bild von den Forschungen zum Bewusstsein vermittelt. Das Stichwort vom ’neuronalen Darwinismus‘ greift hier viel zu kurz (das Buch Edelmans von 1992 Bright Air, Brilliant Fire: On the Matter of thre Mind, das noch umfassender ist, wird erst gar nicht erwähnt)(Anmerkung: In seinem Buch The Conscious Mind (1996) ist Chalmers hier genauer und hilfreicher. Die Bemerkungen hier im Artikel erscheinen da eher nutzlos).

  3. Die Stichworte zu Koch/ Crick und Baars lassen noch am ehesten deren Ideen erkennen. Nach Koch/Crick sind es synchronisierende Oszillationen im Gehirn (Bindungstheorie), die unterschiedliche Aktivitäten bündeln und so komplexe Zustände möglich machen, die eventuell als Korrelate des Bewusstseins (‚correlates of experience‘) angesehen werden können. Ähnlich und doch weitergehender (spekulativer) argumentiert Baars. Er sieht einen Zusammenhang zwischen den Inhalten des Bewusstseins (‚contens of consciousness‘) und dem, was er den globalen Arbeitsbereich (‚global workspace‘) des Gehirns nennt: dies soll jener Bereich sein, in den viele andere Bereiche des Gehirns wichtige Informationen abbilden, über die alle spezialisierten Bereiche kommunizieren. Er nennt dies ein gemeinsames schwarzes Brett (‚communal blackboard‘).

  4. Was immer such die einzelnen Beispiele im einzelnen – nach Chalmers – sagen bzw. sagen wollen, für Chalmers bietet keines der Beispiele (also: keiner der Autoren) eine wirkliche Antwort auf die Frage, warum (‚why‘) es das Phänomen des Bewusstseins parallel zu diesen vielen Prozessen gibt und wie (‚how‘) der Zusammenhang zwischen den physiologischen und den phänomenalen Phänomenen genau zu denken ist.

WEITERE BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.5)

  1. In Kap.5 wir die kursorische Aufzählung weiterer Beispiele fortgesetzt, in der Erklärungsansätze genannt werden, die mit dem Phänomen des Bewusstseins Berührungen aufweisen, aber nichts wirklich erklären sollen.

  2. So wird wird das Konzept nicht-algorithmischer Prozesse von Penrose (1989, 1994) erwähnt. Ein Zusammenhang mit dem Phänomen des Bewusstseins sieht Chalmers nicht.(p.207)

  3. Ähnlich stellt Chalmers auch einen Erklärungszusammenhang zwischen chaotischen und nichtlinearen Prozessen ebenso wenig mit quantentheoretischen Modellen (Hameroff 1994) in Frage. Was erklären diese? (vgl. p.207f)

  4. Chalmers wiederholt hier sein Axiom, dass jede Art von Erklärung physikalischer Prozesse alleine nicht ausreichend sein kann, das Phänomen des Bewusstseins als solches zu erklären. Die Emergenz von Bewusstseinserfahrung entzieht sich einer rein physikalischen Erklärung. Phänomene des Bewusstseins können sich im Kontext von physikalischen Prozessen zeigen, sie müssen es aber nicht.(p.208)

NEUE FUNDAMENTALE ENTITÄTEN

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

  1. Nachdem Chalmers – aus seiner Sicht – herausgearbeitet hat, dass eine Erklärung der Phänomene des Bewusstseins mittels physikalischer Gesetze nicht möglich erscheint, folgt er der Strategie der Physik aus der Vergangenheit, indem man für nicht-reduzierbare Phänomene dann postuliert, dass sie fundamentale Phänomene seien, die ihre eigenen Gesetze benötigen.(vgl. Bild 5)

  2. Insofern diese neuen fundamentale Phänomene nicht isoliert von den physikalischen Phänomenen auftreten, nennt er sie emergente Phänomene, deren korrelierendes Auftreten im Kontext physikalischer Phänomene sich gegebenenfalls mit zusätzlichen überbrückenden Prinzipien (Brückenprinzipien, ‚bridging principles‘) beschreiben lassen.

  3. Die Betrachtung von Phänomenen führt meist auch zur Frage von damit zusammenhängenden möglichen Existenzen (Ontologien, ‚ontologies‘).

  4. Fall sich mit den Phänomenen des Bewusstseins Existenzen ganz eigener Art verknüpfen würden, dann läge eine neue Art von Dualismus (im Stile von Descartes und anderen) vor. Soweit will Chalmers aber nicht gehen. Obwohl es sich bei den Phänomenen des Bewusstseins um nicht-reduzierbare, und damit fundamentale Phänomene handelt, will er sie nicht gänzlich von der natürlichen Ontologie getrennt sehen, wie sie von der Physik beschrieben wird.

  5. Interessanterweise sieht Chalmers eine Theorie des Bewusstseins näher bei der Physik als bei der Biologie, der er jegliche fundamentale Prinzipien im Sinne des Bewusstseins abspricht.(p.211)

AUSBLICK AUF EINE THEORIE DES BEWUSSTSEINS

Chalmers 1995 - Elemente einer neuen Theorie des Bewusstseins

Chalmers 1995 – Elemente einer neuen Theorie des Bewusstseins

  1. Unabhängig davon, was Chalmers über andere Autoren gesagt hat (treffend oder nicht treffend), hat er seine eigene Meinung zu einer möglichen Theorie des Bewusstseins.

  2. Zu Beginn des Kap.7 skizziert er einige grundlegende Annahmen, auf deren Basis er dann weiter voranschreitet.

  3. Wie in Bild 7 angedeutet, soll eine mögliche Theorie des Bewusstseins einfach und kohärent sein und soll Aussagen über reproduzierbare Fakten möglich machen.

  4. Als Basis für die Theorie gibt es einerseits die Eigenschaften der bewusstseinsbasierten Erfahrung, zu denen jeder einzeln, für sich einen direkten Zugang hat, und andererseits empirische Phänomene, wie Umwelt, Körper und Gehirn, speziell auch sprachliche Äußerungen, über die man indirekt auf Eigenschaften des Bewusstseins schließen kann.

  5. Ferner postuliert Chalmers spezielle psycho-physische Brückenprinzipien, die einen Zusammenhang zwischen korrelierenden physikalischen und bewusstseinsbezogenen Phänomenen herstellen.

PRINZIP DER STRUKTURELLEN KOHÄRENZ

  1. Als eine mögliche Richtschnur für die Formulierung der Inhalte einer möglichen Theorie des Bewusstseins beschreibt Chalmers das Prinzip der strukturellen Kohärenz.

  2. Diese Kohärenz sieht er gegeben zwischen dem empirischen Phänomen der Aufmerksamkeit (‚attention‘) und den den subjektiven Phänomenen des Bewusstseins.

  3. Der Begriff der ‚Aufmerksamkeit‘ wird definiert über empirische Phänomene und deren funktionalen Beziehungen.

  4. Ohne eine weitere Analyse der subjektiven Phänomene vorgelegt zu haben behauptet Chalmers nun, dass die Phänomene im Kontext der empirischen Aufmerksamkeit eine bestimmte Struktur erkennen lassen, die sich auch im Bereich der subjektiven Phänomene finde. Er geht sogar soweit, die Ähnlichkeit zwischen beiden Strukturen (Struktur der Aufmerksamkeit, Struktur des Bewusstseins) als isomorph zu bezeichnen (p.213).

  5. Zugleich schränkt er diese Ähnlichkeit dahingehend ein, dass subjektive Phänomene Eigenschaften haben, die sich nicht in der strukturellen Ähnlichkeit erschöpfen. Die kohärente Strukturen beschränken das beobachtbare Verhalten subjektiver Phänomene, aber erschöpfen sie nicht. (vgl.p.213)

  6. Sofern man solch eine strukturelle Kohärenz feststellen kann, macht es nach Chalmers Sinn, die empirischen Phänomene der Aufmerksamkeit als Korrelate bewusster Erfahrung zu bezeichnen.

PRINZIP DER ORGANISATORISCHEN INVARIANZ

  1. Chalmers formulierte noch ein weiteres Prinzip, das von der organisatorischen Invarianz. Es ist kein mathematisches Prinzip, sondern eher ein Postulat über empirische Strukturen.

  2. Ausgangspunkt sind zwei Systeme S1 und S2. Beide haben eine funktionale Organisation, d.h. Es gibt jeweils irgendwelche Mengen von Elementen M1 und M2 und jeweils irgendwelche Funktionen F1 und F2, die über den Mengen M1 und M2 definiert sind, also S1(x) iff x=<M1,F1> bzw. S2(x) iff x=<M2,F2>.

  3. Chalmers postuliert nun, dass, wenn beide Systeme S1 und S2 die gleiche funktionale Organisation haben (‚functional organization‘), dass sie (?) dann auch die qualitativ gleiche Erfahrung (‚qualitatively identical experience‘) haben.

  4. Diese Formulierung wirft einige Fragen auf.

  5. Nimmt man an, dass er mit Erfahrung wie zuvor im Text immer die Erfahrung des Bewusstseins meint, dann stellt sich die Frage, in welchem Sinne ein System S1 oder S2 eine bewusste Erfahrung haben sollen? Nach allem zuvor Gesagtem haben empirische Systeme nicht notwendigerweise eine bewusste Erfahrung.

  6. Wenn Chalmers aber meint, dass die Systeme S1 und S2 für empirische Systeme stehen, die Korrelate von bewussten Erfahrungen sind, dann würde das Prinzip besagen wollen, dass zwei verschiedene empirische Systeme S1 und S2, die Korrelate von jeweils einem Bewusstsein B1 bzw. B2 sind, diesen korrelierenden Bewusstseinen B1 und B2 jeweils identische Erfahrungen übermitteln.

  7. Direkt beweisbar ist dieses Prinzip nicht, da der direkte Zugriff auf bewusste Erfahrungen von den beiden Bewusstseinen fehlt, aber es ist eine sehr plausible Arbeitshypothese. (vgl. p.215) Diese Arbeitshypothese würde es zumindest ansatzweise verständlich machen, warum zwei verschiedene Menschen ansatzweise über ähnliche Erfahrungen verfügen können.

DIE THEORIE DES DOPPELTEN ASPEKTS DER INFORMATION

  1. Chalmers klassifiziert die beiden vorausgehenden Prinzipien als nicht basale Prinzipien. Nichts desto Trotz sind sie für ihn hilfreiche Beschränkungen (‚constraints‘).

  2. Jetzt will er ein erstes basales Prinzip mit Hilfe des Begriffs der Information einführen.

  3. Bei dieser Einführung des Begriffs Information bezieht er sich zwar ausdrücklich auf Shannon (1948), ersetzt aber die Begrifflichkeit von Shannon sogleich durch die Begrifflichkeit von Bateson (1972), indem er die einzelnen physikalischen Informationen als Differenzen bezeichnet, die eine Differenz konstituieren (Originalzitat Bateson: A „bit“ of information is definable as a difference which makes a difference. Such a difference, as it travels and undergoes successive transformation in a circuit, is an elementary idea. (Bateson 1972, p.335)

  4. Dann überträgt er diese Begrifflichkeit auf die empirischen und auf die subjektiven Phänomene, indem er für die Menge der korrelierenden empirischen Phänomene einen Informationsraum Ie postuliert und für die Menge der subjektiven Phänomene auch einen Informationsraum Is. Ferner postuliert er, dass die Elemente in jedem dieser Räume durch eine Menge von Differenzen charakterisiert werden – also <Ie,De> sowie <Is, Ds> –, dass jedem dieser Räume mit diesen Differenzen dann eine Struktur Ste(x) iff x= <Ie,De> sowie Sts(x) iff x=<Is, Ds> zukomme, die sich direkt korrespondieren (‚directly correspond‘), also CORR(STe, Sts).

  5. Aus den Postulaten werden dann sogleich Behauptungen der Art, dass man sowohl in den empirischen Prozessen wie auch in den subjektiven Erfahrungen die gleichen abstrakten Informationsräume finde.

  6. Nachdem Chalmers die Begriffe Information und Differenz für die theoretische Beschreibung eingeführt hat (niemand hat ihn dazu gezwungen!), folgert er dann aus seinen eigenen Annahmen, als Hypothese, dass Information zwei Aspekte habe: einen physikalischen und einen phänomenalen (:= subjektiven).

  7. Nach diesen begrifflichen Verschiebungen erklärt er dann diese letzte Hypothese zu einem basalen Prinzip, aus dem hervorgehe, dass sich immer dann Erfahrung eines Bewusstseins vorfindet, wenn ein entsprechender physikalischer Prozessraum gegeben ist.(vgl. p.216)

DISKURS

KEINE DOPPEL-ASPEKT THEORIE DER INFORMATION

  1. Chalmers selbst klassifiziert seine Doppel-Aspekt Überlegungen als eher eine Idee denn eine Theorie (vgl. p.217) bzw. weiter vorne als extrem spekulativ und unterbestimmt.

  2. Dies würde ich hier unterschreiben. Denn die Verwendung des Wortes Information durch Chalmers erscheint sehr fragwürdig.

  3. Der Informationsbegriff bei Shannon (1948) setzt einen sehr speziellen Kontext voraus, auf den Shannon klar und deutlich hinweist. Es geht bei der Verwendung des Begriffs der Information bei Shannon NICHT um den Begriff von Information, wie er im Alltag oder bei wichtigen biologischen Kontexten vorkommt, wo unterschiedliche bedeutungsvolle/ semantische Kontexte eine Rolle spielen, sondern AUSSCHLIESSLICH um die jeweiligen Signalereignisse und deren Wahrscheinlichkeiten. Diese Signalereignisse als solche haben weder irgendeinen Informationswert noch eine irgendwie geartete Bedeutung. Es sind einfach Eigenschaften aus einem Eigenschaftsraum, die sich natürlich qua Eigenschaften durch Unterschiede/ Differenzen indirekt charakterisieren lassen. Aber der Begriff der Differenz setzt ein X und Y voraus, die minimale Eigenschaften Px und Py besitzen, aufgrund deren sie sich unterscheiden lassen. Nur unter Voraussetzung von solchen Elementen samt Eigenschaften lässt sich eine Differenz definieren. Ein System von Differenzrelationen setzt mathematisch eine Menge von Elementen voraus, aufgrund deren sich die Relationen definieren lassen.

  4. Der Sprachgebrauch von Bateson (1972) mit seinen Differenzen mag irgendwie interessant klingen, ist aber mathematisch irreführend. Eine Differenz ist abgeleitet von dem X, das sich von anderem Nicht-X unterscheiden lässt. Die Unterscheidbarkeit von Ereignissen X in der Wahrnehmung ist biologisch natürlich bedeutsam, aber das Ereignis als solches keinesfalls, nur die Relationen zu einem Y, das sich biologisch als ‚relevant‘ erweist.

  5. Streichen wir also den Begriff der Differenz im Kontext von Information, da redundant, bleibt der Informationsbegriff, angeblich nach Shannon.

  6. Bei Shannon aber ging es nur um Signalereignisse und deren wahrscheinliches Auftreten, ohne jeglichen Bedeutungsbezug.

  7. Natürlich kann man sowohl die empirischen wie auch die subjektiven Phänomene abstrakt als Ereignisse betrachten, die mit gewissen Wahrscheinlichkeiten auftreten. Das würde aber genau jene Qualitäten an diesen Ereignissen verdecken, die sie für ein biologisches System interessant machen. Biologisch interessant sind ausschließlich Ereignisse, sofern sie Bezug haben zum Überleben generell und innerhalb dessen zu speziellen Kontexten des Überleben. Es sind gerade diese Kontexte, die sich mit Ereignissen assoziieren lassen, durch die Ereignisse mit Bedeutung aufgeladen werden, sodass diese Ereignisse im biologischen Sinn informativ sind.

  8. Dieser fundamentale Aspekt von Information wurde von Shannon ganz bewusst ausgeklammert, da er dies für seinen Anwendungsfall nicht benötigt hat. Bateson und Chalmers brauchen es eigentlich, folgen hier aber – blindlings? – Shannon, obgleich dieser sogar ein großes Warnschild gleich zu Beginn seines Textes aufgestellt hat. DIES IST NICHT INFORMATION IM ÜBLICHEN SINNE!!!

STRUKTURELLE KOHÄRENZ VON WAS?

  1. Nach dieser Entmystifizierung des Differenz- und Informationsbegriffs bleibt von der Doppel-Aspekt Theorie der Information nur noch das übrig, was Chalmers schon zuvor mit dem nicht-basalen Prinzip der strukturalen Kohärenz ausgedrückt hat, dass nämlich die korrelierenden empirischen Phänomene und die subjektiven Phänomene strukturell ähnlich seien. Chalmers bleibt eine Definition jener Strukturen schuldig, die er als gegeben voraussetzt, von denen er immerhin sagt, dass sie isomorph seien, und doch wiederum nicht so, dass alle subjektiven Phänomene durch die empirischen Phänomene dadurch voll bestimmt wären. Eigentlich impliziert Isomorphie eine 1-zu-1 Abbildung; aber dann doch nicht ganz? Was meint er dann?

  2. Wenn man von einer Strukturähnlichkeit zwischen zwei Strukturen S1 und S2 spricht, geht man normalerweise davon aus, dass die beiden Strukturen S1 und S2 nicht nur einfach gegeben sind, sondern auch in ihrer Beschaffenheit genau beschrieben/ definiert sind. Kann man das von den subjektiven Phänomenen des Bewusstseins sagen? Außer von Husserl sind mir keine ausführlichen Untersuchungen zu den Phänomenen des Bewusstseins bekannt, und von Husserls Untersuchungen kann man weder sagen, sie seien vollständig noch liegen sie in einer Form vor, die man als formal befriedigend bezeichnen könnte (obwohl Husserl von der Ausbildung her auch Mathematiker war und von daher das Rüstzeug haben konnte). Diskutabel wäre hier vielleicht Carnaps logischer Stufenbau (1928), der der Struktur von Husserl – soweit bekannt – sehr eng folgen soll. Wovon also spricht Chalmers, wenn er die Strukturähnlichkeit zwischen empirischen und subjektiven Phänomenen behauptet?

WAS BLEIBT VON CHALMERS KRITIK?

NICHTREDUZIERBARKEIT

  1. Der zentrale Punkt von Chalmers Kritik dürfte wohl die Nichtreduzierbarkeit des Subjektiven auf Empirisches sein. Im subjektiv zugänglichen Erfahrungsraum des Bewusstseins erschließen sich Phänomene, die über die rein objektiv-empirischen Phänomene hinausgehen.

  2. In seiner ablehnenden Kritik empirischer Ansätze kommt immer wieder auch der Begriff der Funktion vor; funktionale-empirische Erklärungsansätze sollen nicht reichen. Diese Formulierung kann missverständlich sein. Denn der Versuch, den Raum der subjektiven Phänomene als Phänomene sui generis zu beschreiben, wird – wie auch im Fall empirischer Phänomene – Elementarereignisse einführen, über diese Elementarereignisse diverse Relationen und Funktionen,  und damit letztendlich eine Struktur des subjektiven Phänomenraumes definieren, mittels der man dann möglicherweise Vergleiche, Abbildungen auf andere Strukturen vornehmen kann, z.B. auch, wie von Chalmers praktiziert, auf die Struktur der mit dem Bewusstsein korrelierenden empirischen Phänomene.

  3. Hier stellt sich allerdings das spezielle Problem einer simultanen Abhängigkeit von korrelierenden empirischen und subjektiven Phänomenen: man kann ja nur in dem Maße davon sprechen, dass ein empirisches Phänomen Pe mit einem subjektiven Phänomen Ps korreliert, wenn es ein subjektives Phänomen Ps gibt, das als Ausgangspunkt dient! Ein empirisches Phänomen Pe als solches lässt keinerlei Rückschluss auf ein irgendwie geartetes subjektives Phänomen Ps zu. Die Brückenprinzipien, von denen Chalmers in seinem Artikel spricht, sind induktiv simultan zu definieren. Sie sind nicht einfach da. Es sind nicht die Brückenprinzipien, mittels deren man aus den empirischen Phänomenen Pe die subjektiven Phänomene Ps ableitet, sondern es sind die subjektiven Phänomenen Ps, die sich mit empirischen Phänomenen Pe korrelieren lassen, und aufgrund solcher realisierten Korrelationen kann man vielleicht Brückenprinzipien definieren.

  4. Dies gilt insbesondere auch am Beispiel der sprachlichen Äußerungen, die Chalmers explizit als Indikatoren möglicher subjektiver Erfahrung nennt. Der Sprachschall als solcher bildet ein empirisches Phänomen Pe, dem möglicherweise subjektive Bedeutungsinhalte Ps korrelieren können. Ob dies der Fall ist, kann nur der Sprechende selbst entscheiden, sofern er einen direkten Zugang zu seinen subjektiven Phänomenen hat und von daher weiß, ob sich mit einem bestimmten Sprachschall tatsächlich ein bestimmter subjektiver Sachverhalt verknüpft. Von daher sind sprachliche Äußerungen niemals ein Ersatz für die damit hypothetisch unterstellten subjektiven Phänomene.

Einen Überblick über alle Beiträge von Autor cagent  nach Titeln findet sich HIER.

FOLGT AUS DER ANNAHME VON EMERGENZ DIE FUNKTION-IN-MATERIE HYPOTHESE? Anmerkungen zu Monod, Dawkins, Wilson und speziell Kauffman

Here You can find an audio-version in English, which is not a direct translation of the German text below. Rather it is
an unplugged version of the ideas without a given English Text.
Please excuse my bad English. I did it as a special tribute for Stuart Kauffman, who did such a great Job with his ‚Reinventing the Sacred‚.

  1. Die letzten beiden Blogeinträge standen unter dem Eindruck des evolutionär ungeheuerlichen Phänomens der neuen Geistigkeit eines homo sapiens sapiens (hss, Mensch), der in der Lage ist, die Gegenwart eines Jetzt zu überwinden, indem er über Gedächtnis, Abstraktion, Vergleich, Schlussfolgern und weiteren kognitiven Eigenschaften verfügt, die es ihm ermöglichen, das jeweilige Jetzt einzureihen in eine Folge von Jetzten, in Veränderungen, in Prozesse, in darin waltenden Beziehungen/ Relationen/ Regeln.
  2. Diese Beobachtungen sind nicht singulär. Angeregt durch Gespräche mit meinem Freund MaFa wurde ich ausdrücklich aufmerksam auf jene soziobiologische Diskussion, die sich im Kontext von Personen wie Jacques Monod, Richard Dawkins und Edward O.Wilson findet.
Monod-Dawkins-Wilson

Monod-Dawkins-Wilson

  1. Das Leitthema von Monod, Dawkins und Wilson lässt sich vielleicht zusammenfassen in der These, dass die beobachtbaren Phänotypen und Verhaltensweisen von biologischen Systemen grundlegend und primär von ihren Genen bestimmt wird. Was immer die verschiedenen biologischen Systeme tun (einschließlich des hss), sie folgen in ihrem Tun den grundlegenden Interessen der Gene.
  2. Diese Gedanken sind primär stimuliert durch die Erkenntnisse der modernen Evolutionsbiologie, Molekulabiologie und Genetik. Ein Blick in die mikrobiologischen chemischen Prozesse von Selbstreproduktion lässt wenig Raum für andere Gedanken. Was wir dort sehen sind Moleküle, die miteinander wechselwirken und in diesen Wechselwirkungen neue Moleküle, ganze Zellen generieren, die wieder das Gleiche tun. In dieser Perspektive ist kein Raum für irgend etwas anderes.
  3. Schon stark abstrahierend könnte man die Struktur des DNA-Moleküls (das von anderen Molekülen als Informationsträger interpretiert wird) als Speicher vergangener Erfolgsrezepte deuten und die nicht voraussagbare Variabilität innerhalb des Reproduktionsprozesses als zufälliges Geschehen, das keinerlei außen geleitete Beeinflussungen (Monod) erkennen lässt.
  4. Auffällig ist, dass alle Autoren, insbesondere aber Monod und Dawkins, diese Beobachtungen und Überlegungen zum Anlass nehmen, neben den biologischen Sachverhalten noch kulturelle Interpretationsmuster und -praktiken zu kritisieren, die sich als Religionen darstellen und die das Wort Gott dazu benutzt haben/ benutzen, um dem grundlegend biologischen Geschehen eine spezielle religiöse Deutung unter zu legen: diese beobachtbaren biologischen Prozesse seien letztlich in einem größeren Kontext zu sehen, nämlich dass es einen umfassenden schaffenden Gott gibt (Creator, Schöpfer), der dies alles angestoßen hat und ermöglicht.
Stuart Kauffman - Benutze Texte

Stuart Kauffman – Benutze Texte

  1. Stuart Kauffman, der sich Jahrzehnte mit den physikalischen, biochemischen und molekularbiologischen Grundlagen des Lebens auseinander gesetzt hat, der aber zugleich komplexe mathematische Modellbildungen und Simulationen einbezogen hat, kommt bei den Themen der vorgenannten Autoren zu anderen Schlussfolgerungen.
Abrahamitiche Religionen nd moderner Reduktionismus

Abrahamitiche Religionen nd moderner Reduktionismus

  1. Zunächst einmal macht er darauf aufmerksam, dass in der Tat historisch die abrahamitischen Religionen (Judentum, Christentum, Islam) das Wort Gott sowohl für die letzten umfassenden Erklärungen benutzt haben (Gott als Schöpfer) wie auch als letzte Quelle jeglicher Moralität. Und es war die moderne empirische Wissenschaft, die mit ihrem neuen methodischen Zugang zur Erforschung der Welt zwar neue, starke, belastbare Fakten geschaffen hat, aber keinen Raum mehr lässt für Werte oder spirituelles Erleben. Mit der Kritik an einer problematischen Verwendung des Wortes Gott wurden gleich viele einschlägige Phänomene mit beerdigt. Der modernen Gesellschaft mangelt es daher an jeglicher Basis, um solche Wertsysteme zu schaffen, die jede moderne – und globale – Gesellschaft benötigt, um zu funktionieren.
  2. Kauffman sieht hier eine Art Überreaktion der modernen Wissenschaft, die vor lauter Bemühen, unberechtigte Deutungsansprüche seitens der etablierten Religionen abzuwehren, dabei auch Aspekte ausklammert, die eigentlich zum legitimen Phänomenbereich der Wissenschaften gehören sollten. Diese Überreaktion macht sich fest an einer Denkhaltung, die er Reduktionismus nennt.
  3. Die Diskussion über Reduktionismus ist nicht neu und hat schon zu vielen theoretischen Diskursen vor Kauffman Anlass gegeben. Kauffman greift diese Debatte aber wieder auf und macht anhand zahlreicher Beispiele deutlich, dass die Rückführung komplexer Phänomene auf einfache Bestandteile vielfach zu absurden Rekonstruktionen führt, die im Endeffekt das auslösende komplexe Phänomen praktisch zum Verschwinden bringen, nicht aber wirklich erklären.
  4. Anders gesagt, sei KP ein komplexes Phänomen mit Verhaltenseigenschaft f_kp, das man in Beziehung setzt zu einfacheren Bestandteilen E={e1, …, en}. Dann müsste man Gesetzmäßigkeiten f_e für die Bestandteile E finden, die so sind, dass sich ihre Funktionalität f_e direkt parallelisieren lässt mit der komplexen Funktionalität f_kp. Also ein Zustand S1_e mit Elementen E geht mittels f_e über in einen anderen Zustand S2_e, und parallel, synchron geht ein Zustand S1_kp über in einen anderen Zustand S2-Kp mittels der Funktion f_kp.
  5. Beispiel: ich tippe (komplexes Phänomen KP) bei meinem Computer die Taste ‚A‘ und auf dem Bildschirm erscheint ein ‚A‘. Tief unten im Computer, sagen wir auf der Ebene der logischen Gattern (elementare Bestandteile ) , realisiert in der Hardware, gibt es tausende, hunderttausende oder mehr elektrische Potentiale, wild verteilt im Mehr von vielen Milliarden elektrischen Potentialen, die ihren Zustand ändern, ohne dass man an den vielen logischen Gattern irgend eine Eigenschaft erkennen könnte, warum gerade diese nun ihr Potential ändern und nicht andere. Eine Beschreibung von Potentialänderungen auf der Gatterebene ist zwar möglich, wäre aber wenig hilfreich, um die vielen hunderttausend unterschiedlichen Phänomene auf der Nutzerebene zu unterscheiden. Dies wäre noch schwieriger, würde man noch tiefer steigen und auf die Ebene der Atome zurückgehen, die letztlich jedem logischen Gatter in der Hardware zugrunde liegen. Damit würde jeder Versuch einer systematischen Zuordnung zu komplexen Phänomenen sinnlos.
  6. Analog wäre dies, wenn man die Vielfalt biologischer Phänotypen auf das Verhalten zugrunde liegender Atome zurückführen würde. Man würde alle jene Phänomene verlieren, die gerade das Besondere ausmachen.
  7. Damit stellt sich die Frage, wie man denn komplexe Phänomene anders betrachten kann als im Stil eines Phänomen-vernichtenden Reduktionismus ohne dabei Wissenschaftlichkeit einzubüßen?

EMERGENZ

Emergenz - Enige Thesen von Kauffman

Emergenz – Enige Thesen von Kauffman

  1. Kauffman bringt an dieser Stelle den Begriff Emergenz ins Spiel und erklärt ihn in dem Sinne, dass er sagt, dass erkenntnistheoretisch (epistemologisch) die Rückführung eines Komplexen auf seine Bestandteile dann sinnlos wird, wenn man von den Bestandteilen selbst aus das Komplexe nicht konstruieren könnte. In diesem Fall kommt dem Phänomen eine ontologische Geltung zu, d.h. das Phänomen ist empirisch real, existierend und damit ein mögliches Objekt der empirischen Wissenschaft. Statt es also weg zu interpretieren durch einen sachfremden Reduktionismus muss man stattdessen nach neuen wissenschaftlichen Erklärungen suchen, die dem Phänomen gerecht werden.
  2. So sind es ja auch nicht die Gene selbst, die dem Selektionsprinzip der Natur unterworfen werden, sondern nur jene emergenten Eigenschaften der Phänotypen (Körper), die als reale Phänomene in der empirischen Welt real wechselwirken und darin entweder Leben erhalten oder Leben verlieren können. Die Gene profitieren nur indirekt von diesem Geschehen, insofern sie Teile eines größeren Ganzen sind, das als dieses Ganze eine funktionale Rolle spielt und nur insofern das Ganze überlebt dann auch mit überleben. Die Gene als solche sind nicht überlebensfähig, wohl aber als Teil eines Ganzen, das mehr ist als seine Teile!
  3. Insofern müsste man sagen, dass emergente Phänomene solche sind, die als Ganzes eine Funktionalität, ein Verhalten zeigen, das möglich ist in dieser umfassenden Konstellation. Die Rückführung auf die einzelnen Teile des komplexen Phänomens würde dieser komplexen Verhaltensweise die materielle Basis nehmen. (Etwas Ähnliches haben wir ja auch bei vielen physikalischen Phänomenen. So ist das Phänomen der Gravitation zwar als Wirkung (Verhalten, Funktionalität) zwischen Körpern beobachtbar, aber bei Betrachtung eines einzelnen Körpers alleine wäre sie nicht vorhanden.)
  4. Dies führt – über Kauffman hinausgehend – zu der Überlegung, dass komplexe (emergente) Phänomene nur möglich sind, weil ihre Funktionalität (Verhaltensweise) grundsätzlich in den beteiligten materiellen Komponenten angelegt ist. Diese Verhaltensweisen können sich aber nur zeigen, wenn eine entsprechende Anordnung/ Konstellation der beteiligten materiellen Komponenten vorliegt. Ich nenne dies die Funktion-in-Materie Hypothese. D.h. das, was wir Materie nennen, das ist ein Material, das implizit potentiell nahezu unendlich viele Funktionalitäten (Verhaltensweisen) erlaubt, je nachdem , wie man das Material anordnet.
  5. So wissen wir aus der Chemie, dass sich mit den bekannten Atomen als Bausteinen je nach Kontext nahezu unendlich viele Atomkombinationen (Moleküle) erzeugen lassen, die jeweils ganz andere Verhaltensweisen (Funktionalitäten) zeigen. Diese Funktionalitäten sind real, sie sind nicht zufällig, sondern sie sind die realen Manifestationen von realen Eigenschaften der beteiligten materiellen Komponenten. Sie müssen nicht erfunden werden, sondern sie sind implizit schon immer fester Bestandteil der materiellen Komponenten.
  6. So ist auch die Frage nach dem Ursprung des biologischen Lebens, die sich erst seit kurzem einer möglichen Antwort nähert, letztlich keine Frage nach einem unerklärbaren Wunder, sondern nur die Frage nach jener Konstellation von Materie (Atomen, Molekülen, Kontextbedingungen), durch die genau jene Funktionalitäten zum Zuge kommen konnten, die einerseits implizit zur Verfügung sehen, die sich aber andererseits erst bei entsprechender (auch komplexer) Anordnung zeigt.

BEWUSSTSEIN

  1. Dies lässt möglicherweise auch das Phänomen des (menschlichen) Bewusstseins bzw. die Phänomene des Geistigen in einem neuen Licht erscheinen. Für viele (auch für mich) ist das Phänomen des menschlichen Bewusstseins auf jeden Fall ein emergentes Phänomen im vollen Sinne (nicht erklärbar durch seine Teile, sprich hier die neuronale Zellen).
  2. Für manche (Kauffman, Edelman, …) impliziert die Besonderheit dieses Bewusstseins u.a., dass es von der physikalischen Kausalität seiner Bestandteile abgekoppelt ist, und man versucht diese spezielle Autonomie des Denkens und Wollens durch Rückgriff auf quantenphysikalische Überlegungen zu erklären. Möglicherweise sind diese akrobatischen Denküberlegungen nicht notwendig.
  3. Einmal gibt es seit der Einführung des philosophisch-mathematischen Konzepts der Turingmaschine den logisch-mathematischen Beweis, dass selbst das Verhalten einer voll deterministischen endlichen Turingmaschine, deren Beschaffenheit vollständig bekannt ist, prinzipiell nicht in allen Fällen vorausgesagt werden kan; es ist nicht entscheidbar,  was diese Machine im nächsten Schritt tun wird (das berühmte Halteproblem). Wäre also unser Gehirn formal einer Turingmaschine äquivalent (was manche bezweifeln, weil sie glauben, das Gehirn sei komplexer als eine Turingmaschine), dann wäre das Verhalten des Gehirns nicht in allen Fällen voraussagbar. Wäre das Gehirn noch komplexer, würde sich jede Aussage über ein mögliches Verhalten erübrigen; wir wüssten nicht einmal, wie wir die Frage formulieren sollten.
  4. Zum anderen impliziert ja der Begriff der Emergenz, dass sich das komplexe Phänomen gerade nicht aus seinen Bestandteilen ableiten lässt, sonst hätten wir gar kein emergentes Phänomen. Genauso wenig, wie man aus den logischen Gattern eines Computers irgendeine der komplexen Verhaltensweisen ableiten könnte, die die Programmierung für die Benutzer zur Verfügung stellen, genauso (und noch viel weniger) kann man aus den Neuronen des Gehirns seine erfahrbare komplexe Funktionalität ableiten. Es ist eben so, dass bei einem emergenten Phänomen die simultane Koexistenz der Bestandteile eine Funktionalität sichtbar und möglich macht, die originär ist, nicht herleitbar und erklärbar aus seinen Bestandteilen. Die vielen Diskussionen um Willensfreiheit und deren Infragestellung durch Messungen elektrischer Potentiale einzelner Neuronen ist in diesem Kontext theoretisch absurd und lächerlich.
  5. Dieses hier unterstellte Verständnis von Emergenz wirft allerdings ein neues Licht auf die ganze Frage von Bewusstsein und Geist im philosophischen Sinne.
  6. Generell ist es zwar schwierig, überhaupt über Geist zu reden, da die vielen philosophischen Texte mit so unterschiedlichen Begriffen, Methoden und Blickweisen operieren, aber jeder kann ja sein eigenes Bewusstsein betrachten, seine eigene Geistigkeit, und an dieser ablesen, dass alle unsere Vorstellungs- und Denkinhalte so sind, dass man von diesen in keiner Weise auf die Art ihrer Hervorbringung, nämlich durch eine komplexe neuronale Maschinerie, schließen kann. Das Bewusstsein bildet ein geschlossenes System von Phänomenen, die einer eigenen Logik folgen, die sich zwar eines Körpers und einer unterstellten Außenwelt bedienen kann, aber zugleich in einer speziellen Weise autonom ist: prinzipiell kann alles gedacht werden, alles kann abgeändert werden, alles kann gewollt werden. Im Bewusstsein, im menschlichen Geist, erscheint alles beliebig klein oder groß, alles erscheint möglich. Man kann sogar die ermöglichende materielle Welt als solche untersuchen, beschreiben, neu denken, abändern. Jeder Versuch, diese Phänomene des Bewusstseins, des menschlichen Geistes, auf die ermöglichenden materiellen Bestandteile, zu reduzieren, ist vollständig unsinnig, geradezu absurd.

AGENCY, WERTE

  1. Es ist vor diesem Hintergrund nicht verwunderlich, dass Kauffman in all den emergenten Phänomenen des Lebens – beginnend bei der einfachsten Zelle – eine neue Qualität von Realität am Werke sieht, die er Agentenschaft (‚agency‘) nennt, eine Struktur des autonomen Handelns, die sich in diesem Handeln in keiner Weise mit physikalischen Gesetzen voraussagen lässt. Im Lichte dieser neuen universellen biologischen Agentenschaft werden die bloßen Fakten eingebettet in Verhaltensdynamiken, die nicht mehr nur und alleine von den beschreibbaren Fakten bestimmt/ determiniert sind, sondern die aufgrund ihrer jeweiligen Autonomie neue Zusammenhänge, neue Bewertungen der Fakten sichtbar machen, die die Bedeutung von Fakten für mögliche Lebensprozesse generieren, die als Anhaltspunkte für eine universelle Bewertung von Leben auf der Erde bzw. im ganzen Universum dienen können. Diese neue Form von Bewertungen jenseits bloßer Fakten kann man Werte nennen.
  2. In der bekannten Kulturgeschichte des hss finden sich immer und überall unterschiedliche Bewertungen (Werte) von Verhaltensweisen. Zum Teil kann man ihre Verwurzelung in konkreten Lebensabläufen nach vollziehen, z.T wurden sie aber daraus losgelöst und mit speziellen Autoritäten (oft mit den Namen von Göttern) verknüpft, um ihnen eine über die momentane Situation hinausgehende Geltung zu verschaffen. So verständlich diese Überhöhung von Geltungen für manche Interessengruppen sein mag, auf lange Sicht sind sie lebensfeindlich, da sie die konkreten Bedingungen ihrer Geltung verwischen und sie damit einer notwendigen Transparenz und Kritisierbarkeit entziehen. Emergente Lebensprozesse brauchen Erkenntnisse über lebensfördernde oder lebensfeindliche Wirkungen von Verhalten. Entzieht man diese Erkenntnisse der direkten Kontrolle (durch unhinterfragbare Autoritäten), dann macht man emergente Lebensprozesse blind. Alle bekannten Religionen haben sich dieser Werteverschleierung schuldig gemacht. Alle bekannten Diktaturen benutzen die Methode der Werteverschleierung, um ihren speziellen, letztlich lebensfeindlichen, Prozesse zu begründen. Leider muss man die Wissenschaft, sofern sie reduktiv argumentiert, hier einbeziehen. Durch reduktive Denkstrategien werden nahezu alle lebenswichtigen emergente Phänomene verbal, denkerisch (zum Glück nicht ontologisch) vernichtet.

HEILIGER STUART KAUFFMAN 🙂

  1. Wenn man bedenkt, welch harten Denkweg Start Kauffman von der Physik, Molekularbiologie, Komplexitätstheorie – um nur die wichtigsten Felder zu nennen – hin zu den emergenten Phänomenen zurückgelegt hat, und dann sieht, wie er viele wichtigen emergenten Phänomene (auch Bewusstsein, auch Spiritualität) dem wissenschaftlichen Denken wieder zugeführt hat, dann kommt ihm – aus meiner Sicht – eine große Ehrung zu. Es dürfte nicht all zu viele geben, die ihm in dieser Rolle, in diesem umfassend komplexen Denken mit Offenheit für die emergenten Phänomene, gleich tun. Das eben gehört zum Wunder von Agency, von lebensbasierter Spiritualität, von Emergenz, von menschlicher Geistigkeit.

Eine Übersicht über alle Blogeinträge von cagent nach Titeln findet sich HIER.

WO IST DER STANDPUNKT VON JEDEM EINZELNEN? Eine Notiz

ANGEREGT VON

  1. Angeregt von dem Buch von Matt Ridley Ehe Evolution of Everything. How small Changes Transform our World (2015) ergaben sich viele interessante Fragen. Eine ausführlichere Diskussion des Buches wird im Blog noch erfolgen. Vorab aber erste Impressionen zu der speziellen Frage, die sich mir stellte, ob sich für jeden Menschen skizzieren lässt, was eigentlich der individuelle Ausgangspunkt für den gesamten Weltbezug ist (eine Abstimmung dieser Überlegungen mit den vielen vorausgehenden Beiträgen im Blog könnte zusätzlich hilfreich sein).

ALLGEMEINE BEDEINGUNGEN FÜR LEBEN

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

  1. Im Lichte des verfügbaren empirischen Wissens könnte man versucht sein, vier Dimensionen aufzuspannen:
  2. Den allgemeinsten Rahmen gibt die Naturgeschichte des Universums mit ca. 13.8 Mrd Jahren bislang, durch die die allgemeinsten Rahmenbedingungen festgelegt werden. Ohne diese zu verstehen kann man eigentlich gar nichts verstehen (Übergang von Energie in den Zustand von Materie mit Bewegung und Raum, Bildung von Atomen, Molekülen im Kontext von Gas- und Sonnenbildungen, Galaxien, usw.).
  3. Innerhalb dieses Rahmens haben sich seit ca. 3.8 Mrd Jahren biologische Strukturen herausgebildet, die unter Beachtung der allgemeinen physikalischen Gesetze eine Eigendynamik entwickelt haben, die sich deutlich von den allgemeinen physikalischen Gesetzen abheben.
  4. Sehr spät – also ca. ab 200.000 Jahren vor unserer Zeit – kann man innerhalb der biologischen Strukturen ein Phänomen beobachten, das mit Populationen des homo sapiens sapiens nur sehr unzulänglich beschrieben ist. Populationen des homo sapiens sapiens (hier abgekürzt hss-Populationen) zeigen eine Dynamik, die sich von der allgemein biologischen Dynamik nochmals deutlich abhebt.
  5. Dies neue Art von hss-Dynamik wird initiiert von jedem einzelnen Mitglied einer hss-Population, also von jedem einzelnen Exemplar eines homo sapiens sapiens; diese hss-Exemplare sollen hier Menschen genannt werden.
  6. Jeder einzelne Mensch (kurz für hss-Exemplar) zeigt spezifische Dynamiken im Vergleich zu allen anderen biologischen Individuen, setzt aber alle allgemeinen biologischen und physikalischen Gesetze voraus. Ohne diese kann man ihn nicht verstehen. Zusätzlich zeigt der Mensch aber besondere Dynamiken, die im Wechselspiel mit anderen Menschen im Rahmen von jeweiligen Gesellschaftssystemen zu immer wieder neuen Konstellationen führen können.
  7. Soweit eine erste Sichtweise aus der Sicht der empirischen Wissenschaften. Bei dieser Sichtweise wird vorausgesetzt, dass es eine Menge von wissenschaftlichen Beobachtern OBS gibt, die alle in gleicher Weise diese empirischen Phänomene sehen und beurteilen können.

EMPIRISCHER BEOBACHTER UNVOLLSTÄNDIG

  1. Wie wir aber heute wissen (können) (Anmerkung: siehe z.B. die 9 Blogeinträge HIER; es gab dazu noch viele weitere Blogeinträge), ist der von den empirischen Wissenschaften unterstellte homogene Beobachter eine starke Idealisierung. Diese Idealisierung ermöglicht zwar die Erklärung vieler Begriffe im Kontext der empirischen Wissenschaften, verdeckt aber die ganze komplexe Maschinerie, die notwendig ist, dass der idealisierte empirische Beobachter überhaupt funktionieren kann.
  2. Bezieht man diese komplexe Maschinerie ein, dann betritt man das aufregende unbekannte Land der aktuellen Forschungen, in denen von der einen Seite aus die empirischen Wissenschaften versuchen, das faszinierende Phänomen des Menschen mit empirischen Mitteln aufzuhellen, auf der anderen Seit die sogenannten Geisteswissenschaften, mit zusätzlichen, nicht-empirischen Methoden. Leider herrscht in diesem Forschungsgebiet des Phänomens Mensch eine große Unübersichtlichkeit, wechselseitig viel Unverständnis und unnötige Verteufelungen, natürlich auch schlichte Abgrenzungskämpfe um selbst möglich viel von den knappen Forschungsgeldern zu bekommen. Das interessanteste Phänomen des bekannten Universums, der Mensch, wird also vielfach zerrieben zwischen den Kämpfen der beteiligten Disziplinen.
  3. Ein beliebter Konfliktpunkt im Wechselspiel der vielen beteiligten Disziplinen ist die grobe Unterscheidung zwischen dem empirischen Standpunkt des Beobachters aus der sogenannten 3.Person-Perspektive und und dem subjektiven, introspektiven Standpunkt des Beobachters (als Selbstbeobachter) aus der sogenannten 1.Person-Perspektive.
  4. Die Kritik der empirischen Disziplinen an Untersuchungen im introspektiven Modus ist natürlich berechtigt, da introspektive Untersuchungen sich interaktiv nur sehr schwer (bis gar nicht) zweifelsfrei kommunizieren und überprüfen lassen.
  5. Auf der anderen Seite kulminiert das Besondere des Phänomens Mensch gerade in der Fähigkeit, auf der Basis seines Körpers mit dem Gehirn eine Art Innensicht des Systems genannt Bewusstsein auszubilden, das den Menschen in die Lage versetzt, genau diese Besonderheit an Dynamik zu entwickeln, die Populationen von Menschen deutlich abhebt von anderen biologischen Populationen. Außerdem besteht zwischen der 3.Person-Perspektive und der 1.Person-Perspektive kein absoluter Gegensatz. Die sogenannte 3.Person-Perspektive ist genuiner Teil des Bewusstseins, also der 1.Person-Perspektive. Mathematisch kann man davon sprechen, dass die Perspektive des empirischen Beobachters eine echte Teilmenge der Perspektive der 1.Person ist. Zum vollen Verständnis des empirischen Beobachters muss man letztlich sogar von dieser Teilmengeneigenschaft Gebrauch machen, sonst kann man das Funktionieren des empirischen Beobachters gar nicht erklären.
  6. Dieses spezifische Abhängigkeitsverhältnis des empirischen Beobachters von dem introspektiven Beobachter wurde bislang in den Wissenschaften kaum (oder gar nicht?) tiefer gehender diskutiert und untersucht. Man belässt es gerne bei der Abgrenzung.

SPEZIFISCHE DYNAMIK DES BIOLOGISCHEN

  1. Kommen wir nochmals zurück zur Behauptung, dass sich die biologischen Strukturen von den allgemeinen physikalischen Strukturen durch eine spezifische Dynamik auszeichnen und innerhalb der biologischen Strukturen sich die menschliche Population auch nochmals durch eine spezifische Dynamik auszeichnet. Viele (die meisten?) Wissenschaftler würden solche Feststellungen eher ablehnen. Die Grundtendenz ist (nachvollziehbar und bis zu einem gewissen Grad angemessen), die Vielfalt der Phänomene auf möglichst wenig Grundprinzipien zurück zu führen. Das ist das Erfolgsprinzip der empirischen Wissenschaften bis heute. Allerdings zeigt die Geschichte der Wissenschaften, dass gerade aufgrund dieses Prinzips nicht alles zu einem Einheitsbrei zusammen gedampft wurde, sondern dass gerade im Versuch der Vereinfachung sich auch Besonderheiten gezeigt haben. Die Vielfalt der heute bekannten Materieteilchen (subatomar, atomar, molekular…) kann man zwar auf allgemeine Prinzipien zurückführen, die schließlich alle im Superbegriff der Energie versinken, aber die Vielfalt der Phänomene im Universum allgemein wie speziell auch auf der Erde mit den biologischen Strukturen kann man nicht erklären, indem man im abstraktesten Allgemeinen verweilt.
  2. Ein Charles Darwin hat (im Kontext vieler anderer Denker, die damals ähnliche Phänomene untersuchten) zwar einerseits die Vielfalt biologischer Phänomene auf einige wenige Prinzipien der möglichen Entstehung zurückgeführt, aber diese Rückführung führte nicht zur Aufhebung der Vielfalt selbst. Nein, die Vielfalt blieb erhalten und es kamen Ideen auf, wie nicht nur diese Vielfalt sondern noch ganze andere Vielfalte entstehen könnten. In gewisser Weise erschien die beobachtbare Vielfalt als Manifestation eines Prinzips, das offensichtlich wirkte und genau durch die wechselnden Vielfalte sichtbar wurde. Dass dieses Prinzip dann den Namen Evolution bekam ist fast nebensächlich, Wichtig ist nur, dass überhaupt ein Prinzip entdeckt werden konnte, das mathematisch als Funktion, Abbildung interpretierbar ist:
  3. evol: BIOL x ENV —> ENV x BIOL
  4. Etwa umschreibar mit: gegebene biologische Systeme (BIOL) in bestimmten Umgebungen (ENV) können neue biologische Systeme hervorbringen und dabei zugleich verändernd auf die Umgebung einwirken. Die spezifischen Aktivitäten, Veränderungen dieser vielfältigen Formen werden hier allgemein als Dynamik bezeichnet.
  5. In dieser Allgemeinheit lässt das Evolutionskonzept noch nahezu nichts Konkretes erkennen, fokussiert aber den Blick darauf, dass der kontinuierliche Strom der Formen nicht rein zufällig stattfindet, sondern von Bedingungen abhängt, die nach einem bestimmten Muster neue Formen hervorbringt. Diese Dynamik deutet damit auf eine bestimmte Prozessstruktur hin, auf eine bestimmte mathematisch beschreibbare Logik des Geschehens, die sich nicht in der Beschreibung der einzelnen Teile erschöpft, sondern nur und gerade in der Beschreibung von Abfolgen und Zusammenhängen, durch die sich diese unterstellte Logik manifestiert.
  6. Der Begriff der Emergenz, der in diesem Zusammenhang oft und gerne benutzt wird, erscheint dem Autor dieser Zeilen zu schwach, um der Konkretheit dieser Logik und ihrer massiven Wirkung gerecht zu werden.
  7. Nach Darwin konnte das postulierte Prinzip der Evolution schrittweise immer weiter konkretisiert werden. Mit der Entdeckung von Zellstrukturen, von Molekülen, speziell dem DNA-Molekül, dem Reproduktionsmechanismus der Zellen mit Hilfe von DNA- und anderen Molekülen, dem epizyklischen Geschehen und vielem mehr konnte man die postulierte Logik des Geschehens an immer konkreteren Strukturen festmachen und damit die unterstellte Prozessstruktur verfeinern. Mittlerweile gibt es sogar weitreichende Modelle, die sogar die Entstehung der komplexen Zellen selbst aus einfacheren Bestandteilen unter bestimmten Umgebungsbedingungen plausibel machen können. Auch hier handelt es sich letztlich mathematisch um Abbildungsprozesse, die die Genese/ Konstruktion von komplexen Strukturen aus einfacheren Elementen unter Beteiligung von Wirkprinzipien andeuten. Die Wirkprinzipien selbst jenseits der beteiligten materiellen Komponenten sind nicht direkt beschreibbar, nur in ihren Wirkungen (so wie auch z.B. die Gravitation sich nur indirekt durch das Verhalten der beobachtbaren Materiekonstellationen erschließen lässt).
  8. Die entscheidend Botschaft ist hier also, dass sich in der Dynamik biologischer Strukturen Wirkprinzipien manifestieren, die charakteristisch für das Biologische sind, die auf implizite Eigenschaften der beteiligten Komponenten hinweisen, die sich nur in bestimmten Konstellationen zeigen. Letztlich sind es Eigenschaften der Materie, die sich überall im Universum zeigen können, wenn entsprechende Bedingungen gegeben sind.

ENDLICHE UNENDLICHKEIT

  1. Während ein einzelner Mensch am Beispiel seines Körpers mit dem klaren Beginn (Geburt) und dem klaren Ende (Tod) das Modell eines endlichen Prozesses am eigenen Leib erleben kann (und natürlich vielfältig im Laufe seines Lebens mit anderen Phänomenen), gibt es aus Sicht eines Menschen aber Phänomene, die sein Leben überdauern, die länger als 100 Jahre andauern. Die Endlichkeit wird damit immer ungreifbarer, erscheint immer mehr wie eine quasi Unendlichkeit. Und im Denken kann ein Mensch den Begriff der Unendlichkeit formen als Gegensatz zur Endlichkeit. Es bleibt zwar offen, ob und wieweit dem der gedanklichen Unendlichkeit irgendeine Realität entspricht, aber zumindest gibt es ein Etwas, ein Gedachtes, als Gegensatz zur konkreten Endlichkeit.

UNTERBRECHUNG

  1. Mit diesem angedeuteten Koordinatensystem kann man nun viele bekannte Phänomene diskutieren und zueinander in Beziehung setzen. Vielleicht geschieht dies mit weiteren Blogeinträgen.

Einen Überblick über alle Blog-Beiträge des Autors cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 4

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organisationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

Im Teil 3 geht es um das Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit sieht, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar. Denbigh zeigt dann anhand vieler Punkte dass die Annahme eines Determinismus wenig plausibel ist. Betrachtet man den Gang der Entwicklung dann kann man nach Denbigh etwa folgende Komplexitätsstufen unterscheiden: (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) Aus wissenschaftlicher Sicht müssen sich alle diese ‚Stufen‘ (‚level‘) einheitlich erklären lassen.

KAPITEL 5: GIBT ES IRGENDWELCHE SCHÖPFERISCHEN PROZESSE? (149 – 178)

1. Nachdem Denbigh in den vorausgehenden 4 Kapiteln die Begrenztheit vieler Konzepte in der modernen Physik in den Fokus gerückt hatte (z.B.: dass die Welt nicht deterministisch ist; dass die Naturgesetze Gedankenbilder sind und nicht automatisch eine ontologische Geltung besitzen; dass alle bekannten Prozesse in der Natur irreversibel sind; dass das Konzept einer Symmetrie nicht empirisch gedeckt ist; dass die sogenannten Konservierungsgesetze postuliert wurden bevor sie überhaupt definiert wurden; dass alles darauf hindeutet, dass die Entropie zunimmt ), konzentriert er sich im letzten 5.Kapitel auf die Frage, ob es überhaupt schöpferische/ erfinderische (‚inventive‘) Prozesse gibt.
2. Mit schöpferisch meint er nicht einen Vorgang wie in den religiösen Schöpfungsmythen, in denen quasi aus dem Nichts ein unbekanntes Etwas genannt Gott/ Schöpfer etwas hervorbringt (die Welt), die dann völlig deterministisch abläuft, sondern eher einen abgeschwächten Hervorbringungsprozess, der ohne Notwendigkeit geschieht, nicht voraussagbar ist, etwas wirklich Neues bringt, und der alle Phänomene des bekannten Universums abdeckt. Er geht sogar soweit, zu sagen, dass alle die zuvor genannten Komplexitätsstufen (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) sich als Momente an diesem generischen Innovationsprozess erweisen lassen müssten.

3. Dieser generische Innovationsprozess ist dann allgemeiner als der übliche Emergenz-Begriff. Emergenz beschreibt üblicherweise das Auftreten spezifischer Komplexitätsstufen bzw. -eigenschaften im engeren Sinne und nicht einen generischen Prozess für alle diese Phänomene.

4. In Anlehnung an das bekannte Schema der genetischen Algorithmen (hier ein knapper Überblick zur historischen Entwicklung des Konzepts Genetischer Algorithmus (GA) sowie Classifier Systeme) stellt Denbigh letztlich drei charakterisierende Momente für seine Idee eines Innovationsprozesses vor: 1) Die Ereignisse sind zufällig ; sie sind 2) selektiv (bei biologischen Systemen oft noch verstärkt durch sexuell bedingte Vermischung im Erbmaterial (crossover)(s.160)); schließlich 3) verstärkend aufgrund des anschließenden Erfolges.
5. Er illustriert dieses Schema beim Übergang vom BigBang zu den ersten Gaswolken, dann zu den Sternen und Galaxien, dann bei der Molekülbildung, bei der Zellbildung, usw. Wichtig ist ihm auch, dass dieses Ereignismodell nicht an biologische Substrate gebunden ist, sondern eben von nicht-biologischen Systemen allgemein auch befolgt werden kann, speziell auch von modernen programmgesteuerten Maschinen (Computern).
6. Eine noch allgemeinere Charakterisierung ist jene, die diese schöpferischen Prozesse ansiedelt zwischen Ordnung und Unordnung. Ein Beispiel für hohe Ordnung wären die kristallinen Strukturen (sie sind für schöpferische Prozesse zu starr), und ein Beispiel für Unordnung wäre gasförmige Strukturen (sie sind für schöpferische Prozesse zu instabil, zu flüchtig). (Vgl.S.162f) Mit anderen Worten, bei allem Aufbau von Ordnung muss es hinreichend viel Rest-Unordnung geben, ansonsten kommen alle Prozesse zum Stillstand, oder: gefordert ist ein Zustand unterhalb maximaler Entropie.
7. Wie Denbigh auch in den vorausgehenden Kapiteln schon angedeutet hatte, sieht er spirituelle/ geistige Phänomene einschließlich des Bewusstseins als normale Phänomene des Naturprozesses. (Z.B. S.168f)
8. So sieht er die 6 Komplexitätsstufen von oben auch als Ausprägungen eines allgemeineren 3-stufigen Schemas (i) unbelebt , (ii) belebt sowie (iii) belebt mit wachsendem Bewusstsein. (Vgl. S.171)
9. Unter Voraussetzung seines 3-stufigen Innovationsmodells kann er dann das Bewusstsein als einen Prozess interpretieren, der die Fähigkeit zur Selektion für ein biologisches System dramatisch verbessert. (Vgl. S.163-165)
10. Denbigh kommt in diesem Kapitel auch nochmals auf die Problematik der nichtwissenschaftlichen Voraussetzungen der Wissenschaft zu sprechen, die ich in einem vorhergehenden Beitrag schon angesprochen hatte (der Beitrag war angeregt von der Lektüre von Denbigh).
11. Mit Zitaten von einigen berühmten Forschern und Philosophen thematisiert Denbigh nicht nur allgemein die häufig unreflektierte Voraussetzungsbehaftetheit von Wissenschaft, sondern spricht auch speziell die Tendenz des menschlichen Denkens an, die Prozesse der Natur zu verdinglichen. Während Messgeräte und unsere menschliche Wahrnehmung primär nur isolierte Ereignisse registrieren können, setzt unser Denken diese individuellen Ereignisse automatisch (sprich: unbewusst) zu abstrakten Strukturen zusammen, zu sogenannten Objekten, denen wir dann Eigenschaften und Beziehungen zuordnen. (Vgl. S.164f und Anmk.14) Auf einer größeren Zeitskala gibt es diese Objekte aber nicht, sondern da gibt es nur kontinuierliche Zustandsänderungen eines alles umfassenden Prozesses, dem man zwar Eigenschaften zuordnen kann, aber letztlich nicht isolierte Objekte. Berücksichtigt man diese Artefakten unseres Denkens, dann legt sich der Gedanken nahe, die gesamte Physik von diesem veränderten Blickwinkel aus zu betrachten und zu re-analysieren. Hier verweist Denbigh explizit auf die theoretischen Arbeiten des berühmten Physikers David Bohm (später in Kooperation mit Basil J.Hiley), dessen Ergebnisse nach vielen Jahren Arbeit Eingang in das Buch The Undivided Universe: An Ontological Interpretation of Quantum Theory gefunden haben.

12. Denbigh fasst die manifeste Schizophrenie der modernen Wissenschaft in ihrer Haltung zum Menschen in folgendes Bild: „Die moderne Wissenschaft ist ein gedankliches System, das zwar die kreative Kraft der Menschen umfassend dokumentiert, und doch macht sie den Menschen selbst zu einer Sache/ zu einem Ding (‚thing‘) – also zu einem Objekt, von dem die Wissenschaft annimmt, dass es über eine solche schöpferische Kraft gar nicht verfügt.“ (Anmk.22, S.173)

DISKUSSION

  1. Dieses Buch habe ich als extrem anregend empfunden. Es taucht viele bekannte Positionen in ein neues Licht.
  2. Erkenntnistheoretisch liegt es auf der Linie, die bislang im Blog vertreten wurde, nämlich dass man bei der Diskussion der verschiedenen Phänomene und Positionen die jeweiligen Bedingungen des Erkennens beachten sollte, wenn man zu einer Einschätzung kommen möchte. Und dazu reicht keine klassische Erkenntnistheorie, sondern man muss die  modernen Erkenntnisse aus Psychologie und Biologie einbeziehen. Die Warnung vor einer falschen Verdinglichung der Weltereinisse sollte ernst genommen werden.
  3. Ferner ist der bisherige Erklärungsansatz dieses Blogs über einen generellen Evolutionsbegriff in Übereinstimmung mit dem generellen Innovationsansatz von Denbigh. Tatsächlich erscheint Denbighs Ansatz noch radikaler, generischer.  Dies soll im weiteren mehr bedacht werden.
  4. Die klare Subsumierung alles Geistigen unter den allgemeinen Naturprozess entspricht auch der Linie im Blog. Dieses führt aber nicht — wie Denbigh auch klar herausstellt — zu einer Vereinfachung oder Abwertung des Geistigen sondern zu einem vertieften Verständnis  der potentiellen Vielfalt und Komplexität der Energie-Materie. Mit der unterschiedlichen Einordnung geht ja nicht das Phänomen verloren, sondern die begriffliche Einordnung muss neu justiert werden. Dies verlangt nicht nur eine Neupositionierung der bisherigen Geisteswissenschaften, sondern genauso auch eine Neupositionierung der Naturwissenschaften. Diese erweisen sich bislang aber als nicht minder dogmatisch wie die oft gescholtenen Geisteswissenschaften.

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
  2. David Joseph Bohm FRS[1] (December 20, 1917 – October 27, 1992) was an American scientist who has been described as one of the most significant theoretical physicists of the 20th century[2] and who contributed innovative and unorthodox ideas to quantum theory, neuropsychology and the philosophy of mind.
  3. Basil J. Hiley (born 1935), is a British quantum physicist and professor emeritus of the University of London. He received the Majorana Prize „Best person in physics“ in 2012.
  4. Review von: „The Undivided Universe: An Ontological Interpretation of Quantum Theory“ von David Bohm and Basil J. Hiley, Routledge, London and New York, 1993. 397 pp. hc, ISBN 0–415–06588–7 durch Sheldon Goldstein, Department of Mathematics, Rutgers University, New Brunswick, NJ 08903, USA(July 28, 1994)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 2

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

NACHTRAG: Am 30.9.2015 habe ich noch einen Diskussionsteil angefügt

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Ich hatte sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangenes. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

KAPITEL 2: DISSIPATIVE PROZESSE (54-64 …)

1. Anmerkung: bei der Lektüre des Buches merke ich, dass im Buch die Seiten 65 – 96 fehlen! Das ist sehr ungewöhnlich. Die Besprechung erfolgt also zunächst mal mit dem unvollständigen Text. Ich werde versuchen, doch noch einen vollständigen Text zu bekommen.

2. Eine Argumentationslinie in diesem Kapitel greift jene physikalischen Theorien auf, die bezüglich der Zeit invariant sind. Reversibilität von Prozessen, Konservierung (z.B. von Energie) und Determiniertheit sind Begriffe, die untereinander zusammen hängen. (vgl.S.58) Eine solche ’statische‘ Theorie ist die klassische (newtonsche) Mechanik.

3. Denbigh sieht einen Zusammenhang zwischen diesem stark idealisierenden Denken, das sich an etwas ‚Festem‘ orientiert, an etwas, das bleibt, etwas, das sich konserviert, und der griechischen Denktradition, die die Grundlagen allen Wandels in den unveränderlichen Atomen entdeckten. Ein typisches Beispiel ist die chemische Reaktionsgleichung für die Umwandlung von Wasserstoff 2H_2 und Sauerstoff O_2 in Wasser 2H_2O. Die Bestandteile werden hier als unveränderlich angenommen, nur ihre Anordnung/ ihr Muster ändert sich.

4. Diesem Hang zur Verdinglichung des Denkens über die Realität steht aber die ganze Entwicklung der physikalischen Erkenntnis entgegen: die scheinbar unteilbaren Atome setzen sich aus Partikeln zusammen, und die Partikel wiederum sind umwandelbar in Energie. Materie und Energie wurden als äquivalent erkannt. Die Gesamtheit von Energie-Materie mag konstant sein, aber die jeweiligen Zustandsformen können sich ändern.

5. Der Ausgangspunkt für die Entdeckung des Begriffs Entropie war die Ungleichheit in der Umwandlung von mechanischer Energie in Wärme und umgekehrt. (vgl. S.60f) Viele solcher Asymmetrien wurden gefunden. Während eine Richtung funktioniert, funktioniert die andere Richtung höchstens partiell. (vgl. S.62) Solche höchstens partiell reversible Prozesse sind dissipativ Prozesse. Und diese Eigenschaft, die den Unterschied in der Umwandelbarkeit charakterisiert, wurde Entropie [S] genannt. Sie kommt generell Systemen zu. Liegen zwei Systeme A und B vor, so drückt die Gleichung S_B >= S_A für t_B > t_A aus, dass für alle Zeitpunkt von B (T_B) nach dem aktuellen Zeitpunkt die Entropie von B (S_B) entweder gleich oder größer ist als die von A. Die Entropie kann also nicht abnehmen, sondern nur gleich bleiben oder zunehmen.

6. Das Besondere an der Entropie ist, dass die Entropie zunehmen kann, obwohl die Energie insgesamt konstant bleibt. (vgl. S.63f) [Anmerkung: Dies deutet implizit darauf hin, dass es unterschiedliche ‚Zustandsformen‘ von Energie gibt: solche in denen Energie lokal verfügbar ist, um Umwandlungsprozesse zu ermöglichen, und solche, in denen Energie lokal nicht mehr verfügbar ist. Die Nichtverfügbarkeit von Energie wäre dann gleichbedeutend mit maximaler Entropie. Die Nichtverfügbarkeit von Energie käme einer Unveränderlichkeit von Energie gleich. Ein schwieriger Begriff, da Energie als solche ‚Zustandslos‘ ist.]

7. Ferner deuten alle bekannten physikalischen Prozesse immer nur in eine Richtung: Zunahme von Entropie. (vgl. S.64)

8. … ab hier fehlt der Text im Buch ….

KAPITEL 3: FORMATIVE PROZESSE (…97 – 116)

9. Laut Inhaltsverzeichnis fehlen bei mir die ersten 7 Seiten vom dritten Kapitel.

10. Der Text startet mit dem Begriff der Organisation, den Denbigh als ein Konzept einstuft, das oberhalb der Elemente eines Systems liegt. Seine Einführung setzt voraus, dass man am Verhalten des Systems eine Funktion erkennt, die ein spezifisches Zusammenwirken der einzelnen Elemente voraussetzt. (vgl. S.98)

11. Zur Charakterisierung einer Organisation stellt Denbigh zwei zusätzliche Postulate auf. Einmal (i) sollen die einzelnen Elemente – bezogen auf die Gesamtleistung des Systems – nur eine begrenzte Fähigkeit besitzen, die erst im Zusammenspiel mit den anderen die Systemleistung ergibt, zum anderen (ii) müssen die Elemente untereinander verbunden sein.

12. Er führt dann die Begriffe Anzahl der Verbindungen [c] ein, Anzahl der Elemente ohne Kopien [n], sowie Anzahl der Elemente mit Kopien [N] ein. Die minimale Anzahl der Verbindungen wird mit N-1 gleichgesetzt, die maximale Zahl aller paarweisen Verbindungen (inklusive der Verbindungen der Elemente mit sich selbst) wird mit N * (N-1) angegeben. Die Anzahl c aller Verbindungen liegt also irgendwo zwischen N und N^2. Nimmt man das Produkt c x n, dann berücksichtigt man nur die unterscheidbaren Elemente ohne die Kopien.(vgl. S.100)

13. Damit konstruiert er dann den theoretischen Begriff der Zusammengesetztheit (‚integrality‘) [Anmerkung: man könnte hier auch von einer bestimmten Form der Komplexität sprechen] einer Organisation basierend auf ihren Elementen und ihren Verbindungen.

14. Denbigh referiert dann, dass im Bereich des Biologischen der Grad der Zusammengesetztheit der Nachkommen von biologischen Systemen zunimmt. (vgl. S.100) In diesem Zusammenhang sind Untersuchungen von von Neumann interessant. Im Versuch zu zeigen, ob und wie man Phänomene des Biologischen mit Automaten nachbauen könnte, kam von Neumann zu dem Resultat, dass die Ausgangssysteme eine kritische Größe haben müssen, damit ihre Nachkommen einen höheren Grad der Zusammengesetztheit haben können als die Elternsysteme. In seiner Untersuchung waren dies viele Millionen ‚Elemente‘. (vgl. S.100f)

15. Ein erster interessanter Befund ist, dass der Grad der Zusammengesetztheit unabhängig ist von den Konservierungsgesetzen der Physik. (vgl. S.102f) In einem isolierten Ei kann — nach Denbigh — der Grad der Zusammengesetztheit zunehmen ohne dass die Gesamtenergie sich ändert.

16. Allerdings ändert sich normalerweise die Entropie. Innerhalb des Eis mag die Entropie abnehmen, insgesamt aber erhalten biologische Systeme den Grad ihrer Zusammengesetztheit abseits eines Gleichgewichtszustands, was nur durch ständige Zufuhr von Energie möglich ist. Lokal nimmt die Entropie am/ im System ab, im Kontext mit der Umwelt, aus der die Energie entzogen wird, nimmt aber die Entropie zu. (vgl. S.103f)

17. [Anmerkung: Es fragt sich hier, ob es Sinn macht, von der ‚globalen‘ Entropie zu sprechen, da ja die Entropie der Teilbereiche ‚Umwelt‘ und ‚System‘ für sich unterschiedlich ist. Ein System mit ‚geringerer‘ Entropie ist eigentlich nicht vergleichbar mit einem System ‚höherer‘ Entropie.]

18. Denbigh schlussfolgert hier, dass die Änderungen der Entropie und der Grad der Zusammengesetztheit unabhängig voneinander sind. (vgl. S.104)

19. [Anmerkung: Dies erscheint zweifelhaft. Denn im Falle von biologischen Systemen bedeutet die Zunahme des Grads der Zusammengesetztheit notwendigerweise Verbrauch von Energie, die der Umgebung entzogen wird (Zunahme von Entropie) und dem System zugeführt wird (Abnahme der Entropie). Die Organisiertheit biologischer Systeme erscheint daher eher wie ein Entropie-Umwandler/ -Wandler/ -Transformator. Dies hat zu tun mit Zustandsformen von Energie: es gibt jene, die von biologischen Systemen umgewandelt werden kann und solche, die nicht umgewandelt werden kann.]

20. Denbigh führt dann das Symbol phi für den Grad der Zusammengesetztheit eines einzelnen Systems s_i ein und das Symbol PHI für die Summe aller einzelnen Systeme. (vgl. S.105f) Während der Grad der Zusammengesetztheit phi_i eines einzelnen Systems von der Geburt bis zum Tode zu- bzw. abnehmen kann, bildet die Summe PHI einen Querschnitt. Mit solch einem Maß kann man sowohl beobachten, dass PHI im Laufe der Zeit – abzgl. gewisser lokaler Schwankungen – generell zunimmt, zugleich auch die Zahl der Mitglieder der Population. (vgl. 106f) Zusätzlich zum Grad der Zusammengesetztheit des individuellen Systems mss man auch den Organisationsgrad der Systemumgebung berücksichtigen: Werkzeuge, Landwirtschaft, Verkehr, Rechtssysteme, Schrift, usw. (vgl. 107f) Nimmt insgesamt der Grad der Zusammengesetztheit zu, will Denbigh von einem Prozess der Formation sprechen.

21. Denbigh spekuliert auch darüber, ob man den Grad der Zusammengesetztheit dazu benutzen kann, um den Begriff der Kreativität ins Spiel zu bringen.

22. Ferner geht es um die Entstehung biologischer Systeme. Während für die Änderungen von organisatorisch einfachen Systemen die allgemeinen physikalischen Gesetze zur Beschreibung ausreichen, haben Organisationen mit einem höheren Grad von Zusammengesetztheit die Besonderheit, dass sehr spezifische Konstellationen vorliegen müssen, die für sich genommen extrem unwahrscheinlich sind. Im Fall biologischer Systeme ist die Entstehung bislang nicht klar und erscheint extrem unwahrscheinlich.

23. Ein Denkansatz wäre – nach Denbigh –, dass sich die Komplexität in kleinere Subprobleme delegieren lässt. (Vgl.S.110f) Dazu kommt die weitere Beobachtung/ Überlegung, dass sich im Falle von biologischen Systemen feststellen lässt, biologische Systeme dazu tendieren, die Ausgangslage für die Aggregation neuer Systeme immer weiter zu optimieren. (vgl.S.112f)

24. Stellt man eine Folge wachsender Organisiertheit auf (Denbigh nennt: Partikel – Atome – Moleküle – Zellen – Organismen), dann kann man nach Denbigh einen Zuwachs an Individualität und an Kontrolle beobachten bei gleichzeitiger Abnahme der Gesetzeskonformität; letzteres besagt, dass biologische Systeme je komplexer sie werden umso weniger direkt unter irgend ein physikalisches Gesetzt fallen. (vgl. S,114f)

25. Die Funktionen, die auf den jeweils höheren Ebenen der Organisation sichtbar werden, lassen sich nicht direkt aus den Komponenten der darunter liegenden Ebenen ableiten. Sie zeigen – hier zitiert Denbigh (Polanyi 1967) – etwas Neues. Dieses Auftreten von etwas Neuem verglichen mit den bisherigen Systemeigenschaften markiert nach (Polanyi 1967) einen Prozess, den er Emergenz nennt. Das neue Ganze ‚erklärt‘ die Teile, nicht umgekehrt. (vgl. S.116)

DISKUSSION

  1. Trotz der Behinderung durch die fehlenden Seiten (ein angeblich vollständiges Exemplar ist nachbestellt) bietet der Text von Denbigh doch spannende Stichworte, die unbedingt weiter verfolgt und geklärt werden müssen. Hier nur mal erste Notizen, damit diese Aspekte nicht untergehen.
  2. Das Zusammenspiel von Energie-Materie einerseits und Entropie andererseits wirft noch viele Fragen auf. Wenn man davon ausgeht, dass die Gesamtmenge der Energie-Materie konstant ist (was letztlich nicht wirklich klar ist; es ist eine Annahme!), man aber zugleich beobachten kann, dass die Energie-Materie unterschiedliche Zustände annehmen kann, was die Wahrscheinlichkeit von Veränderungen auf allen (?) Ebenen betrifft, so bedeutet dies, dass das Reden über Energie-Materie für uns Menschen letztlich nur interessant ist, sofern Energie-Materie sich messen lässt und im Messen mögliche Veränderungen zeigt. Eine unveränderliche und unmessbare Energie-Materie existiert für uns nicht.
  3. Was wir aber messen, das sind punktuelle Ereignisse in einem unbekannten riesigen Raum von Zuständen/ Ereignissen, der sich uns weitestgehend entzieht.
  4. Wenn wir nun feststellen, dass es Veränderungsphänomene gibt (Zerfallsprozesse, Partikelabstrahlungen, Wärmeaustausch, …), dann deutet dies darauf hin, dass Energie-Materie eine große Zahl von unterschiedlichen Zuständen einnehmen kann, von denen einige so sind, dass im Zustandswechsel endliche Energie-Materie-Mengen auf andere Zustände einwirken können und dabei – falls es sich um sogenannte biologische Systeme handelt – diese andere Zustände diese verfügbare Energie-Materie-Mengen für systeminterne Prozesse nutzen können.
  5. Obwohl der Begriff der Entropie in der Literatur viele unterschiedliche Bedeutungen besitzt (dem wird noch weiter nachzugehen sein), ist ein Bedeutungskern jener, dass die Verfügbarkeit von solchen endlichen Energie-Materie-Mengen damit beschrieben wird: maximale Entropie liegt vor, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind.
  6. Während sich im Universum Veränderungsprozesse auch unabhängig von biologischen Systemen beobachten lassen, so sind die biologischen Systeme im Kontext von Entropie dennoch auffällig: während Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), zeigen sich die biologischen Systeme als Entropie-Konverter! Sie kehren die Prozessrichtung einfach um: sie nutzen die Veränderungsprozesse von minimaler zu maximaler Entropie dahingehend aus, dass sie diese lokal für endliche Zeitspannen von einem Entropielevel X zu einem Entropielevel X-n konvertieren (mit ‚X-n‘ als weniger Entropie als ‚X‘).
  7. Für diese Prozessumkehr gibt es keine physikalischen Gesetze außer der zwielichtigen Gravitation. Im Gefüge der aktuellen physikalischen Theorien passt die Gravitation bislang nicht so recht hinein, macht sie doch genau das, was die biologischen Systeme im kleinen Maßstab vorexerzieren: die Gravitation zieht Energie-Materie-Mengen so zusammen, dass die Entropie abnimmt. Die dadurch entstehenden Energie-Materie-Konstellationen sind die Voraussetzungen dafür, dass Veränderungsprozesse – und damit biologische Systeme – stattfinden können (ist Gravitation jene innere ‚Feder‘, die ein Universum auf lange Sicht immer wieder soweit zusammen zieht, bis es zum nächsten BigBang kommt?).
  8. Folgt man der Idee von den biologischen Systemen als Entropie-Konvertern, dann wird interessant, wie man das Besondere an jenen Systemen charakterisiert, die wir biologisch nennen. Denbigh offeriert hier – offensichtlich stark beeinflusst von anderen Autoren, u.a. Michael Polanyi – das Konzept eines Systems, dessen Organisation durch Elemente (n,N), Beziehungen (c) und Systemfunktionen (f,…) beschreibbar ist. Je nach Anzahl und Dichte der Verschränkungen kann man dann Organisationsgrade (Komplexitätsstufen) unterscheiden. Diese Begrifflichkeit ist noch sehr grob (verglichen z.B. mit den Details in einem Handbuch über die biologischen Zellen), aber sie bietet erste Angriffsflächen für weitergehende Überlegungen.
  9. So stellt sich die Frage nach der Entstehung solch komplexer Systeme, die bis heute nicht klar beantwortet ist.
  10. So stellt sich die Frage nach der Entwicklung solcher Strukturen von einem einfacheren Zustand zu einem komplexeren: woher kommen die viel komplexeren Strukturen und speziell dann Systemfunktionen, die sich nicht aus den Bestandteilen als solchen herleiten? Das Wort Emergenz an dieser Stelle klingt gut, erklärt aber natürlich nichts.
  11. Faktisch beobachten wir entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …).
  12. Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle, die das Phänomen biologischer Systeme im Kontext der gesamten Naturprozesse plausibel machen. Die bisherigen naturwissenschaftlichen Theorien erscheinen für dieses komplex-dynamische Phänomen der biologischen Systeme zu einfach, zu primitiv. Das liegt zu großen Teilen möglicherweise auch daran, dass sich die meisten Naturwissenschaftler bislang schwer tun, die Phänomene des biologischen Lebens in ihren vollen Komplexität ernst zu nehmen. Möglicherweise wird dies dadurch erschwert, dass die traditionellen Geisteswissenschaften ebenfalls die Brücke zum naturwissenschaftlichen Zusammenhang noch nicht gefunden haben. Statt sich gegenseitig zu befruchten, grenzt man sich voneinander ab.
  13. Letzte Anmerkung: in zwei vorausgehenden Beiträgen direkt (und in weiteren indirekt) hatte ich auch schon mal Bezug genommen auf das Phänomen der Komplexitätsentwicklung biologischer Systeme (siehe: Randbemerkung: Komplexitätsentwicklung (Singularität(en)) und Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2. Die Formulierungen in meinen Beiträgen war etwas schwerfällig und noch wenig überzeugend. Mit dem Ansatz von Denbigh, Polanyi und anderen lässt sich dies sicher deutlich verbessern.

 

Fortsetzung folgt

QUELLEN

1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
2. John von Neumann (1966), Theory of Self-Reproducing Automata, edited and completed by Arthur W.Burks, Urbana – London: University of Illinois Press
3. Michael Polanyi (1967), The Tacit Dimension, Routledge & Keagan Paul.
4. Michael Polanyi (1968) Life’s Irreducible Structure. Live mechanisms and information in DNA are boundary conditions with a sequence of boundaries above them, Science 21 June 1968: Vol. 160 no. 3834 pp. 1308-1312
DOI: 10.1126/science.160.3834.1308 (Abstract: Mechanisms, whether man-made or morphological, are boundary conditions harnessing the laws of inanimate nature, being themselves irreducible to those laws. The pattern of organic bases in DNA which functions as a genetic code is a boundary condition irreducible to physics and chemistry. Further controlling principles of life may be represented as a hierarchy of boundary conditions extending, in the case of man, to consciousness and responsibility.)
5. Michael Polanyi (1970), Transcendence and Self-Transcendence, Soundings 53: 1 (Spring 1970): 88-94. Online: https://www.missouriwestern.edu/orgs/polanyi/mp-transcendence.htm

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Wieweit können wir den ‘biologischen Geist’ durch einen ‘künstlichen Geist’ nachbilden? – Nachreflexion zur Philosophiewerkstatt vom 12.April 2015

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

1. Trotz wunderbarem Wetter draußen fand sich wieder eine interessante Gruppe von Philosophierenden am 12.April 2015 zur Philosophiewerkstatt in der DENKBAR zusammen.

2. Mittlerweile bildet sich ein ’spezifischer Stil‘ in der Philosophiewerkstatt heraus: Immer weniger vorgefertigter Input durch einen Eingangsvortrag, sondern stattdessen von Anfang an ein ‚gemeinsames Denken‘ entlang einer Fragestellung. Das ‚Gemeinsame‘ wird in einem aktuellen ‚Gedankenbild‘ festgehalten, ‚visualisiert‘, so dass die Vielfalt der Gedanken für alle sichtbar wird. Nichts geht verloren. Dies eröffnet dann jedem die Möglichkeit, anhand der sichtbaren Unterschiede, Lücken und Gemeinsamkeiten ‚fehlende Stücke‘ zu suchen, zu ergänzen, oder vorhandene Begriffe weiter zu erläutern.

3. Als ‚Rhythmus‘ des gemeinsamen Denkens erweist sich ein gemeinsamer Einstieg, dann ‚Blubberpause‘, dann Schlussrunde als sehr produktiv.

GEIST – BIOLOGISCH UND KÜNSTLICH

4. Ausgangspunkt waren die Begriffe ‚Geist‘, ‚Biologisch‘ sowie ‚Künstlich‘.

5. Auf einer Zeitachse betrachtet kann man grob sagen, dass der Begriff ‚Geist‘ in der antiken griechischen Philosophie eine zentrale Rolle gespielt hat, sich bis mindestens ins 19.Jahrhundert durchgehalten hat, dann aber – zumindest im Bereich der Naturwissenschaft – nahezu jegliche Verwendung verloren hat. In den heutigen Naturwissenschaften herrscht der Eindruck vor, man bräuchte den Begriff ‚Geist‘ nicht mehr. Zugleich fehlen damit auch alle ‚Unterstützungsmerkmale‘ für jenes Wertesystem, das einer demokratischen Staatsform wie der deutschen Demokratie zugrunde liegt. ‚Menschenwürde‘ in Art.1 des Grundgesetzes hat im Lichte der aktuellen Naturwissenschaften keine Bedeutung mehr.

6. Gleichfalls auf der Zeitachse beobachten wir, dass das Paradigma der ‚Maschine‘ mit dem Aufkommen des theoretischen Begriffs des Automaten (erste Hälfte des 20.Jahrhunderts) und der Bereitstellung von geeigneter Technologie (Computer) einen neuen Begriff von ‚Künstlichkeit‘ ermöglicht: der Computer als programmierbare Maschine erlaubt die Nachbildung von immer mehr Verhaltensweisen, die wir sonst nur von biologischen Systemen kennen. Je mehr dies geschieht, umso mehr stellt sich die Frage, wieweit diese neue ‚Künstlichkeit‘ letztlich alle ‚Eigenschaften‘ des Biologischen, insbesondere auch ‚intelligentes Verhalten‘ bzw. den ‚Geist im Biologischen‘ nachbilden kann?

GEIST – SUBJEKTIV UND OBJEKTIV NEURONAL

7. Im Bereich des Biologischen können wir seit dem 20.Jahrhundert auch zunehmend differenzieren zwischen der subjektiven Dimension des Geistes im Bereich unseres Erlebens, des Bewusstseins, und den körperlichen, speziell neuronalen Prozessen im Gehirn, die mit den subjektiven Prozessen korrelieren. Zwar ist die ‚Messgenauigkeit‘ sowohl des Subjektiven wie auch des Neuronalen noch nicht besonders gut, aber man kann schon erstaunlich viele Korrelationen identifizieren, die sehr vielen, auch grundsätzlichen subjektiv-geistigen Phänomenen auf diese Weise neuronale Strukturen und Prozesse zuordnen, die zur ‚Erklärung‘ benutzt werden können. Sofern man dies tun kann und es dann auch tut, werden die subjektiv-geistigen Phänomene in die Sprache neuronaler Prozesse übersetzt; damit wirken diese subjektiven Begriffe leicht ‚obsolet‘, ‚überflüssig‘. Zugleich tritt damit möglicherweise eine Nivellierung ein, eine ‚Reduktion‘ von spezifischen ‚Makrophänomenen‘ auf unspezifische neuronale Mechanismen, wie sie sich in allen Lebewesen finden. Erklärung im Stil von Reduktion kann gefährlich sein, wenn man damit interessante Phänomene ‚unsichtbar‘ macht, die eigentlich auf komplexere Mechanismen hindeuten, als die ‚einfachen‘ Bestandteile eines Systems.

MATERIE – INFORMATION1 und INFORMATION2

8. Im Bereich der materiellen Struktur unseres Universums hat es sich eingebürgert, dass man die physikalische Entropie mit einem Ordnungsbegriff korreliert und darüber auch mit dem statistischen Informationsbegriff von Shannon. Ich nenne diesen Informationsbegriff hier Information1.

9. Davon zu unterscheiden ist ein anderer Informationsbegriff – den ich hier Information2 nenne –, der über die Statistik hinausgeht und eine Abbildung impliziert, nämlich die Abbildung von einer Struktur auf eine andere. Im Sinne der Semiotik (:= allgemeine Lehre von den Zeichen) kann man dies als eine ‚Bedeutungsbeziehung‘ deuten, für die es auch den Begriff ’semantische Beziehung‘ gibt. Für die Realisierung einer Bedeutungsbeziehung im Sinne von Information2 benötigt man im physikalischen Raum minimal drei Elemente: eine Ausgangsgröße, eine Zielgröße und eine ‚vermittelnde Instanz‘.

10. Im Falle der Selbstreproduktion der biologischen Zellen kann man genau solch eine Struktur identifizieren: (i) die Ausgangsgröße sind solche Moleküle, deren physikalische Eigenschaften ‚für den Vermittler‘ als ‚Informationen2‘ gedeutet werden können; (ii) die Zielgröße sind jene Verbindungen von Molekülen, die generiert werden sollen; (iii) die vermittelnde Instanz sind jene Moleküle, die die Moleküle mit Information2 ‚lesen‘ und dann die ‚Generierungsprozesse‘ für die Zielgrößen anstoßen. Dies ist ein komplexes Verhalten, das sich aus den beteiligten Elementen nicht direkt ableiten lässt. Nur auf den Prozess als solchen zu verweisen, ‚erklärt‘ in diesem Fall eigentlich nichts.

11. Interessant wird dies nun, wenn man bedenkt, dass das mathematische Konzept, das den heutigen Computern zugrunde liegt, der Begriff des programmierten Automaten, ebenfalls solch eine Struktur besitzt, die es ermöglicht, Information2 zu realisieren.

12. Dies bedeutet, dass sowohl der ‚Kern‘ des Biologischen wie auch der ‚Kern‘ des neuen Künstlichen beide die Grundstruktur von Information2 repräsentieren.

13. Sofern nun das ‚Lebendige‘, das ‚Geistige‘ reduzierbar sind auf eine Information2-fähige Struktur, müsste man nun folgern, dass die Computertechnologie das gleiche Potential besitzt wie das Biologische.

OFFENE FRAGEN

14. Offen bleibt – und blieb bei dem Werkstattgespräch –, ob diese Reduktion tatsächlich möglich ist.

15. Die Frage, ob eine reduktionistische Erklärungsstrategie ausreichend und angemessen ist, um die komplexen Phänomene des Lebens zu deuten, wird schon seit vielen Jahren diskutiert.

16. Eine reduktionistische Erklärungsstrategie wäre ‚unangemessen‘, wenn man sagen könnte/ müsste, dass die Angabe einer Verhaltensfunktion f: I –-> O auf der Basis der beobachteten Reaktionen (Input I, Output O) eines Systems ‚Eigenschaften des Systems‘ sichtbar macht, die sich durch die bekannten Systembestandteile als solche nicht erklären lassen. Dies gilt verstärkt, wenn die Bestandteile eines Systems (z.B.die physikalischen Gatter im Computer oder die Neuronen im Gehirn) von sich aus keinerlei oder ein rein zufälliges Verhalten zeigen, es sei denn, man würde – im Falle des Computers – ‚in‘ die Menge der Gatter eine ‚Funktion‘ ‚hineinlegen‘, die dazu führt, dass sich die Gatter in dieser bestimmten Weise ‚verhalten‘. Würde man nun dieses spezifische Verhalten dadurch ‚erklären‘ wollen, dass man einfach die vorhandenen Gatter verweist, würde man gerade nicht erklären, was zu erklären wäre. Überträgt man diesen Befund auf biologische oder generell physikalische Systeme, dann müsste man mindestens mal die Frage stellen, ob man mit den reduktionistischen Strategien nicht genau das vernichtet, was man erklären sollte.

17. Eine Reihe von Physikern (Schrödinger, Davis) haben das Auftreten von Information2 im Kontexte des Biologischen jedenfalls als eigenständiges Phänomen gewürdigt, das man nicht einfach mit den bekannten physikalischen Erklärungsmodellen ‚erklären‘ kann.

AUSBLICK PHILOSOPHIEWERKSTATT MAI UND JUNI

18. Die nächste Philosophiewerkstatt am 10.Mai 2015 will sich der Frage widmen, wie ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden kann. Speziell auch die Frage, welche Wirkung man überhaupt noch erzielen kann? Ist nicht irgendwie alles egal?

19. Die Philosophiewerkstatt am 14.Juni ist die letzte Werkstatt vor der Sommerpause. Es wird im Anschluss an die Sitzung ein offener Abend mit voller Restauration angeboten werden und mit der Möglichkeit, über das weitere Vorgehen zu diskutieren (welche Formate, zusätzliche Ereignisse,…).

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

REVIEW: THE WORLD ACCORDING TO TOMDISPATCH – Teil 6

T.Engelhardt (ed), „The World Acording to TomDispatch. America in the New Age of Empire“, London-New York: Verso, 2008

Diesem Text ging voraus: Teil 5.

ZWISCHENERGEBNISSE NACH Teilen 1-5

1) Fassen wir kurz zusammen, was sich bisher ergeben hat: ausgehend von den philosophischen Reflexionen zum Phänomen einer markanten emergenten Komplexität des biologischen Lebens zeigte sich Kommunikation und eine funktionierende Öffentlichkeit als zentrale Bedingungen für das Funktionieren dieser Komplexität. Um dies gesellschaftlich zu ermöglichen wurden in modernen Demokratien Verfassungen geschaffen, in denen weitgehende Freiheitsrechte zum Schutze des Individuums verankert wurden (z.B. USA, Deutschland). Begleitet von heftigen Diskussionen wurden in Deutschland unter speziellen Bedingungen (‚Lauschangriff‘) eine Aufhebung solcher Rechte durch Regierungsstellen erlaubt; in den USA gibt es eine lange Geschichte von Ausdeutungen zum vierten Zusatz der Verfassung, die Stand 2013 — zwar nicht dem Wortlaut nach, aber faktisch — einer fast vollständigen Aufhebung dieser Freiheitsrechte gleichkommt. Engelhardt skizziert in der Einleitung zu seinem Buch die Entwicklung in den USA nach 9/11 als dramatische Verstärkung von Geheimdiensten und Militär in einer ‚unipolaren Welt‘. Dies wird begleitet durch eine weitgehende Abschottung der Regierung nach außen. Im ersten Kapitel zeigt Engelhardt anhand konkreter Daten auf, wie die Ereignisse von 9/11 auf eine medial imprägnierte Öffentlichkeit treffen, die — geprägt von den tiefsitzenden Bildern der Medien der letzten Jahrzehnte — die Ereignisse in einer bevorzugten Weise deuten; in einer Weise, die von der Regierung mitgesteuert wird und für bestimmte Pläne ausgenutzt werden. Engelhardt kann dann anhand einiger Fakten zum neuen Ground-Zero Mahnmal aufzeigen, dass es hier nicht um ein ’normales‘ Denkmal geht, sondern dass das Gedenken an das Ereignis und die Toten von 9/11 für eine bestimmte Politik in einer Weise ‚instrumentalisiert‘, die viele ernsthafte Fragen aufwirft. In dem nachfolgenden Kapitel mit dem Titel ‚The Empire that Fell as it Rose‘ gibt es einen Briefdialog zwischen Tom Engelhardt und Jonathan Schell, in dem Schell anhand der historischen Daten zu dem Schluss kommt, dass die USA sich nach dem zweiten Weltkrieg scheinbar unaufhaltsam in eine imperiale — alles beherrschende — Macht entwickelt haben. Dass die US-amerikanische Regierung sich, gestützt auf ein alle Massen sprengendes Militär im Verein mit einem Netzwerk von nicht mehr kontrollierbaren Geheimdiensten, in ein imperiales Machtdenken hinein gesteigert haben, das für die Realität weitgehend ‚erblindet‘ ist. In seiner Antwort sagt Engelhardt, dass er die Einschätzung von Schell als Nichthistoriker zwar nicht historisch-wissenschaftlich verifizieren kann, dass aber sein Wissen um die aktuellen Fakten in den USA das Bild von Schell ohne weiteres stützt (es folgt eine Aufzählung von Fakten). So sehr viele sehen, dass der Weg des Imperialismus eigentlich kein brauchbares Konzept für die Zukunft ist, so sehr sind aber selbst die (amerikanischen?) Kritiker von diesem imperialen Denken ‚verseucht‘ (‚brainwashed‘), dass sie sich nicht vorstellen können, wie denn ein nicht-imperiales Modell real funktionieren kann.

BEGINN EINER MULTIPOLAREN WELT

2) In dem folgenden Kapitel „No longer the ‚Lone‘ Superpower“ beschreibt dann Chalmers Johnson dass die USA faktisch nicht mehr die einzige Super Power sind. Aber mehr noch, mit Blick auf die Vergangenheit, in der diverse Weltmächte daran scheiterten, aufkommenden gesellschaftlichen Wandel ‚friedlich‘ zu lösen, stellt er die Frage, ob und wie es den USA gelingt, das neuerliche Erstarken Chinas (und einiger anderer potentieller Konkurrenten wie z.B. Russland, Indien, Brasilien) in einem friedlichen Prozess aufzufangen, oder ob es bei der konkreten Konfrontationen in Asien (speziell China – Japan) schließlich doch wieder zu einem Krieg der Machtinteressen kommt, der vieles zerstört und wenig aufbaut?
3) Johnson trägt viele Fakten zusammen, um zu verdeutlichen, wie stark und nachhaltig der Aufstieg Chinas ist bei gleichzeitigem Abfall Japans. Allein schon demographisch ist Japan dabei, seine Bevölkerung nahezu zu halbieren, während die Bevölkerung Chinas stabil bleiben wird mit einem deutlichen Männerüberschuss. Parallel finanziert die USA militärische Basen in Asien, die sie täglich (!) einige Milliarden US-Dollar kosten. Anstatt in solch einer Situation den Ausgleich zu suchen, schürt die USA massiv die Konfrontation zwischen China und Japan (und damit auch zwischen China und den USA). (vgl.SS.37-39)
4) Nach dem zweiten Weltkrieg übernahm Japan die Rolle eines pazifistischen Staates, allerdings bei gleichzeitiger Erlaubnis, dass die USA ca. 91 Militärbasen in Japan unterhielten (samt dem Hauptstützpunkt der 7.US-Flotte) mit jeglichen Rechten für die USA ohne Kontrolle durch Japan. Nach dem Ende des kalten Krieges 1991 tat die US-amerikanische Politik dann alles, um Japan dazu zu bewegen, seine Verfassung zu ändern und sich wieder selbst zu bewaffnen. Japan sollte einen Gegenpol zu Nordkorea und China spielen. Und tatsächlich hat Japan ab 1992 damit begonnen, seine militärischen Möglichkeiten schrittweise zu erweitern, also aufzurüsten. Dazu gehörte die Bereitschaft Japans, militärische Aktionen der UN zu unterstützen oder sich am Star-Wars Programm der USA zu beteiligen. Dieser Prozess wurde intensiver nach der Wahl des japanischen Ministerpräsidenten Junichiro Kouzumi, der ein intimer Freund von Georg Bush war und ihn u.a. aktiv im Irakkrieg unterstützte.(vgl. SS.40-42)
5) Junichiro Kouzumi, holte sehr viele anti-chinesische Hardliner (und Militär orientierte) Minister in sein Kabinett und unterstütze ausdrücklich eine Pro-Taiwan Politik. Im Gegensatz zu Korea, das Japan von 1910 – 1945 besetzt hielt, wo es viele Unrechtsverletzungen begangen hat, wo Krieg stattfand, ging Japan mit Taiwan wohlwollend um und es kam zu keinen Kriegshandlungen. Von daher war die Stimmung der Bevölkerung in Taiwan eher japanfreundlich. Das Ziel ist eine ‚eigene japanische Verfassung‘ mit eigenem Militär. Die USA sind interessiert ihre Basen zu verstärken und das japanische Exportverbot für Militärtechnologie aufzuheben, damit Japan beim Star-Wars-Programm mitwirken kann. In all diesen Jahren ist auch eine starke ‚Renationalisierung‘ zu beobachten. (vgl. SS.42-44)
6) Während Japan einem eher konservativ-nationalistischen Kurs folgte in enger Gefolgschaft zu den USA, änderte sich die Stimmung in Taiwan. Sowohl politisch wie wirtschaftlich öffnete sich Taiwan zusehends für China, während China seine Position gegenüber Taiwan als zu China gehörig bekräftigte.(vgl. SS.44-46)
7) Die direkten Beziehungen zwischen China und Japan haben sich kontinuierlich verschlechtert. Ausgangspunkt sind u.a. die geschätzten 23 Millionen toten Chinesen, die Japans Krieg gegen China hervorgebracht hat (mehr als die Opfer von Hitler und Stalin zusammen), die Tatsache von 30 Mrd. Dollar Entschädigungszahlung, die Japan gegenüber China geleistet hat (obgleich China nie um Reparationen gebeten haben soll)(das viel kleinere Deutschland zahlte gegenüber seinen Opfern 80 Mrd), sowie vor allem, dass Japan seine Schuld nie anerkannt hat. Stattdessen stellte Japan sich dar als der ‚Befreier‘ Asiens, das selbst ein Opfer des europäisch-amerikanischen Imperialismus war. Bei zahlreichen Gelegenheiten, bei denen China Japan eine Brücke zu bauen versuchte, lehnte Japan dies nicht nur stolz ab, sondern tat dies in einer Weise, die wiederum die Chinesen als beleidigend empfinden mussten. Das ist kein gutes Klima. Parallele Aktionen der USA, die China provozierten (z.B. der Absturz eines US-amerikanischen elektronischen Aufklärungsflugzeuges über China am 1.April 2001; während China sich viele Tage zurück hielt, um den USA die Gelegenheit zu geben, sich zu entschuldigen, heizten amerikanische Politiker die Stimmung gegen China mit falschen Behauptungen auf). Während Chinas wirtschaftliche Entwicklung nach 2001 dynamisch Fortschritte erzielte (und die USA im Irakkrieg Ressourcen verschleuderte (in der Hoffnung an die Ölquellen zu kommen)) und parallel weltweit friedlich nach Ressourcen Ausschau hielt, begannen die USA ab 2004 mit einem gewaltigen militärischem Aufrüstungsprogramm im pazifischen Raum. In diesem Zusammenhang bezog Japan explizite Position, indem es sich zu militärischen Aktionen bereit erklärte, wenn Taiwan gefährdet würde. Das alles war natürlich nicht dazu angetan, das Verhältnis zu China zu entspannen.(vgl. SS.47-52)
8) Auf dem Wege wirtschaftlichen Austausches beginnt China mit immer mehr Ländern in allen Kontinenten vorteilhafte wirtschaftliche Beziehungen für beide Seiten aufzubauen, z.B. Iran, Venezuela, Kuba, Argentinien, Bolivien, Chile, Europa; dabei werden zugleich oft die Beziehungen von Japan und den USA zu diesen Ländern (nicht notwendigerweise) geschwächt. Viele Länder (einschließlich der EU) begrüßen diese Entwicklung in Richtung einer multipolaren Welt ausdrücklich. Das Verhalten der USA, auf diese Entwicklung vorwiegend imperialistisch-militärisch zu reagieren, durch Verschärfung der Gegensätze, erscheint im Lichte der Geschichte als nicht sehr weise.(vgl. SS.52-58)

Fortsetzung folgt mit Teil 7.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.