Archiv der Kategorie: Materie

WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …

Autor: Gerd Doeben-Henisch

Datum: 8.Febr 2025 – 13.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version findet sich HIER!

KONTEXT

Dies ist eine direkte Fortsetzung der vorausgehenden Texte

  1. „WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?“
  2. „WAS IST LEBEN ? … DEMOKRATIE – BÜRGER“
  3. „WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS“

Diesem Text ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

EINLEITUNG

In den vorausgehenden Texten wurde der ‚Rahmen‘ abgesteckt, innerhalb dessen sich die nachfolgenden Texte zum Thema „Was ist Leben? …“ bewegen werden. Eine Sonderstellung nimmt dabei der Text zur ‚Philosophie‘ ein, da hier darauf aufmerksam gemacht wird, in welcher ‚Perspektive‘ wir uns bewegen, wenn wir über uns selbst und die umgebende Welt anfangen nachzudenken und dann auch noch zu ’schreiben‘. Zur Erinnerung an die philosophische Perspektive hier der letzte Abschnitt als Zitat und zur Erinnerung:

„Letztlich ist ‚Philosophie‘ ein ‚Gesamtphänomen‘, das sich im Zusammenspiel vieler Menschen in einem Alltag zeigt, erlebbar ist und nur hier, in Prozessform, Gestalt annehmen kann. ‚Wahrheit‘ als ‚harter Kern‘ jeglichen wirklichkeitsbezogenen Denkens findet sich dadurch immer nur als ‚Teil‘ eines Prozesses, in dem die wirkenden Zusammenhänge wesentlich zur ‚Wahrheit einer Sache‘ gehören. Wahrheit ist daher niemals ’selbstverständlich‘, niemals ‚einfach‘, niemals ‚kostenlos‘; Wahrheit ist eine ‚kostbare Substanz‘, die zu ‚gewinnen‘ jeglichen Einsatz erfordert, und ihr Zustand ist ein ‚flüchtiger‘, da die ‚Welt‘ innerhalb deren Wahrheit ‚erarbeitet‘ werden kann, sich als Welt kontinuierlich ändert. Ein Hauptfaktor dieser beständigen Veränderung ist das Leben selbst: das ‚Dasein von Leben‘ ist nur möglich innerhalb eines ‚andauernden Prozesses‘ durch den ‚Energie‘ ‚emergente Bilder‘ aufleuchten lassen kann, die nicht zum ‚Ausruhen‘ geschaffen sind, sondern für ein ‚Werden‘, dessen letztes Ziel noch vielfach ‚offen erscheint‘: Leben kann sich tatsächlich — partiell — selbst zerstören oder sich selbst — partiell — ermächtigen. Irgendwo da mitten drin befinden wir uns. Die aktuelle Jahreszahl ‚2025‘ ist dafür eigentlich wenig aussagekräftig.“

WENN LEBEN ‚MEHR‘ IST, ‚VIEL MEHR‘ …

Im ersten Text dieses Textprojektes ‚Was ist Leben‘ wurde unter dem Label ‚EARTH@WORK. Cradle of Humankind‘ im Prinzip schon vieles gesagt, was für eine ’neue Sicht‘ auf das ‚Phänomen Leben‘ im Lichte der modernen wissenschaftlichen und philosophischen Erkenntnisse gesagt werden kann und eigentlich dann auch gesagt werden muss. Hier zur Erinnerung der Text:

„Die Existenz [des Planeten Erde] war faktisch die Voraussetzung dafür, dass das heute bekannte biologische Leben sich so entwickelt hat, wie wir es kennen lernen konnten. Es sind erst wenige Jahre her, seitdem wir ansatzweise verstehen können, wie sich das bekannte ‚biologische Leben‘ (Natur 2) aus dem ’nicht-biologischen Leben‘ (Natur 1) ‚entwickeln‘ konnte. Bei einer noch tiefer gehenden Analyse kann man nicht nur die ‚Gemeinsamkeit‘ in der benutzten ‚Materie‘ erkennen, sondern auch die ’neuartigen Erweiterungen‘, die das ‚Biologische‘ gegenüber dem ‚Nicht-Biologischen‘ auszeichnet. Statt dieses ‚Neuartige‘ in einen Gegensatz zu verwandeln, wie es das bisherige Denken der Menschheit getan hat (z.B. ‚Materie‘ versus ‚Geist‘, ‚Matter‘ versus ‚Mind‘), kann man das Neuartige auch als ‚Manifestation‘ von etwas ‚tiefer Liegendem‘ verstehen, als eine ‚Emergenz‘ von neuen Eigenschaften, die wiederum auf Eigenschaften hindeuten, die in der ‚Grundlage von allem‘ — nämlich in der ‚Energie‘ — vorhanden sind, sich aber erst bei der Bildung von immer komplexeren Strukturen zeigen können. Diese neuartige Interpretation wird angeregt durch die Erkenntnisse der modernen Physik, insbesondere der Quantenphysik in Verbindung mit der Astrophysik. Dies alles legt es dann nahe, die klassische Formel von Einstein (1905) e=mc2 umfassender zu interpretieren als bisher üblich (abgekürzt: Plus(e=mc2)).“

Dieser kurze Text soll im weiteren etwas mehr entfaltet werden, um die Dramatik ein wenig mehr sichtbar zu machen, die sich im Zusammenklang der vielen neuen Erkenntnisse andeutet. Manche werden diese Perspektiven vielleicht ‚bedrohlich‘ empfinden, andere als die ‚lang ersehnte Befreiung‘ von ‚falschen Bildern‘, die unser reale mögliche Zukunft bislang eher ‚verdeckt‘ haben.

Kontexte

Wenn wir einen ‚Apfel‘ sehen, ganz isoliert, dann ist dieser Apfel für sich genommen mit seinen Formen und Farben irgendwie ‚unbestimmt‘. Wenn wir aber ‚erleben‘ können, dass man einen Apfel z.B. ‚essen‘ kann, seinen Geschmack spüren, seine Wirkung auf unsren Körper, dann wird der Apfel ‚Teil eines Kontextes‘. Und wenn wir dann zufällig auch noch etwas ‚wissen‘ über seine Zusammensetzung und deren mögliche Wirkung auf unseren Körper, dann erweitert sich das ‚Bild des Erlebens‘ um ein ‚Wissensbild‘ und kann damit einen ‚Erlebens-Wissens-Kontext‘ in uns bilden, der den Apfel aus seiner ‚anfänglichen Unbestimmtheit‘ entreißt. Als Teil eines solchen Kontextes ist der Apfel ‚Mehr‘ als vorher.

Ähnlich mit einem ‚Stuhl‘: einfach so hat er irgendwie eine Form, hat Farben, zeigt Oberflächeneigenschaften, aber mehr nicht. Kann man erleben, dass dieser Stuhl in einem ‚Zimmer‘ steht ‚zusammen mit anderen ‚Möbelstücken‘, dass man sich ‚auf einen Stuhl setzen kann‘, dass man seinen Platz im Zimmer verändern kann, dann entsteht ein erlebtes Bild von einem größeren Ganzen, in dem der Stuhl ein Teil ist mit bestimmten Eigenschaften, die ihn von den anderen Möbelstücken unterscheiden. Wenn wir dann noch wissen, dass Möbelstücke in ‚Zimmern‘ vorkommen, die Teile von ‚Häusern‘ sind, dann entsteht wieder ein recht komplexer ‚Erlebens-Wissens-Kontext‘ in uns, der aus dem einzelnen Stuhl wieder ‚Mehr‘ macht.

Diese Art von Überlegungen können wir im Alltag auf sehr viele Objekte anwenden. Tatsächlich gibt es kein einziges Objekt, das ganz alleine, nur für sich vorkommt. Ganz krass findet sich dies bei ‚biologischen Objekten‘: Tieren, Pflanzen, Insekten, …

Nehmen wir uns selbst — wir als Menschen — als Beispiel. Lassen wir den Blick schweifen von dem Punkt, wo sich jeder gerade jetzt befindet, über das ganze Land, über den ganzen Kontinent, ja über das ganze Rund unseres Planeten, dann finden sich heute (2025) nahezu überall Menschen. Standardmäßig als Mann und Frau gibt es kaum eine Umgebung, wo nicht Menschen leben. Die jeweiligen Umgebungen können sehr einfach sein oder hoch verdichtet mit riesigen Gebäuden, Geräten, Menschen auf engstem Raum. Hat man den Blick so geweitet, dann ist klar, dass auch wir Menschen ‚Teil von etwas sind‘: sowohl von der jeweiligen geografischen Umgebung wie auch Teil einer großen biologischen Lebensgemeinschaft. Im Alltagserleben begegnen wir normalerweise immer nur wenigen (auch mal einige Hundert, speziell auch einige Tausend) anderen Menschen, aber durch das verfügbare Wissen können wir erschließen, dass wir viele Milliarden sind. So ist es wieder der ‚Erlebens-Wissens-Kontext‘ , der uns in einen größeren Kontext versetzt, in dem wir klar ‚Teil von etwas Großem‘ sind. Auch hier repräsentiert der Kontext ein Mehr gegenüber uns selbst als einzelner Person, als einzelnem Bürger, als einzelnem Menschen.

Zeit, Zeitscheiben, …

Wenn man die Dinge um uns herum — und dann auch uns selbst — im ‚Format‘ von ‚Kontexten‘ erleben und denken kann, dann ist es nicht weit, das Phänomen der ‚Veränderung‘ zu bemerken. Da, wo wir gerade sind, im ‚Jetzt‘, im ‚aktuellen Augenblick‘, gibt es keine Veränderung; alles ist, wie es ist. Sobald aber der ‚aktuelle Augenblick‘ von einem ’neuen Augenblick‘ gefolgt wird, und dann immer mehr neue Augenblicke ‚hintereinander‘, dann werden wir unweigerlich ‚Veränderungen‘ feststellen können: die Dinge ändern sich, alle Dinge in dieser Welt ändern sich; es gibt nichts, was sich nicht ändert!

Im ‚individuellen Erleben‘ kann es sein, dass wir mit unseren Augen, Ohren, Geruchssinn und sonstigen Sinnen für mehrere Augenblicke ’nichts sinnlich wahrnehmen‘. Dies ist möglich, weil unsere körpereigenen Sinnesorgane die Welt nur sehr grob wahrnehmen können. Mit den Methoden der neuen Wissenschaften, die nahezu beliebig ‚ins Kleine‘ und ‚ins Große‘ schauen können, können wir ‚wissen‘, dass zum Beispiel unsere ca. 37 Billionen (1012) Körperzellen in jedem Moment hoch aktiv sind, indem sie ‚Botschaften‘ austauschen, ‚Material austauschen‘, sich ‚reparieren‘, abgestorbene Zellen durch neue ersetzen, usw. Unser eigener Körper ist also in jedem Augenblick einem regelrechten ‚Veränderungssturm‘ ausgesetzt, ohne dass wir dies irgendwie bemerken können. Das Gleiche gilt für den Bereich der ‚Mikroben‘, kleinsten Lebewesen, die wir nicht sehen können, die aber zu vielen Milliarden nicht nur ‚um uns herum‘ leben, sondern sie besiedeln unsere Haut und sind auch ständig hochaktiv. Dazu kommt das Material der Gebäude um uns herum. In jedem Moment finden Veränderungsprozess im Material statt, so dass es nach einer bestimmten Anzahl von Jahren so ‚gealtert‘ ist, dass es seine geplante Funktion immer weniger erfüllen kann; Brücken können dann auch einstürzen, wie wir erleben können.

Generell können wir von ‚Veränderungen‘ nur sprechen, wenn wir ein ‚Vorher‘ und ein ‚Nachher‘ unterscheiden können, und wir die vielen Eigenschaften, die ein ‚Augenblick vorher‘ aufweist, mit den Eigenschaften ‚vergleichen‘ können, die ein ‚Augenblick nachher‘ aufweist. Im Raum unserer ’sinnlichen Wahrnehmung‘ gibt es immer nur ein ‚Jetzt‘ ohne vorher und nachher. Durch die Eigenschaft des ‚Erinnerns‘ in Zusammenarbeit mit einem ‚Merken‘ von aktuellen Ereignissen verfügt unser ‚Gehirn‘ aber über die wunderbare Fähigkeit, ‚Augenblicke‘ bis zu einem gewissen Grade ‚quasi zu speichern‘, und ergänzend über die Fähigkeit, ‚verschiedene gespeicherte Augenblicke‘ nach bestimmten Kriterien mit einer aktuellen sinnlichen Wahrnehmung zu vergleichen. Gibt es ‚Unterschiede‘ zwischen der ‚aktuellen sinnlichen Wahrnehmung‘ und den bislang ‚gespeicherten Augenblicken‘, dann macht uns das Gehirn darauf ‚aufmerksam‘; es ‚fällt uns auf‘.

Dieses Phänomen der ‚erlebbaren Veränderungen‘ ist die Basis für unser ‚Empfinden von Zeit‘. Wir Menschen haben zwar schon immer auch ‚externe Ereignisse‘ zur Hilfe genommen, um erlebbare Veränderungen in einen größeren Rahmen einordnen zu können (Tag-Nacht, Jahreszeiten, diverse Konstellationen von Sternen, Zeitmaschinen wie verschiedenste ‚Uhren‘, … unterstützt durch Zeitaufzeichnungen, später auch ‚Kalendern‘), aber die Fähigkeit, Veränderungen erleben zu können, bleibt für uns grundlegend.

Wenn man über dies alles ’nachdenkt‘, dann kann man z.B. das Konzept der ‚Zeitscheibe‘ formulieren: Wenn man sich einen ‚Zeitabschnitt‘ denkt — der natürlich unterschiedlich kurz oder lang sein kann (Nanosekunden, Sekunden, Stunden, Jahre, …) — und alle Orte unseres Planeten samt allem, was sich da gerade befindet, als einen einzigen ‚Zustand‘ ansieht, und dies macht man für jeden Zeitabschnitt, der auf den ersten Zeitabschnitt folgt, dann bekommt man eine ‚Reihe/ Folge‘ von ‚Zeitscheiben‘. Bei dieser Konstellation ist es dann so, dass jede Veränderung, wo immer sie innerhalb des Zustands stattfindet, sich mit ihren ‚Wirkungen‘ in einer der folgenden Zeitscheiben ‚auswirkt‘. Je nach ‚Dicke der Zeitscheibe‘ ist es in der ‚direkt nachfolgenden Zeitscheibe‘ oder eben ‚viel später‘. In diesem Modell geht nichts verloren. Je nach ‚Dicke‘ ist das Modell eher ’sehr präzise‘ oder ’sehr grob‘. So wird z.B. die Bevölkerungsentwicklung von einer Gemeinde in Deutschland immer nur stichprobenartig am letzten Tag eines Jahres erhoben. Würde man dies jede Woche machen, dann würden sich die einzelnen Kenngrößen (Geburten, Sterbefälle, Zuzüge, Weggang, …) sehr unterscheiden.

Im Übergang von einer zur nächsten Zeitscheibe wirkt sich ‚jede Veränderung‘ aus, also auch, was jeder einzelne Mensch tut. Allerdings muss man unterscheiden zwischen konkreten Wirkungen (wenn ein junger Mensch regelmäßig zur Schule geht) und einem ‚langfristigen Ergebnis (Schulabschluss, erworbene Kompetenzen,…), das sich ’nicht direkt‘ als konkretes Veränderungsereignis zeigt. Erwerb von Erfahrungen, Wissen, Kompetenzen … wirkt sich ‚im Innern‘ eines Menschen aus durch ‚Aufbau von unterschiedlichen Strukturen‘, die den einzelnen Menschen in die Lage versetzen, z.B. auf neue Weise zu ‚Planen, zu entscheiden und zu Handeln‘. Dieser ‚Aufbau von unterschiedlichen Strukturen‘ im Innern eines Menschen ist nicht direkt beobachtbar. Diese Strukturen können aber die ‚Qualität des Verhaltens‘ sehr stark beeinflussen.

Zeitscheiben des Lebens auf dem Planet Erde

Es klang eben schon an, dass die ‚Dicke einer Zeitscheibe‘ sich darin auswirkt, welche Ereignisse man sieht. Dies hängt damit zusammen, dass wir auf dem Planet Erde sehr viele ‚unterschiedliche Arten von Veränderungen‘ kennen gelernt haben. Vorgänge am Himmel und Vorgänge in der Natur dauern gefühlt eher ‚länger‘, Wirkungen von konkreten mechanischen Aktionen finden eher ’schnell‘ statt, Veränderungen der Erdoberfläche brauchen tausende, viele tausende oder gar Millionen von Jahren.

Hier soll der Blick auf die großen Entwicklungsschritte des (biologischen) Lebens auf dem Planeten Erde gelenkt werden. Wir selbst — als Homo sapiens — sind Teil dieser Entwicklung und es kann interessant sein, zu klären, ob die Tatsache, dass wir ‚Teil des großen Lebens‘ sind Perspektiven sichtbar macht, die wir im ’normalen Alltag‘ eines einzelnen Menschen praktisch nicht erkennen können, obgleich diese Perspektiven möglicherweise von großer Bedeutung für jeden von uns sind.

Die Auswahl von ‚markanten Ereignissen‘ in der Entwicklung des Lebens auf der Erde ist natürlich sehr stark abhängig von dem ‚Vor-Wissen‘, mit dem man an die Aufgabe herangeht. Ich habe hier nur solche Punkte ausgewählt, die sich in nahezu allen wichtigen Publikationen finden. Die Angabe jenes Zeitpunkts, ‚ab dem‘ diese Ereignisse anerkannt werden, haben grundsätzlich eine ‚Unschärfe‘, da sowohl die ‚Komplexität‘ des Ereignisses wie auch die Problematik der ‚zeitlichen Bestimmung‘ bis heute nicht viel genauer sein kann. Folgende markante Ereignisse habe ich ausgewählt:

  1. Molekulare Evolution (ab ~3.9 Mrd. Jahren)
  2. Prokaryotische Zellen (ab ~3.5 Mrd. Jahren)
  3. Großes Sauerstoffereignis (ab ~2.5 Mrd. Jahren)
  4. Eukaryotische Zellen (ab ~1.5 Mrd. Jahren)
  5. Vielzeller (ab ~600 Mio. Jahren)
  6. Auftreten der Gattung Homo (ab ~2.5 Mio. Jahren)
  7. Auftreten des Homo sapiens (ab ~300.000 Jahren)
  8. Auftreten von Künstlicher Intelligenz (ab ~21. Jahrhundert)

Mich hat dann interessiert, wie groß die Abstände zwischen diesen Ereignissen waren. Für die Berechnung wurden immer die Anfangspunkte der markanten Ereignisse genommen, da sich im weiteren Verlauf kein Zeitpunkt gut festlegen lässt. Folgende Tabelle hat sich dann ergeben:

  1. Molekulare Evolution zu Prokaryotischen Zellen: 400 Millionen Jahre
  2. Prokaryotische Zellen zum Großen Sauerstoffereignis: 1 Milliarde Jahre
  3. Großes Sauerstoffereignis zu Eukaryotischen Zellen: 1 Milliarde Jahre
  4. Eukaryotische Zellen zu Vielzellern: 900 Millionen Jahre
  5. Vielzeller zum Auftreten der Gattung Homo: 597,5 Millionen Jahre
  6. Gattung Homo zum Homo sapiens: 2,2 Millionen Jahre
  7. Homo sapiens zur Künstlichen Intelligenz: 297.900 Jahre

Als nächstes habe ich diese Zeitabstände umgerechnet in ‚prozentuale Anteile der Gesamtzeit‘ von 3.9 Milliarden Jahren. Damit er gibt sich folgende Tabelle:

  1. Molekulare Evolution zu Prokaryotischen Zellen: 400 Millionen Jahre = 10,26%
  2. Prokaryotische Zellen zum Großen Sauerstoffereignis: 1 Milliarde Jahre = 25,64%
  3. Großes Sauerstoffereignis zu Eukaryotischen Zellen: 1 Milliarde Jahre = 25,64%
  4. Eukaryotische Zellen zu Vielzellern: 900 Millionen Jahre = 23,08%
  5. Vielzeller zum Auftreten der Gattung Homo: 597,5 Millionen Jahre = 15,32%
  6. Gattung Homo zum Homo sapiens: 2,2 Millionen Jahre = 0,056%
  7. Homo sapiens zur Künstlichen Intelligenz: 297.900 Jahre = 0,0076%

Mit diesen Zahlen kann man dann schauen, ob diese Daten als ‚Datenpunkte‘ auf einer Zeitachse irgendeine auffällige Eigenschaft erkennen lassen. Natürlich gibt es hier rein mathematisch sehr viele Optionen, wonach man schauen könnte. Mich hat zunächst nur interessiert, ob es eine ‚mathematisch definierte Kurve‘ geben kann, die mit diesen Datenpunkten ’signifikant korreliert‘. Nach zahlreichen Tests mit verschiedenen Schätzfunktionen (siehe Erläuterungen im Anhang) ergab sich, dass die logistische Funktion (S-Kurve) von ihrem Design her die Dynamik der realen Daten der Entwicklung von biologischen Systemen am besten wiedergibt.

Für diese Schätzfunktion wurden die Datenpunkte ‚Molekulare Evolution‘ sowie ‚Auftreten von KI‘ ausgeklammert, da sie nicht zum Entwicklungsgeschehen von biologischen Systemen im engeren Sinne gehören. Damit ergaben sich folgende Datenpunkte als Ausgangspunkt für das Finden einer Schätzfunktion :

0 Molekulare Evolution zu Prokaryoten 4.000000e+08 (NICHT)
1 Prokaryoten zum Großen Sauerstoffereignis 1.000000e+09
2 Sauerstoffereignis zu Eukaryoten 1.000000e+09
3 Eukaryoten zu Vielzellern 9.000000e+08
4 Vielzeller zu Homo 5.975000e+08
5 Homo zu Homo sapiens 2.200000e+06
6 Homo sapiens zu KI 2.979000e+05 (NICHT)

Für die ausgewählten Ereignisse ergaben sich dann jeweils die kumulierte Zeit zu:

0 0.400000
1 1.400000
2 2.400000
3 3.300000
4 3.897500
5 3.899700
6 3.899998

Und als Voraussage des nächsten ‚besonderen‘ Ereignisses in der Entwicklung biologischer Systeme ergab sich das Jahr ‚4.0468‘ Mrd (unsere Gegenwart ist bei ‚3.899998‘ Mrd). Damit soll das nächste strukturelle Ereignis bei konservativer Schätzung ca. 146.8 Mio Jahre in der Zukunft liegen. Es könnte aber auch — nicht ganz unwahrscheinlich — in ca. 100 Mio Jahren stattfinden.

Die Kurve erzählt jene ‚Wirkgeschichte‘, die ‚klassische biologische Systeme‘ bis zum Homo sapiens mit ihren ‚bisherigen Mitteln‘ erzeugen konnten. Mit dem Auftreten des Typs ‚Homo‘, und dann insbesondere mit der Lebensform ‚Homo sapiens‘, kommen aber völlig neue Eigenschaften ins Spiel. Mit der Teil-Population des Homo sapiens gibt es eine Lebensform, die mittels ihrer ‚kognitiven‘ Dimension und ihrer neuartigen ‚symbolischen Kommunikation‘ extrem viel schneller und komplexer Handlungsgrundlagen generieren kann. Damit ist nicht auszuschließen, dass das nächste markante evolutionäre Ereignis nicht nur weit vor 148 Mio Jahren stattfinden kann, sondern sogar vor 100 Mio Jahren.

Diese Arbeitshypothese wird noch dadurch gestärkt, dass der Homo sapiens nach ca. 300.000 Jahren mittlerweile ‚Maschinen‘ bauen kann, die er ‚programmieren‘ kann, und die viele Aufgaben, die für die ‚kognitive Durchdringung‘ unserer komplexen Welt schon jetzt das einzelne menschliche Gehirn überfordern, große Dienste erweisen können. Die Maschinen als nicht-biologische Systeme haben zwar keine ‚Entwicklungs-Basis‘ wie die biologischen Systeme, aber im Format einer ‚Co-Evolution‘ könnte das Leben auf der Erde mit Unterstützung von solchen ‚programmierbaren Maschinen‘ sehr wahrscheinlich die weitere Entwicklung beschleunigen.

Mensch sein, Verantwortung und Emotionen

Mit der soeben vorgenommenen Kontexterweiterung für die Frage nach der möglichen Rolle von Menschen im Kontext der globalen Entwicklung eröffnen sich viele interessante Perspektiven, die für uns Menschen nicht nur angenehm sind. Sie sind allesamt eher ‚unbequem‘ in dem Sinne, dass diese Perspektiven erkennen lassen, dass unsere bisherige ‚Selbstgenügsamkeit mit uns selbst‘ — fast vergleichbar mit einem ‚globalen Narzissmus‘ –, uns nicht nur ‚uns selbst entfremdet‘, sondern dass wir, die wir ein Produkt des Gesamtlebens auf dem Planeten sind, dabei sind, genau dieses Gesamtleben zunehmend empfindlich zu zerstören. Es scheint, dass die meisten nicht begreifen, was sie da tun, oder, wenn sie es vielleicht sogar ahnen, all dies beiseite schieben, weil ihnen das ‚Ganze‘ zu weit weg erscheint vom ‚aktuellen individuellen Lebenssinn‘.

Dieser letzte Punkt ist ernst zu nehmen: Wie kann eine ‚Verantwortung für das globale Leben‘ für uns Menschen von uns einzelnen Menschen überhaupt ‚verstanden‘, geschweige denn ‚praktisch umgesetzt‘ werden? Wie sollen Menschen, die aktuell ca. 60 – 120 Jahre leben, sich Gedanken machen für eine Entwicklung, die viele Millionen oder gar mehr Jahre in die Zukunft zu denken ist?

Die Frage nach der Verantwortung wird noch zusätzlich erschwert durch eine ‚konstruktive Besonderheit‘ des aktuellen Homo sapiens: Eine Besonderheit des Menschen besteht darin, dass seine ‚Kognitive Dimension‘ (Wissen, Denken…) nahezu vollständig unter der Kontrolle vielfältigster Emotionen steht. Selbst im Jahr 2025 gibt es ungeheuer viele ‚Weltbilder‘ in den Köpfen von Menschen, die mit der realen Welt wenig bis gar nichts zu tun haben, aber die emotional wie ‚zementiert‘ wirken. Der ‚Umgang mit Emotionen‘ erscheint bislang ein großer blinder Fleck zu sein: Wo wird dies wirklich ‚trainiert‘ und flächendeckend erforscht, dazu alltagsnah, für jeden?

Alle diese Fragen rühren letztlich an unserem bisherigen ‚Selbstverständnis als Menschen‘. Wenn wir diese neue Perspektive ernst nehmen, dann müssen wir Menschen
offensichtlich neu und tiefer begreifen, was es heißt ‚Mensch zu sein‘ in solch einem gewaltigen ‚alles umfassenden Prozess‘. Ja, und dies wird offensichtlich nicht gehen, wenn wir uns selbst körperlich und geistig nicht deutlich weiter entwickeln. Die aktuelle Ethik mit ihrem ‚Veränderungsverbot‘ für Menschen, wie sie aktuell beschaffen sind, kann angesichts der ungeheuren Herausforderung im Grenzfall genau das Gegenteil bewirken: nicht ‚Erhalt‘ des Menschen sondern ‚Vernichtung‘. Es deutet sich an, dass es ‚wirklich bessere Technik‘ möglicherweise nur geben wird, wenn auch das Leben selbst, und hier speziell wir Menschen, uns dramatisch weiter entwickeln.

Ende des Dualismus ‚Nicht-Biologisch‘ : ‚Biologisch‘ ?

Bis zu dieser Stelle der Überlegungen sprechen wir so, wie es bislang üblich ist, wenn man über das ‚Leben‘ (die biologischen Systeme) und davon unterschieden von dem System Erde mit all dem ‚Nicht-Biologischen‘ spricht. Diese Unterscheidung zwischen ‚Biologisch‘ und ‚Nicht-Biologisch‘ sitzt sehr tief im Bewusstsein mindestens der europäischen Kultur und all jener Kulturen, die davon stark geprägt wurden.

Natürlich ist es nicht zufällig, dass sehr früh schon der Unterschied zwischen ‚belebter Materie‘ (Biologischen Systemen) und ‚unbelebter Materie‘ erkannt und benutzt wurde. Letztlich lag dies daran, dass ‚belebte Materie‘ Eigenschaften aufwies, die man so nicht bei ‚unbelebter Materie‘ feststellen konnte. Dabei blieb es bis heute.

Ausgestattet mit dem heutigen Wissen kann man diesen uralten Dualismus aber nicht nur in Frage stellen, man kann ihn eigentlich überwinden.

Der Ausgangspunkt für diesen denkerischen Brückenschlag findet man auf Seiten des Biologischen in der Tatsache begründet, dass ja die ersten einfachen Zellen, die Prokaryoten, aus ‚Molekülen‘ bestehen, diese wiederum aus ‚Atomen‘, diese wiederum aus … diese Hierarchie der Bestandteile kennt keine Grenze nach unten. Klar ist nur, dass eine ‚prokaryotische Zelle‘, die früheste Form von Leben auf dem Planet Erde, vom ‚Baumaterial‘ her vollständig aus dem Material besteht, aus dem alle nicht-biologischen Systeme bestehen, ein Material, was letztlich der ‚allgemeine Baustoff‘ ist, aus dem das ganze übrige Universum besteht. Dies wird im folgenden Bild angedeutet:

Für den Bereich der ‚unbelebten Materie‘ hat Einstein (1905) mit der Formel ‚e = mc2‚ dargelegt, dass zwischen der Masse‘ ‚m‘ einer beobachtbaren Materie und dem theoretischen Begriff der (nicht beobachtbaren) Energie ‚e‘ eine bestimmte Gleichwertigkeit besteht, wenn man die Masse m mit einem bestimmten ‚Betrag an Energie‘ auf eine bestimmte ‚Geschwindigkeit‘ ‚beschleunigt‘. Man kann aus Energie e nicht nur eine Masse m gewinnen sondern umgekehrt auch umgekehrt aus einer Masse m auch wieder Energie e.

Diese Formel hat sich bis heute bewährt.

Was aber bedeutet diese Formel für eine Materie m, die im ‚Zustand des Biologischen‘ vorliegt? Biologische Strukturen müssen nicht ’selbst ‚beschleunigt‘ sein, um ‚biologisch zu existieren‘. Allerdings müssen biologische Zellen zusätzlich zur ‚Energie‘ ihrer materiellen Bestandteile kontinuierlich ‚Energie aufnehmen‘, um ihre ’spezielle materielle Struktur‘ aufzubauen, zu erhalten, und zu verändern. Zusätzlich zu diesen ‚Aktivitäten‘ kann Materie im Format des Biologischen sich ’selbst reproduzieren‘. Im Rahmen dieser ‚Selbstreproduktion‘ findet zusätzlich ein ’semiotischer Prozess‘ statt, der später im Fall der symbolischen Kommunikation der hochkomplexen Lebewesen — insbesondere beim Homo sapiens — zur Grundlage einer neuartigen und hoch leistungsfähigen Kommunikation zwischen den biologischen Systemen geworden ist.

Die ’semiotische Struktur‘ im Kontext der Reproduktion kann man wie folgt (vereinfacht) beschreiben: eine Art von Molekülen (M1) ‚wirken‘ auf Moleküle (M2) so, als ob die Elemente der Moleküle M1 ‚Steuerbefehle‘ für die Moleküle von M2 sind, wodurch die Moleküle M2 chemische ‚Prozesse‘ anstoßen, durch welche neue Moleküle (M3) zusammen gebaut werden. Die Elemente von von M1, die ‚wie Steuerbefehle‘ wirken, verhalten sich dabei wie sogenannte ‚Zeichen‘ im Rahmen der Theorie der Semiotik. Die Moleküle ‚M3‘, die vom Molekül M2 erzeugt werden, sind im Rahmen der Semiotik zu verstehen als die ‚Bedeutung‘ von M1 und M2 wäre die ‚Bedeutungsbeziehung‘ für M1 mit M3.

Nicht nur das menschliche Gehirn arbeitet mit solchen semiotischen Strukturen, auch jeder moderne Computer besitzt diese semiotische Struktur. Dies deutet an, dass es sich möglicherweise um eine universelle Struktur handelt.

Akzeptiert man diese Überlegungen, dann scheint es so zu sein, dass sich ‚biologische Materie‘ von ‚nicht-biologischer Materie‘ dadurch unterscheidet, dass biologische Materie über die Eigenschaft verfügt, dass sie mit Hilfe von Energie nicht-biologische Materie so anordnen kann, dass zwischen den einzelnen nicht-biologischen Elementen (Atome, Moleküle) funktionale ‚Beziehungen‘ entstehen, die man als ‚semiotische Strukturen‘ interpretieren kann: nicht-biologische Elemente funktionieren ‚in einem Zusammenhang‘ (!) sowohl als ‚Zeichen‘ wie auch als ‚dynamische Bedeutungsbeziehung‘ wie auch als ‚Bedeutung‘.

Es stellt sich jetzt die Frage, wie weit man die ‚zusätzlichen Eigenschaften‘, die Materie im Format des Biologischen ‚zeigt‘, nicht nur als ‚emergente Eigenschaften‘ verstehen sollte, sondern darüber hinaus zugleich auch als ‚Manifestationen von Eigenschaften der Energie selbst‘! Da man die Energie e selbst nicht direkt beobachten kann, sondern nur indirekt durch ihre beobachtbaren Wirkungen, ist es der Forschung freigestellt, ob sie die gewohnte ‚Perspektive‘ von Einsteins 1905-Formel ‚e = mc2‚ weiter beibehalten will — und damit in Kauf nimmt, dass die komplexesten Eigenschaften des Universums weiter ‚unerklärt‘ bleiben –, oder ob die Forschung auch ‚unbelebte Materie im Format des Biologischen‘ in die Betrachtung einbeziehen will. Biologische Systeme sind ohne Energie nicht erklärbar. Allerdings fordert ihre ‚Dreifachstruktur‘ mit Materie als ‚Objekte‘ und mit Materie als ‚Metaebene‘ und noch Materie als ‚Akteur‘ dazu heraus, der unterstellten ‚Energie‘ mehr ‚interne Eigenschaften‘ zuzugestehen als bislang gewährt. Resultiert diese ‚Weigerung‘ aus einer ‚falschen Eitelkeit des Erkennenden‘, der nicht zugeben will, dass ihm ‚in der Materie selbst‘ etwas entgegen tritt, was deutlich mehr ist als ‚unbelebte Materie‘? Und ja, der ‚Erkennende‘ ist ja selbst genau dies: ‚Materie im Format des Biologischen‘ mit Eigenschaften, die weit über alles hinausgehen, was bislang die Physik bereit war, zu buchstabieren. Von der Vielfalt der Emotionen, die hier auch überall im Spiel sind, wurde bei dieser Erzählung noch nicht viel gesagt. Was, wenn die Energie auch für diesen Komplex zuständig ist? Vielleicht müssen wir alle — Philosophen, Wissenschaftler, .. — zurück auf ‚Start‘? Vielleicht müssen wir lernen, die Geschichte des Lebens auf dem Planeten und den wahren Sinn unseres Menschseins lernen, ganz neu zu erzählen …. Eigentlich haben wir dabei nichts zu verlieren. Alle bisherigen Geschichten taugen nicht all zu viel. Die mögliche Zukunft ist mit Sicherheit spannender, aufregender, reicher … als alles, was bislang erzählt wurde…

ANHANG PYTHON PROGRAMM

Ich habe mit Unterstützung von chatGPT4o eine ganze Reihe von Schätzfunktionen durchprobiert (z.B. Potenzfunktion, invertierte Potenzfunktion, Exponentialfunktion, Hyperbolische Funktion, Gompertz-Funktion, Logistische Funktion, Summierte Potenzfunktion, jeweils mit unterschiedlichen Varianten). Im Ergebnis zeigte sich die logistische (S-Kurve) Funktion als jene, die sich den realen Datenwerte am besten ‚anpasste‘ und eine ‚konservative Schätzung‘ für die Zukunft ermöglichte, die einigermaßen ‚plausibel‘ erscheint und die sich nach Bedarf notfalls noch ein wenig präzisieren lassen würde. Doch angesichts der vielen offenen Parameter für die Zukunft scheint eine ‚konservative Schätzung‘ am besten geeignet: man kann eine gewisse Richtung erkennen, aber es bleibt ‚Spielraum‘ für unverhoffte Ereignisse.

Das nachfolgende python-Programm wurde mit der Entwicklungsumgebung Python 3.12.3 64-bit mit Qt 5.15.13 und PyQt5 5.15.10 auf Linux 6.8.0-52-generic (x86_64) (Für spyder siehe: Spyder-IDE.org ) ausgeführt.

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Mon Feb 10 07:25:38 2025

@author: gerd (supported by chatGPT4o)
"""
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from scipy.optimize import curve_fit

# Daten für die Tabelle
data = {
    "Phase": [
        "Molekulare Evolution zu Prokaryoten",
        "Prokaryoten zum Großen Sauerstoffereignis",
        "Sauerstoffereignis zu Eukaryoten",
        "Eukaryoten zu Vielzellern",
        "Vielzeller zu Homo",
        "Homo zu Homo sapiens",
        "Homo sapiens zu KI"
    ],
    "Dauer (Jahre)": [
        400e6,
        1e9,
        1e9,
        900e6,
        597.5e6,
        2.2e6,
        297900
    ]
}

# Gesamtzeit der Entwicklung des Lebens (ca. 3,9 Mrd. Jahre)
total_time = 3.9e9

# DataFrame erstellen
df = pd.DataFrame(data)

# Berechnung des prozentualen Anteils
df["% Anteil an Gesamtzeit"] = (df["Dauer (Jahre)"] / total_time) * 100

# Berechnung der kumulativen Zeit
df["Kumulative Zeit (Mrd. Jahre)"] = (df["Dauer (Jahre)"].cumsum()) / 1e9

# Extrahieren der relevanten kumulativen Zeitintervalle (Differenzen der biologischen Phasen)
relevant_intervals = df["Kumulative Zeit (Mrd. Jahre)"].iloc[1:6].diff().dropna().values

# Definieren der Zeitindices für die relevanten Intervalle
interval_steps = np.arange(len(relevant_intervals))



# Sicherstellen, dass x_cumulative_fit korrekt definiert ist
x_cumulative_fit = np.arange(1, 6)  # Index für biologische Phasen 1 bis 5
y_cumulative_fit = df["Kumulative Zeit (Mrd. Jahre)"].iloc[1:6].values  # Die zugehörigen Zeiten

# Logistische Funktion (Sigmoid-Funktion) definieren
def logistic_fit(x, L, x0, k):
    return L / (1 + np.exp(-k * (x - x0)))  # Standardisierte S-Kurve

# Curve Fitting für die kumulierte Zeitreihe mit der logistischen Funktion
params_logistic, _ = curve_fit(
    logistic_fit,
    x_cumulative_fit,
    y_cumulative_fit,
    p0=[max(y_cumulative_fit), np.median(x_cumulative_fit), 1],  # Startwerte
    maxfev=2000  # Mehr Iterationen für stabilere Konvergenz
)

# Prognose des nächsten kumulierten Zeitpunkts mit der logistischen Funktion
predicted_cumulative_logistic = logistic_fit(len(x_cumulative_fit) + 1, *params_logistic)

# Fit-Kurve für die Visualisierung der logistischen Anpassung
x_fit_time_logistic = np.linspace(1, len(x_cumulative_fit) + 1, 100)
y_fit_time_logistic = logistic_fit(x_fit_time_logistic, *params_logistic)

# Visualisierung der logistischen Anpassung an die kumulierte Zeitreihe
plt.figure(figsize=(10, 6))
plt.scatter(x_cumulative_fit, y_cumulative_fit, color='blue', label="Real Data Points")
plt.plot(x_fit_time_logistic, y_fit_time_logistic, 'r-', label="Logistic Fit (S-Curve)")
plt.axvline(len(x_cumulative_fit) + 1, color='r', linestyle='--', label="Next Forecast Point")
plt.scatter(len(x_cumulative_fit) + 1, predicted_cumulative_logistic, color='red', label=f"Forecast: {predicted_cumulative_logistic:.3f} Bn Years")

# Titel und Achsenbeschriftungen
plt.title("Logistic (S-Curve) Fit on Cumulative Evolutionary Time")
plt.xlabel("Evolutionary Phase Index")
plt.ylabel("Cumulative Time (Billion Years)")
plt.legend()
plt.grid(True)
plt.show()

# Neues t_next basierend auf der logistischen Anpassung
predicted_cumulative_logistic

Out[109]: 4.04682980616636 (Prognosewert)

ABSTRAKTE MORAL in einer ENDLICHEN und VERÄNDERLICHEN WELT

(16.Juni 2023 – 19.Juni 2023, 15:15h)

KONTEXT

Die Bedeutung und die Befolgung von moralischen Werten im Kontext des alltäglichen Handelns hat schon immer für Spannungen, Diskussionen und handfeste Konflikte gesorgt.

In diesem Text soll kurz beleuchtet werden, warum dies so ist, und warum dies vermutlich nie anders sein wird, so lange wir Menschen so sind, wie wir sind.

ENDLICHE-UNENDLICHE WELT

In diesem Text wird angenommen, dass die Wirklichkeit, in der wir uns von Kindheit an ‚vorfinden‘, eine ‚endliche‘ Welt ist. Damit ist gemeint, dass kein Phänomen, auf das wir in dieser Welt stoßen — wir selbst mit eingeschlossen — ‚unendlich‘ ist. Anders ausgedrückt: alle Ressourcen, auf die wir stoßen, sind ‚begrenzt‘. Auch die ‚Sonnenenergie, die im heutigen Sprachgebrauch als ‚erneuerbar‘ angesehen wird, ist ‚begrenzt‘, wenngleich diese Begrenzung die Lebenszeit vieler Generationen von Menschen überdauert.

Diese ‚Endlichkeit‘ ist aber kein Gegensatz dazu, dass sich unsere endliche Welt kontinuierlich in einem ‚Veränderungsprozess‘ befindet, der von vielen Seiten gespeist wird. Eine ’sich-selbst-verändernde Endlichkeit‘ ist damit ein Etwas, was an und in sich irgendwie ‚über sich hinaus weist‘! Die ‚Wurzeln‘ dieser ‚immanenten Veränderlichkeit‘ sind weitgehend vielleicht noch unklar, aber die ‚Auswirkungen‘ der immanenten Veränderlichkeit‘ deuten an, dass das jeweils ‚konkret Endliche‘ nicht das Entscheidende ist; das ‚jeweils konkret Endliche‘ ist eher eine Art ‚Indikator‘ für eine ‚immanente Veränderungsursache‘, die sich mittels konkreter Endlichkeiten in Veränderung ‚manifestiert‘. Die ‚Formen konkreter Veränderungsmanifestationen‘ können daher vielleicht eine Art ‚Ausdruck‘ sein, von etwas, was ‚dahinter immanent wirkt‘.

In der Physik gibt es das Begriffspaar ‚Energie‘ und ‚Masse‘, letztere als Synonym für ‚Materie‘. Atomphysik und Quantenmechanik haben uns gelehrt, dass die verschieden ‚Manifestationen von Masse/ Materie‘ nur eine ‚Zustandsform von Energie‘ sein können. Die überall und immer angenommene ‚Energie‘ ist jener ‚Ermöglichungsfaktor‘, der sich in all den bekannten Formen von Materie ‚manifestieren‘ kann. ‚Sich-verändernde-Materie‘ kann man dann verstehen als eine Form von ‚Information‘ über die ‚ermöglichende Energie‘.

Setzt man das, was die Physik bislang über ‚Energie‘ herausgefunden hat, als jene Form von ‚Unendlichkeit‘, die sich uns über die erfahrbare Welt erschließt, dann sind die verschiedenen ‚Manifestationen von Energie‘ in diversen ‚Formen von Materie‘ Formen konkreter Endlichkeiten, die aber im Kontext der unendlichen Energie letztlich nicht wirklich endlich sind. Alle bekannten materiellen Endlichkeiten sind nur ‚Übergänge‘ (‚Transitionen‘) in einem nahezu unendlichen Raum von möglichen Endlichkeiten, der letztlich in der ‚unendlichen Energie‘ gründet. Ob es ’neben‘ oder ‚hinter‘ oder ‚qualitativ nochmals ganz anders zu‘ der ‚erfahrbaren Unendlichkeit‘ noch eine ‚andere Unendlichkeit‘ gibt, ist damit völlig offen.[1]

ALLTAGSERFAHRUNGEN

Unser normale Lebenskontext ist das, was wir heute ‚Alltag‘ nennen: ein Bündel von regelmäßigen Abläufen, vielfach verbunden mit charakteristischen Verhaltens-Rollen. Dazu gehört die Erfahrung, einen ‚endlichen Körper‘ zu haben; dass ‚Abläufe real Zeit benötigen‘; dass jeder Prozess durch seinen eigenen ‚typischen Ressourcenverbrauch‘ charakterisiert ist; dass ‚alle Ressourcen endlich‘ sind (wobei es hier unterschiedliche Zeit-Skalen geben kann (siehe das Beispiel mit der Sonnenenergie)).

Aber auch hier: das ‚Eingebettet-Sein‘ aller Ressourcen und ihr Verbrauch in eine umfassende Veränderlichkeit macht aus allen Angaben ‚Momentaufnahmen‘, die ihre ‚Wahrheit‘ nicht allein ‚im Moment‘ haben, sondern in der ‚Gesamtheit der Abfolge‘! An sich ‚kleine Veränderungen‘ im Alltag können, wenn sie andauern, Größen annehmen und Wirkungen erzielen, die einen ‚bekannten Alltag‘ soweit verändern, dass lang bekannte ‚Anschauungen‘ und ‚lang praktizierte Verhaltensweisen‘ irgendwann ’nicht mehr stimmen‘: Das Format des eigenen Denkens und Verhaltens gerät dann in zunehmendem Widerspruch zur erfahrbaren Welt. Dann ist der Punkt gekommen, wo die immanente Unendlichkeit sich in der alltäglichen Endlichkeit ‚manifestiert‘ und uns darin ‚demonstriert‘, dass der ‚gedachte Kosmos in unserem Kopf‘ eben nicht der ‚wahre Kosmos‘ ist. Letztlich ist diese immanente Unendlichkeit ‚wahrer‘ als die ’scheinbare Endlichkeit‘.

HOMO SAPIENS (Wir)

Neben den lebensfreien materiellen Prozessen in dieser endlichen Welt gibt es seit ca. 3.5 Mrd. Jahren die Erscheinungsformen, die wir ‚Leben‘ nennen, und sehr spät — quasi ‚gerade eben‘ — zeigte sich in den Milliarden von Lebensformen eine, die wir ‚Homo sapiens‘ nennen. Das sind wir.

Die heutigen Kenntnisse von dem ‚Weg‘, den das Leben in diesen 3.5 Mrd. Jahren ‚genommen‘ hat, waren und sind nur möglich, weil die Wissenschaft gelernt hat, das ’scheinbar Endliche‘ als ‚Momentaufnahme‘ eines andauernden Veränderungsprozesses zu begreifen, der seine ‚Wahrheit‘ nur in der ‚Gesamtheit der einzelnen Momente‘ zeigt. Dass wir als Menschen, als die ‚Spätlinge‘ in diesem Lebens-Entstehungs-Prozess‘, über die Fähigkeit verfügen, aufeinander folgende ‚Momente‘ ‚einzeln‘ wie auch ‚in Abfolge‘ ‚erkennen‘ zu können, liegt an der besonderen Beschaffenheit des ‚Gehirns‘ im ‚Körper‘ und der Art und Weise, wie unser Körper mit der umgebenden Welt ‚interagiert‘. Von der ‚Existenz einer immanenten Unendlichkeit‘ wissen wir also nicht ‚direkt‘, sondern nur ‚indirekt‘ über die ‚Prozesse im Gehirn‘, die auf eine ’neuronal programmierte Weise‘ Momente identifizieren, speichern, prozessieren und in möglichen Abfolgen ‚anordnen‘ können. Also: unser Gehirn ermöglicht uns aufgrund einer vorgegebenen neuronalen und körperlichen Struktur, ein ‚Bild/ Modell‘ einer möglichen immanenten Unendlichkeit zu ‚konstruieren‘, von dem wir annehmen, dass es die ‚Ereignisse um uns herum‘ einigermaßen gut ‚repräsentieren‘.

DENKEN

Eine Eigenschaft, die dem Homo Sapiens zugeschrieben wird, heißt ‚Denken‘; ein Begriff, der bis heute nur vage und sehr vielfältig durch verschiedene Wissenschaften beschrieben wird. Von einem anderen Homo Sapiens erfahren wir von seinem Denken nur durch seine Art des ‚Sich Verhaltens‘, und ein Spezialfall davon ist ’sprachliche Kommunikation‘.

Sprachliche Kommunikation ist dadurch gekennzeichnet, dass sie grundsätzlich mit ‚abstrakten Begriffen‘ arbeitet, denen als solches direkt kein einzelnes Objekt in der realen Welt entspricht (‚Tasse‘, ‚Haus‘, ‚Hund‘, ‚Baum‘, ‚Wasser‘ usw.). Stattdessen ordnet das menschliche Gehirn ‚völlig automatisch‘ (‚unbewusst‘!) unterschiedlichste konkrete Wahrnehmungen dem einen oder anderen abstrakten Begriff so zu, dass ein Mensch A sich mit einem Menschen B darüber einigen kann, ob man dies konkrete Phänomen da vorne dem abstrakten Begriff ‚Tasse‘, ‚Haus‘, ‚Hund‘, ‚Baum‘, oder ‚Wasser‘ zuordnet. Irgendwann weiß im Alltag Mensch A welche konkrete Phänomene gemeint sein können, wenn Mensch B ihn fragt, ob er eine ‚Tasse Tee‘ habe, bzw. ob der ‚Baum‘ Äpfel trägt usw.

Diese empirische belegte ‚automatische Bildung‘ von abstrakten Konzepten durch unser Gehirn basiert nicht nur auf einem einzigen Moment, sondern diese automatischen Konstruktionsprozesse arbeiten mit den ‚wahrnehmbaren Abfolgen‘ von endlichen Momenten ‚eingebettet in Veränderungen‘, die das Gehirn selbst auch automatisch ‚erstellt‘. ‚Veränderung als solche‘ ist insofern kein ‚typisches Objekt‘ der Wahrnehmung, sondern ist das ‚Resultat eines Prozesses‘, der im Gehirn stattfindet, der ‚Folgen von einzelnen Wahrnehmungen‘ konstruiert, und diese ‚errechneten Folgen‘ gehen als ‚Elemente‘ in die Bildung von ‚abstrakten Begriffen‘ ein: ein ‚Haus‘ ist von daher kein ’statisches Konzept‘, sondern ein Konzept, das viele einzelne Eigenschaften umfassen kann, das aber als ‚Konzept‘ ‚dynamisch erzeugt‘ wird, so dass ’neue Elemente‘ dazu kommen können oder ‚vorhandene Elemente‘ möglicherweise wieder ‚weg genommen‘ werden.

MODELL: WELT ALS PROZESS

Obwohl es bislang keine allgemein akzeptierte umfassende Theorie des menschlichen Denkens gibt, gibt es doch viele unterschiedliche Modelle (alltäglicher Begriff für den korrekteren Begriff ‚Theorien‘), die versuchen, wichtige Aspekte des menschlichen Denkens anzunähern.

Das vorausgehende Bild zeigt die Umrisse eines minimal einfachen Modells zu unserem Denken.

Dieses Modell nimmt an, dass die umgebende Welt — mit uns selbst als Bestandteile dieser Welt — als ein ‚Prozess‘ zu verstehen ist, bei dem man zu einem gewählten ‚Zeitpunkt‘ in idealisierter Weise alle ‚beobachtbaren Phänomene‘ beschreiben kann, die dem Beobachter zu diesem Zeitpunkt wichtig sind. Diese Beschreibung eines ‚Weltausschnitts‘ sei hier ‚Situationsbeschreibung‘ zum Zeitpunkt t oder einfach ‚Situation‘ zu t genannt.

Dann benötigt man ein ‚Wissen über mögliche Veränderungen‘ von Elementen der Situationsbeschreibung in der Art und Weise (vereinfacht): ‚Wenn X Element der Situationsbeschreibung zu t ist, dann wird für eine nachfolgende Situation zu t entweder X gelöscht oder durch ein neues X* ersetzt‘. Möglicherweise gibt es für das Löschen oder die Ersetzung mehrere Alternativen mit unterschiedlichen Wahrscheinlichkeiten. Solche ‚Beschreibungen von Veränderungen‘ werden hier vereinfachend ‚Veränderungsregeln‘ genannt.

Zusätzlich gibt es als Teil des Modells noch eine ‚Spielanleitung‘ (klassisch: ‚Folgerungsbegriff‘), die erklärt wann und wie man einer Veränderungsregel auf eine gegebene Situation Sit zu t so anwenden kann, dass zum nachfolgenden Zeitpunkt t+1 eine Situation Sit* existiert, in der die Veränderungen vorgenommen worden sind, die die Veränderungsregel beschreibt.

Im Normalfall gibt es mehr als eine Veränderungsregel, die gleichzeitig mit den anderen angewendet werden kann. Auch dies gehört zur Spielanleitung.

Dieses minimale Modell kann und muss man auch vor dem Hintergrund der durchgängigen Veränderung sehen.

Für diese Struktur von Wissen wird vorausgesetzt, dass man ‚Situationen‘ beschreiben kann, mögliche Veränderungen solch einer Situation, und dass man ein Konzept haben kann, wie man Beschreibungen von erkannte möglichen Veränderungen auf eine gegebene Situation anwenden kann.

Mit der Erkenntnis einer immanenten Unendlichkeit, die sich in vielen konkreten endlichen Situationen manifestiert, ist sogleich klar, dass die Menge der angenommenen Veränderungsbeschreibungen mit den beobachtbaren Veränderungen korrespondieren sollte, da ansonsten die Theorie nur einen geringen praktischen Nutzen hat. Ebenso ist es natürlich wichtig, dass die angenommenen Situationsbeschreibungen mit der beobachtbaren Welt korrespondieren. Die Korrespondenz-Anforderungen zu erfüllen bzw. ihr Zutreffen zu überprüfen ist alles andere als trivial.

ABSTRAKT – REAL – INDETERMINIERT

Zu diesen ‚Korrespondenz-Anforderungen‘ hier einige zusätzliche Überlegungen, in denen die Sicht der Alltagsperspektive zur Sprache kommt.

Zu beachten ist, dass ein ‚Modell‘ nicht die Umwelt selbst ist, sondern nur eine ’symbolische Beschreibung‘ eines Umweltausschnitts aus der Sicht und mit dem Verständnis eines menschlichen ‚Autors‘! Auf welche Eigenschaften der Umwelt sich eine Beschreibung bezieht, das weiß nur der Autor selbst, der die gewählten ‚Symbole‘ (Text oder Sprache) ‚in seinem Kopf‘ mit bestimmten Eigenschaften der Umwelt ‚verknüpft‘, wobei diese Eigenschaften der Umwelt ebenfalls ‚im Kopf‘ repräsentiert sein müssen, quasi ‚Wissensabbilder‘ von ‚Wahrnehmungsereignissen‘, die durch die Umwelteigenschaften ausgelöst worden sind. Diese ‚Wissensabbilder im Kopf‘ sind für den jeweiligen Kopf ‚real‘; verglichen mit der Umgebung sind sie aber grundsätzlich nur ‚fiktiv‘; es sei denn, es gibt zwischen aktuellen fiktiven ‚Bilder im Kopf‘ und den ‚aktuellen Wahrnehmungen‘ von ‚Umweltereignissen‘ aktuell einen Zusammenhang, der die ‚konkreten Elemente der Wahrnehmung‘ als ‚Elemente der fiktiven Bilder‘ erscheinen lässt. Dann wären die ‚fiktiven‘ Bilder ‚fiktiv und real‘.

Aufgrund des ‚Gedächtnisses‘, dessen ‚Inhalt‘ im ‚Normalzustand‘ mehr oder weniger ‚unbewusst‘ sind, können wir aber ‚erinnern‘, dass bestimmte ‚fiktive Bilder‘ in der Vergangenheit mal ‚fiktiv und real‘ waren. Dies kann dazu führen, dass wir im Alltag dazu tendieren, fiktiven Bilder, die in der Vergangenheit schon mal ‚real‘ waren, auch in der aktuellen Gegenwart eine ‚vermutliche Realität‘ zuzuschreiben. Diese Tendenz ist im alltäglichen Leben vermutlich von hoher praktischer Bedeutung. In vielen Fällen funktionieren diese ‚Annahmen‘ auch. Dieses ’spontan-für-real-Halten‘ kann aber auch oft daneben liegen; eine häufige Quelle für Fehler.

Das ’spontan-für-real-Halten‘ kann aus vielen Gründen nachteilig sein. So können die fiktiven Bilder (als unausweichlich abstrakte Bilder) schon als solche vielleicht nur ‚partiell angemessen‘ sein. Der Kontext der Anwendung kann sich geändert haben. Generell befindet sich die Umgebung ‚im Fluss‘: Sachverhalte, die gestern gegeben waren, können heute anders sein.

Die Gründe für die anhaltenden Veränderungen sind verschieden. Neben solchen Veränderungen, die wir durch unsere Erfahrung als ein ‚identifizierbares Muster‘ erkennen konnten, gibt es auch Veränderungen, die wir noch keinem Muster zuordnen konnten; diese können für uns einen ‚zufälligen Charakter‘ haben. Schließlich gibt es auch noch die verschiedenen ‚Lebensformen‘, die von ihrer Systemstruktur her bei aller ‚partiellen Determiniertheit‘ grundsätzlich ’nicht determiniert‘ sind (man kann dies auch ‚immanente Freiheit‘ nennen). Das Verhalten diese Lebensformen kann zu allen anderen erkannten Mustern konträr liegen. Ferner verhalten sich Lebensformen nur partiell ‚einheitlich‘, wenngleich Alltagsstrukturen mit ihren ‚Verhaltensregeln‘ — und viele anderen Faktoren — Lebensformen mit ihrem Verhalten in eine bestimmte Richtung ‚drängen‘ können.

Erinnert man sich an dieser Stelle nochmals an die vorausgehenden Gedanken zur ‚immanenten Unendlichkeit‘ und der Sicht, dass die einzelnen, endlichen Momente nur als ‚Teil eines Prozesses‘ verstehbar sind, dessen ‚Logik‘ bis heute weitgehend noch nicht entschlüsselt ist, dann ist klar, dass jegliche Art von ‚Modellbildung‘ von innerhalb der umfassenden Veränderungsprozesse immer nur einen vorläufigen Näherungscharakter haben kann, zumal erschwerend dazu kommt, dass die menschlichen Akteure ja nicht nur ‚passiv Aufnehmende‘ sind, sondern zugleich immer auch ‚aktiv Handelnde‘, die durch ihr Handeln mit auf den Veränderungsprozess einwirken! Diese menschlichen Einwirkungen resultieren aus der gleichen immanenten Unendlichkeit wie jene, die alle übrigen Veränderungen bewirkt. Die Menschen (wie das gesamte Leben) sind damit real ‚ko-Kreativ‘ …. mit all den Verantwortlichkeiten, die sich daraus ergeben.

MORAL ÜBER ALLEM

Was man unter ‚Moral‘ genau zu verstehen hat, muss man aus vielen hundert — oder gar mehr — verschiedenen Texten heraus lesen. Jede Zeit — und sogar jede Region in dieser Welt — hat dazu unterschiedliche Versionen entwickelt.

In diesem Text wird davon ausgegangen, dass mit ‚Moral‘ solche ‚Anschauungen‘ gemeint sind, die dazu beitragen sollen, dass ein einzelner Mensch (oder eine Gruppe oder …) in Fragen der ‚Entscheidung‘, soll ich eher A oder B tun, ‚Hinweise‘ bekommen soll, wie diese Frage ‚am besten‘ beantwortet werden kann.

Erinnert man sich an dieser Stelle daran, was zu vor gesagt wurde zu jener Denkform, die ‚Prognosen‘ erlaubt (das Denken in expliziten ‚Modellen‘ oder ‚Theorien‘) , dann müsste es unabhängig von eine aktuellen ‚Situationsbeschreibung‘ und unabhängig vom möglichen ‚Veränderungswissen‘ eine ‚Bewertung‘ der ‚möglichen Fortsetzungen‘ geben. Es muss also ’neben‘ der Beschreibung einer Situation, wie sie ‚ist‘ mindestens eine ‚zweite Ebene‘ (eine ‚Meta-Ebene‘) geben, die ‚über‘ die Elemente der ‚Objektebene so sprechen kann, dass z.B. gesagt werden kann, dass ein ‚Element A‘ aus der Objektebene ‚gut‘ oder ’schlecht‘ oder ’neutral‘ ist oder mit einer bestimmten graduellen ‚Abstimmung‘ ‚gut‘ oder ’schlecht‘ oder ’neutral‘. Dies kann auch mehrere Elemente oder ganze Teilmengen der Objektebene betreffen. Dies kann man machen. Damit es ‚rational akzeptierbar‘ ist, müssten diese Bewertungen aber mit ‚irgendeiner Form von Motivation‘ verknüpft sein, ‚warum‘ diese Bewertung angenommen werden soll. Ohne solch eine ‚Motivation von Bewertungen‘ würde solch eine Bewertung als ‚pure Willkür‘ erscheinen.

An dieser Stelle wird die ‚Luft‘ recht ‚dünn‘: in der bisherigen Geschichte wurde bislang kein überzeugendes Modell für eine moralische Begründung bekannt, das letztlich nicht auf die Entscheidung von Menschen zurück zu führen ist, bestimmte Regeln als ‚gültig für alle‘ (Familie, Dorf, Stamm, …) anzusetzen. Oft lassen sich die Begründungen noch in den konkreten ‚Lebensumständen‘ verorten, genauso oft treten die konkreten Lebensumstände im Laufe der Zeit ‚in den Hintergrund‘ und stattdessen werden abstrakte Begriffe eingeführt, die man mit einer ’normativen Kraft‘ ausstattet, die sich einer konkreteren Analyse entziehen. Ein rationaler Zugriff ist dann kaum bis gar nicht mehr möglich.

In einer Zeit wie im Jahr 2023, in dem das verfügbare Wissen dazu ausreicht, die wechselseitigen Abhängigkeiten von buchstäblich jedem von jedem erkennen zu können, dazu die Veränderungsdynamik, die mit der Komponenten ‚Erderwärmung‘ den ’nachhaltigen Bestand des Lebens auf der Erde‘ substantiell bedrohen kann bzw. bedroht, erscheinen ‚abstrakt gesetzte Normbegriffe‘ nicht nur ‚aus der Zeit‘ gefallen, nein, sie sind höchst gefährlich, da sie den Erhalt des Lebens für die weitere Zukunft substantiell behindern können.

META-MORAL (Philosophie)

Es stellt sich dann die Frage, ob dieses ‚rationale schwarze Loch‘ von ‚begründungsfreien Normbegriffen‘ die Endstation menschlichen Denkens markiert oder ob das Denken hier nicht gerade erst anfangen sollte?

Traditionell versteht sich eigentlich die Philosophie als jene Denkhaltung, in der jedes ‚Gegebene‘ — dazu gehören dann auch jegliche Art von Normbegriffen — zu einem ‚Gegenstand des Denkens‘ gemacht werden kann. Und gerade das philosophische Denken hat in Jahrtausende langem Ringen genau dieses Ergebnis hervorgebracht: es gibt keinen Punkt im Denken, aus dem sich alles Sollen/ alles Bewerten, ‚einfach so‘ ‚ableiten lässt.

Im Raum des philosophischen Denkens, auf der Meta-Moral-Ebene, kann man zwar immer mehr Aspekte unserer Situation als ‚Menschheit‘ in einer dynamischen Umwelt (mit dem Menschen selbst als Teil dieser Umwelt) ‚thematisieren‘, ‚benennen‘, in eine ‚potentielle Beziehungen‘ einordnen, ‚Denkexperimente‘ über ‚mögliche Entwicklungen‘ anstellen, aber dieses philosophische Meta-Moral-Wissen ist komplett transparent und immer identifizierbar. Die Folgerungen, warum etwas ‚besser‘ erscheint als etwas anderes, sind immer ‚eingebettet‘, ‚bezogen‘. Die Forderungen nach einer ‚autonomen Moral‘, nach einer ‚absoluten Moral‘ neben dem philosophischen Denken erscheinen vor diesem Hintergrund ‚grundlos‘, ‚willkürlich‘, der ‚Sache fremd‘. Eine rationale Begründung ist nicht möglich.

Ein ‚rational Unerkennbares‘ mag es geben, gibt es sogar unausweichlich, aber dieses rational Unerkennbare ist unsere schiere Existenz, das tatsächliche reale Vorkommen, für das es bislang keine rationale ‚Erklärung gibt‘, genauer: noch nicht gibt. Dies ist aber kein ‚Freifahrschein‘ für Irrationalität. In der ‚Irrationalität‘ verschwindet alles, sogar das ‚rational Unerkennbare‘, und dieses gehört mit zu den wichtigsten ‚Sachverhalten‘ in der Welt des Lebens.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ANMERKLUNGEN

[1] Die verschiedenen Formen von ‚Unendlichkeit‘, die mit den Arbeiten von Georg Cantor in die Mathematik eingeführt und intensiv weiter untersucht wurden, haben mit der im Text beschrieben erfahrbaren Endlichkeit/ Unendlichkeit nichts zu tun: https://de.wikipedia.org/wiki/Georg_Cantor . Allerdings, will man die ‚Erfahrung‘ von realer Endlichkeit/ Unendlichkeit ‚beschreiben‘, dann wird man möglicherweise auf Beschreibungsmittel der Mathematik zurückgreifen wollen. Nur ist nicht von vornherein ausgemacht, ob die mathematischen Konzepte mit der zur Sache stehenden empirischen Erfahrung ‚harmonieren‘.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 3

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 25.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.3 THE MATTER OF THE MIND

Nachdem Edelman zuvor die Notwendigkeit einer Untersuchung der materiellen Strukturen des Körpers und des Gehirns als potentieller Grundlage des Geistes gefordert hat, fasst er im Kapitel den aktuellen (=1992) Erkenntnisstand der Gehirnforschung (natürlich sehr komprimiert, vereinfachend) zusammen.

  1. Bemerkenswert erscheinen mir seine Eingangsfeststellungen zur ‚Allgemeinheit der materiellen Strukturen‘, die wir im Gehirn finden. Nichts an den materiellen Bestandteilen des Gehirns sei ’speziell‘. Wir finden nur die allgemeinen chemischen Elemente und Beziehungen wie auch sonst in der Welt. Von daher gibt es ’nichts in den Zusammensetzungen (‚compositions‘) des Gehirns, das uns als Schlüssel für geistige (‚mental‘) Eigenschaften dienen könnte‘.(vgl. S.16)
  2. Trotz dieser Allgemeinheit in der grundsätzlichen chemischen Zusammensetzung sieht Edelman aber eine Besonderheit in der Art und Weise, wie diese chemischen Substanzen im Kontext des Gehirns ‚organisiert‘ (‚organized‘) sind: z.T. Spezielle Moleküle, 200 verschiedene Zelltypen, Schichten von Zellen, die Art ihrer Verknüpfungen, spezifische chemische und elektrische Funktionen. Diese Besonderheiten zusammen ergeben etwas, was auf diese Weise ‚verschieden ist zu allem, was es sonst im gesamten Universum gibt‘. Oder etwas später spricht er von dem Gehirn von dem ‚kompliziertesten (‚most complicated‘) materiellem Objekt des bekannten Universums‘. (vgl. S.16f)
  3. Edelman führt dann einzelne Aspekte dieser besonderen Organisation beispielhaft vor. So den zerebralen Kortex mit seinen geschätzten 10 Milliarden Neuronen (ohne Berücksichtigung der Gliazellen), zwischen denen ca. 1 Mio mal 1 Milliarde (=10^15) direkte Verbindungen im Kortex bestehen. Dabei sei zu berücksichtigen, dass die gleiche Verbindung auf ganz unterschiedliche Weise (n-mal) genutzt werden kann, wa den kombinatorischen Raum entsprechend vergrößert, also ca. (10^15)^n (vgl. S.17)
  4. Neben dem Kortex finden sich weitere Schichten (’sheets‘, ‚laminae‘) von Zellen mit Strukturen die als ‚Kerne‘ (’nuclei‘) bezeichnet werden. Diese Schichten können weniger, aber auch mehr Neuronen enthalten wie der Kortex.(vgl. S.18)
  5. Teilt man den Signalfluss des Gehirns ein nach den Kriterien ‚von der Außenwelt des Gehirns in das Gehirn (Input)‘, von der ‚Innenwelt des Gehirns in die Außenwelt des Gehirns (Output)‘, und von der ‚Innenwelt des Gehirns auf sich selbst‘, dann nimmt die Kommunikation ‚mit sich selbst‘ den meisten Raum ein. Die Kommunikation ’nach außen‘ endet in Muskeln oder Drüsen (‚glands‘), oder in anderen Körperorganen.(vgl. S.18f, 22)
  6. Edelman beschreibt dann ein wenig die Signaleigenschaften eines einzelnen Neurons wie auch von Neuronen im Verbund. Neben den bekannten prä- und postsynaptischen Strukturen zwischen zwei einzelnen Neuronen erwähnt er besonders die Organisation von Neuronen in Form von ‚Karten‘ (‚maps‘), die es erlauben räumliche Strukturen samt deren Veränderungen in der Zeit abzubilden (z.B. Oberfläche der Haut, Retina im Auge). Zwischen diesen Karten gibt es ein dichtes Netz von Verbindungsfasern (fiber‘), ebenso zwischen der ‚rechten‘ und der ‚linken‘ Gehirnhälfte; er spricht hier von ca. 200 Mio verbindenden Fasern.(vgl. S.19f) Wichtig ist, dass diese Karten ‚dynamisch‘ sind, d.h. ihre ‚Grenzen‘ können fließend sein; dieses dynamische Verhalten wird stark durch den Signalfluss gesteuert.(vgl. S.27)
  7. Bezüglich des Signalflusses zwischen Neuronen ist zu beachten, dass die elektrischen Ladungen nicht wie in elektrischen Leitungen durch Bewegungen von Elektronen realisiert werden, sondern durch spezifisch geladene Ionen, die sich erheblich langsamer bewegen. Dazu kommt, dass die gesamte Signalkette zwischen Neuronen viele unterschiedliche Teilsysteme durchlaufen muss: vom Axon zum Axon-Endpunkt, über den synaptischen Spalt, über die Rezeptoren der postsynaptischen Membran, durch Ionen-Kanäle, durch die Entladung in der postsynaptischen Membran samt der zugehörigen Refraktionszeit. Dieser Signalweg ist um Dimensionen langsamer. Diese Langsamkeit kann nur ausgeglichen werden durch eine große Parallelität aller Prozesse.(vgl. S.22, plus Ergänzungen des Reviewers).
  8. Alles in allem kann das Gehirn also in spezieller Weise räumlich verteilte und zeitlich angeordnete energetische Ereignisse ‚aufnehmen‘ und sie auf seine spezifische Weise zu neuen Strukturen ‚verrechnen‘, die dann z.T. wieder auf sich selbst, auf andere Organe oder auf die Außenwelt jenseits des Körpers ‚zurück gegeben werden‘.(vgl. S.22)
  9. Neben diesen eher anatomischen (strukturellen) Eigenschaften des Gehirns sagt Edelman sowohl etwas über ‚dynamische Verhaltenseigenschaften‘ wie auch über ‚Entwicklungsaspekte‘ des Gehirns einschließlich der Phänomene ‚Gedächtnis‘ und ‚Lernen‘. Dies soll aber in einem weiteren Beitrag diskutiert werden. In diesem Zusammenhang lehnt Edelman den Vergleich zwischen dem Gehirn und einem Computer als unpassend ab.(cf. SS.22-30)

DISKUSSION (Fortsetzung)

  1. Interessant erscheint einerseits die Feststellung, dass es ’nichts in den Zusammensetzungen (‚compositions‘) des Gehirns [gibt], das uns als Schlüssel für geistige (‚mental‘) Eigenschaften dienen könnte‘, und andererseits die Feststellung, dass das Gehirn als das ‚komplizierteste (‚most complicated‘) materielle Objekt des bekannten Universums‘ erscheint. Also nicht die grundlegenden chemischen Substanzen sind hier wichtig, sondern die Art und Weise ihrer ‚Organisation‘ zu spezifischen ‚Strukturen‘, die entsprechend spezifische ‚Dynamiken‘ ermöglichen.
  2. Bezogen auf die Frage, ob und wie diese materiellen Strukturen auf das Phänomen ‚Geist‘ verweisen, muss man aber wohl zunächst mal feststellen, dass keine dieser spezifischen materiellen Strukturen als solche auf das Phänomen ‚Geist‘ verweist!
  3. Bislang bleibt die zuvor in der Diskussion geäußerte Arbeitshypothese bestehen, dass ich schon ‚entscheidbare Kriterien von Geist (G)‘ vorab zur Verfügung haben muss, um eine Korrelation zwischen bestimmten materiellen Strukturen (M) und diesen entscheidbaren Kriterien für G identifizieren zu können.
  4. Natürlich ist es interessant, dass die materielle Strukturen eines homo sapiens im Vergleich zum gesamten bekannten Universum als ‚einzigartig‘ erscheinen, und dass wir sogar eine ‚evolutionäre Entwicklung‘ rekonstruieren können. Alle Eigenschaften, die wir als ‚geistig‘ untereinander ‚handeln‘ sind aber zunächst einmal nur in der wechselseitigen Wahrnehmung, Kommunikation, im Handeln als ‚Phänomene‘ verfügbar. Dass diese empirisch beobachtbaren Phänomene des Verhaltens nach heutigem Kenntnisstand zeitlich mit speziellen materiellen Strukturen der Körper korrelieren ist auf jeden Fall bemerkenswert. Aber – und das ist der entscheidende wissenschaftsphilosophische Punkt – diese materiellen Strukturen als solche geben keinerlei Hinweise aus sich heraus auf ‚Geist‘! Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems.
  5. Daraus folgt nun nicht, dass diese materiellen Strukturen ‚egal‘, ‚unwichtig‘ sind, nein, sie sind von zentraler Bedeutung, aber nicht als isolierte Strukturen sondern als Teil einer Dynamik, die ‚in sich‘ Eigenschaften von Geist erkennen kann, die nur in diesem Erkennen verfügbar sind. Außerhalb des spezifischen Erkennens eines homo sapiens und unabhängig von der realisierbaren Dynamik dieser materiellen Strukturen existieren diese Phänomene nicht! Anders formuliert: wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können.
  6. Mit dieser Präzisierung der Arbeitshypothese zum Phänomen des ‚Geistes‘ lassen sich dann konkreter Fragen und Experimente definieren, anhand deren man versuchen kann, dieses einzigartige Phänomen weiter zu erforschen. Aber man sollte nicht zu schnell zu viel erwarten. Das viel einfachere Phänomen der ‚Gravitation‘ ist bislang nicht nur ungelöst, sondern die Physiker haben nicht einmal die leiseste Idee, wie sie es weiter ‚klären‘ wollen. Beim empirischen Phänomen ‚Geist‘ haben wir es – so scheint es – mit einem ganz anderen Kaliber zu tun. Das maximal komplexeste empirische Phänomen des gesamten bekannten Universums reicht vermutlich noch weiter. Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

 

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 24.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KRITIK AN PSYCHOLOGIE UND PHILOSOPHIE DES GEISTES

(Wiederholung und Verstärkung)

In Kapitel 4 greift Edelman seine kritische Sicht der Psychologie und Philosophie nochmals auf und verstärkt dies durch Nennung von noch mehr Namen und Positionen: so nennt er nochmals die Philosophen Rene Descartes, John Locke, George Berkeley, David Hume und Immanuel Kant explizit als solche, die versuchen den ‚Geist aus dem Geist‘ zu erklären (vgl. SS.34f).

Nicht viel besser schneiden bei ihm Psychologen ab wie William James, Wilhelm Wundt, Ewald Hering, Hermann von Helmholtz, Edward Titchener, Hermann Ebbinghaus, Ivan Pavlow, Edward Thorndike, Clark Leonard Hull, John Watson, B.F.Skinner, Max Wertheimer, Wolfgang Köhler, Kurt Koffka, Sigmund Freud, Frederic Bartlett. Auch diesen wirft Edelman vor, dass sie versucht haben, psychische Phänomene ohne expliziten Rekurs auf die physiologischen Grundlagen der Psyche, des Geistes zu erklären.(vgl. SS.36ff)

Aus der Sicht Edelmans ändert sich die Situation erst, als man ernsthaft begann, nach physiologischen Grundlagen zu forschen. Explizit nennt er als Beispiele: Santiago Ramón y Cajal (Nervenzellen), Sir Charles Sherrington (Messungen), Gustav Fritsch und Julius Hitzig (entdecken ‚Gehirnfelder‘ (‚brain maps‘)), Paul Broca (korreliert bestimmte Gehirnfelder mit unterschiedlichen Aspekten des Sprachvermögens), Karl Lashley, Donald Hebb. Allerdings fanden diese frühen Forschungen noch ganz ohne direkten Bezug zum Aspekt der ‚Evolution der Strukturen‘ statt. (vgl. SS.38ff)

Für die neue evolutive Sichtweise benennt Edelman folgende Forscher: Charles Darwin, George Romanes, C.Lloyd Morgan, C.W.Mills, J.M.Baldwin, Jean Piaget.(vgl. S.39f)

Erst langsam setzte sich dann die Haltung durch, dass psychologische Fakten im Kontext von biologischen (inklusive evolutions-biologischen) Fakten zu analysieren und zu deuten sind. Für diese neue Synthese benennt er Biologen (genauer: Ethologen) wie Nikolaas Tinbergen und Konrad Lorenz. (vgl. S.40f)

Edelman konstruiert auf der Basis dieser begrifflichen Entwicklungen die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

DISKUSSION (FORTSEZUNG)

  1. Der Arbeitshypothese zuzustimmen, dass man für ein volles Verständnis der psychisch-geistigen Funktionen die materiellen Grundlagen untersuchen sollte samt der evolutionären Entwicklungsgeschichte ist eine Sache, der man heute aus mehreren Gründen zustimmen kann und sollte. Zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar. Im weiteren Verlauf wird gerade am Beispiel der Anatomie (bzw. der Gehirnforschung im engeren Sinne) gezeigt, dass anatomische Daten ‚für sich‘ keinerlei verhaltensrelevanten Aussagen zulassen, geschweige denn solche, die irgendeinen Bezug zu psychisch-geistigen Eigenschaften erlauben.
  2. Die von Edelman scharf kritisierten Psychologen haben allesamt grundlegende Pionierarbeit geleistet, indem sie Methoden entwickelt und partielle Theorien formuliert haben, die auch heute noch fruchtbar genutzt werden können. Ihr Schicksal ist nur, dass ihre Arbeiten mit den neuen wissenschaftsphilosophischen Methoden nicht neu aufgearbeitet worden sind. So war – um nur einen heraus zu greifen – Ebbinghaus ein Pionier der Gedächtnisforschung, der erstmalig mit experimentellen Methoden (und ohne all die wundersamen technischen Hilfsmittel der heutigen empirischen Wissenschaften) die Dynamik des menschlichen Gedächtnisses ansatzweise quantitativ erfassen und beschreiben konnte, und das ohne auf die anatomischen Grundlagen Bezug zu nehmen. Selbst wenn Ebbinghaus die Möglichkeit gehabt hätte, dies mit moderneren Messverfahren tun zu können (bislang geht es immer noch nur sehr eingeschränkt) hätte ihm dies für seine Forschungen gar nichts genützt. Denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens. Das begrenzte wissenschaftsphilosophische Verständnis, das Edelman hier offenbart, ist leider eine Eigenschaft, die sich in vielen (den meisten?) Arbeiten von Neurowissenschaftlern auch heute noch zeigt. Und dies ist insofern schade, da dadurch das große Potential einer empirischen verhaltensbasierten Psychologie für eine Gesamtsicht eines biologischen Systems nicht genutzt wird.
  3. Analog kann man sagen, der Arbeitshypothese zuzustimmen, dass man die materiellen Strukturen eines biologischen Systems ‚theoretisch einbetten‘ sollte in Zeitreihen von ‚passenden Daten‘, die eine ‚Entwicklung dieser Strukturen‘ sichtbar machen, ist aus vielen Gründen sinnvoll. Zugleich anzunehmen, dass damit automatisch neue Einsichten über psychisch-geistige Eigenschaften folgen würden, ist mehr als kühn. Aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu!
  4. Tinbergen und Lorenz hatten z.B. zuerst bestimmte Verhaltensmerkmale V im Verhalten ihrer biologischen Systeme identifiziert und dann versucht, die Frage zu beantworten, von welchen physiologischen Voraussetzungen diese wohl abhängig sein könnten. Dies führte zu sehr interessanten Entdeckungen und öffnete den Blick für die anatomischen Grundlagen vieler Verhaltensweisen und der mit diesen Verhaltensweisen assoziierten ‚Eigenschaften‘, nennen wir sie ‚psychisch‘, ‚geistig‘, ‚unbewusst‘ oder wie auch immer. Allerdings, ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen.
  5. Diese Überlegungen legen nahe, dass man grundsätzlich einen methodisch transparenten Ansatz benötigt, in dem die Methoden einer verhaltensbasierten Psychologie, einer evolutionären Biologie und – falls man die Neurowissenschaften als eigenen Bereich innerhalb der Biologie sehen will – einer systemischen Neurowissenschaft in einer kombinierten Theorie zusammen geführt werden. Jede Einzeltheorie hätte hier ihren spezifischen Ansatz, der aber in einem übergeordneten Theorierahmen integriert würde. Gelegentlich findet man die Bezeichnung ‚Neuropsychologie‘, aber das, was sich hinter diesem Namen verbirgt, ist selten das, was es sein sollte.
  6. Alles, was am Beispiel der von Edelman zitierten Psychologen angemerkt wurde, lässt sich in analoger Weise auch auf die zitierten Philosophen anwenden (wobei die Liste von Edelman sehr unvollkommen ist!). Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. Abgesehen davon, dass selbst die aktuelle Gehirnforschung eine solche vollständige begrifflich-funktionale Substitution noch gar nicht leisten könnte, muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften.
  7. Angesichts der soeben skizzierten methodischen Situation kann man Philosophen eventuell darin kritisieren, dass sie die falschen Schlüsse gezogen haben, aber nicht darin, dass sie die primär im Bewusstsein fundierte Denkfiguren benutzen. Dies machen alle empirischen Wissenschaftler; nur sind diese sich dieser Tatsache oft nicht mehr bewusst. Und genauso wie Verhaltenswissenschaftler und Physiologen sich wechselseitig Hilfestellung leisten können im Zustandekommen von Verhaltensdaten so können sich Verhaltenswissenschaftler, Physiologen und Philosophen gegenseitig helfen, indem sie die Korrelationen zwischen Bewusstseinsdaten, Verhaltensdaten und physiologischen Daten untersuchen. Dies dann weitergehend erweitert um die Entwicklungsdimension.
  8. Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. Sofern man auf diese Weise einen ‚intuitiven‘ Zugang zu diesem komplexen Phänomen hat, kann es interessant sein, seine ‚Fundierung‘ in materiellen Strukturen und deren Entwicklung zu untersuchen. Man darf allerdings nicht erwarten, dass die materiellen Strukturen als solche irgendwelche Hinweise liefern. Dies ist ein bisschen wie das Phänomen der ‚Gravitation‘ in der physikalischen Sicht der Welt. Gravitation manifestiert sich im Gesamtverhalten, lässt sich aber – bis heute – nicht auf bestimmte materielle Eigenschaften zurück führen. Würde man jetzt sagen, dass Gravitation eine ‚Chimäre‘ sei, würde die physikalische Beschreibung des Universums weitgehend zusammen brechen. Am Beispiel des – methodisch sehr analogen – Begriffs ‚Geist‘ tut sich die Wissenschaft eigentümlicherweise sehr schwer, hier ebenfalls einen systemisch notwendigen theoretischen Term anzunehmen, der sich nur im Gesamt definieren lässt, nicht durch Bezug auf einzelne materielle Aspekte.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 1

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KONTEXT BLOG

Eine der zentralen Fragen, um die dieser Blog seit vielen Jahren kreist, ist die Frage nach dem Verhältnis von ‚Geist‘ und ‚Materie‘. Während die Tradition der Philosophie (und davon stark abhängig auch die christliche Theologie) seit den Griechen einen wesentlichen Unterschied zwischen ‚Geist‘ und ‚Materie‘ annimmt, legen die neuen Erkenntnisse der empirischen Wissenschaften mehr und mehr den Schluss nahe, dass der ‚Geist‘, das ‚Geistige‘, das ‚Psychische‘, das ‚Bewusstsein‘ Eigenschaften sind, die nur im Kontext einer hochkomplex organisierten Materie (z.B. im Kontext des Körpers des homo sapiens mit Gehirn) auftreten, die sich im Laufe von vielen Milliarden Jahren auf der Erde in Gestalt des ‚biologischen Lebens‘ entwickelt konnte. Dies ist nicht zwingend als schlichte Gleichsetzung materieller Strukturen und geistiger Eigenschaften zu verstehen, sondern möglicherweise eher in Richtung einer ‚emergenten Logik‘ derart, dass sich diese Eigenschaften anlässlich des Auftretens bestimmter komplexer materieller Strukturen ‚zeigen‘. Dies entspricht analog der Situation in der Mathematik, in der man zwischen ‚Mengen‘ und ‚Relationen‘ unterscheidet: ohne Mengen lassen sich keine Relationen definieren und aufzeigen, aber Relationen sind keine Mengen. Mengen können auch ohne Relationen auftreten, genauso wie es materieller Strukturen gibt, die keine Phänomene von ‚Geist‘ zeigen.

Hat man diese Blickweise einer emergenten Logik erst einmal eingenommen, stellen sich natürlich sehr viele neue Fragen. Einige dieser Fragen lauten, wie denn überhaupt etwas ‚Materielles‘ beschaffen sein muss, dass es etwas ‚Geistiges‘ zeigen kann? Was genau ist dann das ‚Geistige‘ in Abgrenzung vom ‚Materiellen‘? Wieso kann es materielle Strukturen geben, die keine ‚geistige‘ Phänomene zeigen, und solche, die es tun?

Und, wie so oft in der Geschichte der Philosophie und der neueren Geschichte der empirischen Wissenschaften, kann es von Bedeutung sein, die ‚Bedingungen des Erkennens‘ im Kontext des ‚vermeintlich Erkannten‘ mit zu reflektieren. Ein ‚Lebewesen‘, das ‚läuft‘ kann ich z.B. ‚träumen‘, mir ‚vorstellen‘, ‚erinnern‘, mir ‚ausdenken‘ oder ‚aktuell sehen‘. Und wenn ich es aktuell sehe, dann kann es ein Gemälde sein, eine Photographie, ein Film, ein Video, ein Computerspiel, oder ein ‚realer Gegenstand der Körperwelt’… und mein individuelles Erkennen eingebettet in einen sozialen Kontext eröffnet eine weitere große Anzahl an Varianten des wechselseitigen ‚Verstehens‘ oder ‚Nicht-Verstehens‘. Und selbst, wenn wir spontan ein ‚Verstehen‘ unterstellen, kann sich – nicht selten – später heraus stellen, dass der andere etwas anderes verstanden hat als man selber ‚meinte‘, was er ‚verstanden haben sollte‘. Viele weitere Aspekte der Art des Erkennens können benannt werden.

Diese Fragen zu klären ist ein Anliegen dieses Blogs.

KONTEXT EDELMAN

Bleibt man dem Anliegen des Blogs treu, dann kommt man an einer Gestalt wie Gerald Maurice Edelman (1929 – 2014) kaum vorbei. Gestartet als ein mit dem Nobelpreis gekrönter Erforscher des menschlichen Immunsystems wendet er sich später der Erforschung des menschlichen Gehirns und seines Geistes zu. Die vielen Bücher, die er zu diesem Thema seit 1987 geschrieben hat, sind von einer eindrücklichen Klarheit und zeugen von einem profunden Wissen. Eines dieser Bücher mit dem vieldeutigen Untertitel ‚Über die Materie des Geistes‘ oder auch ‚Über die Sache des Geistes‘ (‚On the Matter of the Mind‘) soll hier exemplarisch diskutiert werden.

GEIST (MIND)

Bei der Diskussion der Texte von Edelman werde ich seinen Begriff ‚Mind‘ mit ‚Geist‘ übersetzen, obgleich das Wortfeld von ‚Geist‘ im Deutschen möglicherweise nur partiell mit dem Wortfeld von ‚Mind‘ im Englischen übereinstimmt. Aufgrund der komplexen Bedeutungs- und Wortfeldbeziehungen aller Begriffe einer Sprache ist jedes Übersetzungsprojekt immer nur eine Annäherung. Soweit würde ich hier jedoch gar nicht gehen. Ich benutze den Begriff ‚Geist‘ hier einfach so, als ob es der Begriff ‚Mind‘ im Englischen wäre und folge dem Englischen Text. Wer sich vergewissern will, was ‚tatsächlich‘ da steht, sollte daher selbst den Englischen Text lesen, was sich im übrigen auf jeden Fall empfiehlt, da ich ja nicht den Text von Edelman hier direkt wiedergebe sondern nur bestimmte Gedanken aus seinem Text aufgreife und sie hier diskutiere.

Generell ist sich Edelman bewusst, dass der Begriff ‚Mind‘ in der Geschichte der Philosophie, überhaupt in der Kultur, und dann auch im Alltag, so vielfältig überladen ist, dass es im Einzelfall schwer bis unmöglich ist, zu einer klaren und eindeutigen Bestimmung der gemeinten Bedeutung zu kommen. Dennoch meint er, dass es im Alltag eine Art ‚gemeinsamen Bedeutungskern‘ gib, den er wie folgt umreißt (vgl. S.5):

  1. Dinge haben keinen Geist
  2. Normale Menschen haben Geist; einige Tiere verhalten sich so, als ob sie über Geist verfügen.
  3. Seiendes mit Geist kann sich auf anderes Seiendes oder auf Dinge beziehen; Dinge ohne Geist können sich nicht auf anderes Seiendes oder auf andere Dinge beziehen.

Dieses ’sich auf etwas anderes beziehen können‘ assoziiert Edelman mit dem Begriff der ‚Intentionalität‘, die der Deutsche Philosoph Franz Brentano eingeführt hat. ‚Bewusstsein‘ (‚awareness‘) wird hier so gesehen, dass es immer ein ‚bewusst sein von einem anderen als einem Objekt‘ ist. (vgl. S.5)

Ferner sieht Edelman dieses Bewusstsein als einen ‚Prozess‘, darin dem Psychologen William James folgend, für den ‚Geist ein Prozess ist, kein Zeug (’stuff‘)‘. Und da die moderne Wissenschaft ‚Materie‘ (‚matter‘) auch als einen ‚Prozess‘ sieht, der auf Energieaustausch basiert, ist diese Sicht des Geistes als Prozess nicht inkompatibel mit der generellen Sicht von Materie als Prozess.(vgl. S.6) Allerdings schränkt Edelman diese generelle Sicht insofern ein, als er ‚Geist‘ als einen ’spezielle Art von Prozess‘ ansieht, der nur mit einem ’speziellen Arrangement von Materie‘ korreliert! (vgl. S.7)

Dieses spezielle Arrangement von Materie sieht er gegeben in den Strukturen des Gehirns, das in einen Körper eingebettet ist, der sich – was seit Darwin Thema ist – im Rahmen einer evolutionären Entwicklung ‚herausgebildet‘ (‚arose‘) hat. (vgl. S.7) Vor diesem Hintergrund ist es keineswegs ausreichend, Wissenschaft auf Objekte ‚ohne Geist‘ (‚inanimate‘) zu beschränken.

Nein, Lebewesen (‚animals‘) mit Gehirnen, mit Intentionalität, müssen untersucht werden, allein auch schon deshalb, weil ‚wissenschaftliche Beobachter‘ selbst solche Lebewesen mit Gehirn, mit Intentionalität sind, die in ihr eigenes Bewusstsein ‚eingeschlossen sind‘ (‚locked into‘) und die deswegen darauf angewiesen sind, ihre eigenen Erfahrungen mit anderen Beobachtern so zu ‚kommunizieren‘, dass sie ‚objektiv‘ sind.(vgl. S.8)

Diese Forderung nach einer Rückbesinnung darauf, den ‚Geist‘ als Eigenschaft der ‚Natur‘ zu sehen, richtet sich nicht nur an die Philosophen, sondern auch an die empirischen Wissenschaftler!

DEN GEIST IN DIE NATUR ZURÜCKVERLAGERN

(PUTTING THE MIND BACK INTO NATURE)

Edelman listet eine Reihe illustrer Naturwissenschaftler auf, die alle entscheidende Beiträge zur modernen Physik geleistet haben (Galilei, Newton, Einstein, Planck, Heisenberg), die alle das Ideal der ‚invarianten Naturgesetze‘ befördert haben, (vgl. S.9-11) ‚invariant‘ in dem Sinne, dass die ‚Subjektivität des Beobachters‘ aus den Beobachtungen und Gesetzmäßigkeiten ausgeklammert werden muss.

Diese methodisch geforderte Ausgrenzung des Subjekts – und damit des Geistes – aus dem Gegenstandsbereich der Physik ähnelt äußerlich dem philosophischen Dualismus, für den der Philosoph (und Mathematiker) Descartes gerne zitiert wird. Mit seiner begrifflichen Unterscheidung von ‚res extensa‘ (frei übersetzt ‚Materie‘) und ‚res cogitans‘ (frei übersetzt ‚Geist‘) konservierte er das klassische dualistische Denken auf eine Weise, die eine Aporie aufbaute, aus der es lange kein Entkommen zu geben schien.(vgl. S.11)

Edelman klassifiziert auch die moderne, verhaltensbasierte Psychologie (‚behaviorism‘) als ‚dualistisch‘ (vgl. S.11f), obgleich deren Motivation die gleiche war wie jene der Physiker: es ging um eine methodische Ausklammerung jener subjektiven Momente des Erkennens, die eine objektive Kommunikation erschweren bis unmöglich machen.

Sehr ausführlich schildert er auch die Position der ‚Kognitionswissenchaft‘ (‚cognitive science‘, ‚cognitivism‘), die sich als Reaktion auf die radikal verhaltensorientierte Psychologie entwickelt hatte. Den Mangel an kognitiven Strukturen der frühen verhaltensbasierten Psychologie versuchte die multidisziplinär aufgestellte Kognitionswissenschaft durch umfangreichen Einsatz von mathematischen Modellen und Computersimulationen auszugleichen. (vgl. S.12-14) Allerdings kritisiert Edelman diese Position auch sehr entschieden, da sie sich – nach seiner Einschätzung – weitgehend von empirischen Grundlagen des menschlichen Geistes verabschiedet hatte. Die wahre Struktur und die wahre Entwicklung biologischer Systeme blieb dadurch auf der Strecke.

Edelman fordert demgegenüber, dass die Eigenschaften des Geistes nicht als biologiefreie Funktionen zu postulieren sind, sondern im Aufweis der biologischen Strukturen muss der Geist in die Natur ‚zurück verlagert‘ werden. (vgl. S.14f)

DISKUSSION

  1. Die generelle Idee von Edelman, den Dualismus von ‚Geist‘ und ‚Materie‘ dadurch aufzulösen, dass man der Frage nachgeht, wie der Geist überhaupt in die als ‚materiell klassifizierte Welt‘ hineinkommt, ist auch die Idee dieses Blogs.
  2. Edelman selbst liefert mehrere Hinweise, wo er ansetzen will: (i) Descartes hatte versäumt, die Grundlage seines ‚cogito ergo sum‘ zu hinterfragen, nämlich seinen Körper. Den spanischen Universal-Intellektuellen Miguel de Unamuno y Jugo (1864 – 1936 ) zitierend formulierte er das Motto von Descartes um: ’sum ergo cogito‘ (‚Ich bin, daher denke ich‘). In diesem Motto, das in diesem Blog inhaltlich schon ähnlich formuliert worden ist, ist die ‚res cogitans‘ eine Eigenschaft der ‚res extensa‘, was wiederum die Frage nach der genauen ‚Beschaffenheit‘ der res extensa aufwirft. (ii) Die moderne Physik hat den Beobachter aus ihrer Theoriebildung ausgeklammert, dabei aber fundamentale Eigenschaften der empirischen Wirklichkeit mit ausgeklammert. Die ‚geist-freie‘ Materie erscheint in dieser Hinsicht als ein ‚methodischer Artefakt‘ der Theoriemacher. (iii) Die moderne verhaltensbasierte Psychologie (oft als ‚Behaviorismus‘ bezeichnet) verhält sich synchron zur modernen Physik: sie klammert den Beobachter aus aus Angst, die ‚objektive Empirie‘ mit ’subjektiven Wahrnehmungsinhalten zu verunreinigen‘. (iv) Der wissenschaftliche Modetrend der Kognitionswissenschaft unterscheidet sich letztlich vom Behaviorismus methodisch gar nicht; die Kognitionswissenschaft hat nur freizügiger von Theorie-Erweiterungen Gebrauch gemacht, die mehr Mathematik und mehr Algorithmen einbezogen haben, ohne allerdings die empirische Basis entsprechend zu erweitern.
  3. Edelman sieht nun eine Verbesserung des Verstehens gegeben in dem Versuch, die Biologie stärker einzubeziehen: einmal mit Blick auf den Entwicklungsaspekt (Evolution), wie auch mit Blick auf die funktionalen Aspekte des Körpers und hier speziell des Gehirns (Physiologie).
  4. Obwohl Edelman die fundamentale Rolle des Beobachters und seiner Körperlichkeit sieht und unterstreicht, lässt er aber gerade den Beobachter als Ausgangspunkt und Basis jeder Theoriebildung offen. Obwohl Edelman auf das Problem der primären Subjektivität hinweist, das sich nur mühsam durch Kommunikationsprozesse mit anderen Subjektivitäten ‚vermitteln‘ lässt, lässt er es offen, was dies für die verschiedenen empirischen Disziplinen methodisch bedeutet.
  5. Wissenschaftsphilosophisch handelt es sich bei ‚introspektiven (=subjektiven)‘ Daten (Phänomenologie), ‚Verhaltensdaten‘ (Psychologie, Biologie) und ‚physiologischen‘ Daten (Physiologie, Biologie), das Ganze noch ausgedehnt in ‚Zeitreihen‘ (Evolution, Wachsen, Lernen, Biologie), um ganz unterschiedliche Daten, die eigene Theoriebildungen erfordern, die miteinander ‚korreliert‘ werden müssten. Bedenkt man weiter, dass die Verhaltensdaten und physiologischen Daten samt aller Zeitreihen primär auch subjektive Daten sind (das Gehirn sitzt ‚im Körper‘, berechnet von dort aus alles) und nur im abgeleiteten Sinne ‚objektiv‘ genannt werden können, werden hier viele Fragen aufgeworfen, von denen nicht bekannt ist, dass sie bislang irgendjemand ernsthaft verfolgt hat. Edelman liefert alle Zutaten, um die Fragen zu stellen, aber auch  er lässt diesen Komplex zunächst mal im Unbestimmten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST …

KONTEXT

  1. Diesem Beitrag ging ein Blogeintrag voraus mit einer einleitenden methodischen Reflexion sowie die Identifizierung einer ersten Periode im Phänomen des biologischen Lebens auf der Erde.Periodisierung der biologischen Evolution nach speziellen Kriterien. Siehe Text.

UR-GEDÄCHTNIS, ABSTRAKTES WISSEN

  1. Ein wichtiger Punkt der ersten Periode des biologischen Lebens ist jene Struktur, welche erstmalig im Universum die Überwindung der Gegenwart durch eine gedächtnishafte Kumulierung von Eigenschaften und Beziehungen (Speichermolekül, Bauplan, Genom…) erlaubt, wodurch die Erfolge der Vergangenheit in die aktuelle Gegenwart hinein wirken können.
  2. Die Herrschaft des Augenblicks wird damit ansatzweise überwunden. Nicht mehr das aktuell Faktische (‚Seiende‘) ist die eigentliche Wahrheit,  sondern erinnerte Eigenschaften und Beziehungen werden zu einer höheren Wahrheit, einer Wahrheit zweiter Ordnung; das Abstrakte und darin Virtuelle erweist sich als die bessere Aussage über die Gegenwart. Das gegenwärtig Stattfindende, aktuell in die Sinne Springende, ist nur ein Aspekt an einem dynamischen Geschehen, das als Geschehen mehr von der Wirklichkeit, vom Leben enthüllt, als das jeweils aktuell Seiende.
  3. Rückblickend gewinnt damit der Prozess, der zur Entstehung der ersten Zelle führte, ein eminent philosophische Bedeutung: wie konnte die sogenannte tote und dumme, schlichtweg die geistlose Materie, in der Lage sein, im Meer der Atome und Moleküle auf der frühen Erde eine Prozessumgebung bereit zu halten, in der sich chemische Prozesse so abspielten, dass nicht nur neue Energieumwandlungs- und -nutzungskonzepte entstehen konnten, sondern zugleich der Prozess sich selbst in Form eines Moleküls so kodiert, dass er sich bei der Selbstreproduktion auch wieder dekodieren konnte. Für die molekularbiologischen Details dieses komplexen Prozesses sei auf entsprechende Literatur verwiesen (Neben z.B. Christian de Duve sei noch vierwiesen auf The Origin and Nature of Life on Earth: The Emergence of the Fourth Geosphere. Cambridge University Press, 2016, Smith, Eric and Morowitz, Harold J.). Philosophisch entscheidend ist  letztlich, was durch diese komplexen Prozesse an wirkender Struktur und Funktionalität oberhalb der molekularen Ebene entstanden ist, welche die sich selbst reproduzierende Zelle mit einer ersten Form von Wissen ausgestattet haben.

UR-AUTOMAT, UR-ALGORITHMUS

  1. Die Besonderheit dieses ersten Wissens (‚Proto-Wissen‘, ‚Ur-Wissen‘…) liegt in seinem algorithmischen Charakter: im Wechselspiel mit den dekodierenden Elementen einer Zelle zeigen diese Strukturen eine strukturelle Ähnlichkeit mit dem Konzept der Turingmaschine, das 1936 von Alan M.Turing entdeckt wurde, um das Phänomen der Berechenbarkeit zu beschreiben. Wie sich herausstellte, lassen sich alle Computer, die zeitlich nach Turing als reale Maschinen entwickelt wurden, bislang mit dem abstrakten Konzept der Turingmaschine beschreiben. [ANMERKUNG: Dass die neu entwickelten Quantencomputer von diesem Konzept abweichen, müsste erste noch bewiesen werden. Denn dass Prozesse ‚sehr schnell‘ sind, ‚parallel‘ stattfinden, und mehr als nur ‚zwei Zustände‘ kennen, sprengt das mathematische Konzept der Turingmaschine nicht notwendigerweise.]
  2. Diese Strukturähnlichkeit des Automatenkonzepts mit den elementaren Wissensnutzungskonzepten der ersten biologischen Zellen (und dann natürlich aller NachfolgerInnen) ist philosophisch von Interesse. Es legt die Vermutung nahe, dass das moderne algorithmische Informationsverarbeitungskonzept möglicherweise eine elementare Eigenschaft des biologischen Lebens selbst anzeigt, das ja nicht in einzelnen isolierten Komponenten besteht, sondern als ein dynamischer Zusammenhang auftritt, der auf der Basis der Eigenschaften der Materie in der Lage ist, solche Prozesse zum Laufen zu bringen, in denen sich dynamische Eigenschaften des Universums in geeignete abstrakte Kodierungen übersetzen lassen, die wiederum zu Befehlsketten für neue Prozesse werden können.

UR-ZEICHEN, UR-SEMIOTISCHER AKTEUR

  1. Mit Blick auf den weiteren Fortgang der biologischen Evolution ist auch noch folgender Perspektivwechsel von Interesse. Die Kodierung von Realität in eine repräsentierende Struktur mittels eines Materials für die Codeelemente (hier: Atomverbindungen im Kontext eines Moleküls) und die Dekodierung der im Material angeordneten Codeelemente mittels einer Dekodierungsvorschrift, kann man auch als semiotischen Prozess verstehen: die zu kodierende (auch prozesshafte) Realität bildet dann die Bedeutung (‚meaning‘), die in einem Zeichenmaterial (die Codeelemente) repräsentiert wird, und der Zusammenhang zwischen Zeichenmaterial und Bedeutung wird über eine Bedeutungsbeziehung hergestellt, welche immer eine prozesshafte Instanz sein muss, die sowohl die Kodierung wie auch die Dekodierung leisten kann. Innerhalb einer realisierten Bedeutungsbeziehung erscheint das Zeichenmaterial dann als Zeichen für die Bedeutung und umgekehrt wird die bezeichnete Realität zur Bedeutung des Zeichens.
  2. Außerhalb der Bedeutungsbeziehung gibt es weder Bedeutung noch Zeichen. Zeichen und Bedeutung sind an eine prozesshafte Instanz gebunden, durch die diese Beziehung generiert und realisiert wird. Nennt man jene prozesshafte Instanz, die Zeichenbeziehungen ermöglicht, einen semiotischen Akteur, dann ist die erste biologische Zelle der erste semiotische Akteur des Universums. Das Prozessmodell, das hier zum Tragen kommt ist – jenseits der molekularbiologischen Perspektive – das eines Automaten, das einer Turingmaschine, und damit repräsentiert die biologische Zelle – in philosophisch formaler Sicht – den ersten algorithmischen semiotischen Akteur des Universums.
  3. Zum Zeichenkonzept gehört auch, dass es konventionell ist: es ist beliebig, welches Ausdrucksmaterial die Prozessinstanz welchen möglichen Realitäten zuordnet. Das Beschränkende daran ist, dass die Zeichenbeziehung, die dann faktisch eingerichtet wurden, spezifisch sind: alle semiotischen Akteure, die die gleiche Zeichenbeziehung benutzen wollen, müssen sich bezüglich der Zeichenbeziehung koordinieren. Das Entgrenzende an einer Zeichenbeziehung ist, dass sie im Prinzip die gesamte Realität in sich aufnehmen kann. Durch einen semiotischen Prozess kann man die empirische Realität in eine abstrakt-virtuelle Realität transformieren und dabei zugleich verändern. Die veränderte virtuelle Realität kann dann dazu benutzt werden, um die empirische Realität im Hinblick auf mögliche zukünftige empirische Zustände zu befragen und neue Varianten voraus zu denken.
  4. Die Verfügbarkeit einer Zeichenbeziehung gibt damit einem individuellen System eine potentiell unbegrenzte Macht zum Verändern. Andererseits funktioniert dies nur, wenn der semiotische Akteur nicht alleine agiert, sondern als Teil einer Kollektion von semiotischen Akteuren. Jeder kann zwar die Zeichenbeziehung für sich ändern, sie gehört aber niemandem alleine. Es ist ein kollektives Wissen, das sich den einzelnen schafft und durch die Aktivität des einzelnen partiell, graduell modifizierbar ist.
  5. In der Phase der ersten semiotischen Revolution des Lebens wurde die Einheit der Zeichenbeziehung gewahrt durch die gemeinsame Nutzung der RNA- und DNA-Moleküle samt deren molekularen Kodierungs- und Dekodierungsstrukturen, die allen Zellen gleich sind. Und diese gesamte Zeichenstruktur war realisiert als eine universelle Turingmaschine.

 

REPRÄSENTATIONSPROBLEME

 

  1. Man kann sich fragen, in welcher Weise sich diese biologisch vorfindbaren Strukturen und Dynamiken im bisherigen Komplexitätskonzept identifizieren lassen? Wie lässt sich eine algorithmische semiotische Prozessstruktur mit Gedächtnis systemtheoretisch fassen? Was sagen schon Input-Output Mengen, interne Level, mit Blick auf solch komplexe Eigenschaften?
  2. Zeitlich punktuelle und beziehungsmäßig isolierte repräsentierende Strukturen können offensichtlich Phänomene, die sich in der Zeit erstrecken und in Wechselwirkungen stattfinden, nicht angemessen repräsentieren. Dazu kommen semiotische Eigenschaften und auch Erfolgskriterien der empirischen Systeme, die sich neben der Zeit auch in übergeordneten Strukturen repräsentieren (wenn überhaupt).
  3. Zusätzlich gibt es das Phänomen der Strukturveränderung STR im Laufe der Zeit, die zugleich einhergeht mit Verhaltensänderungen f. Und diese Veränderungen erfolgen nicht isoliert, sondern in einem Feld anderer Strukturen {<STR1,f1>, …, <STRn,fn>}(t1) ==> {<STR1,f1>, …, <STRn,fn>}(t1+1) und von Umgebungskontexten {C1, …, Cn}(t1)==> {C1, …, Cn}(t1+1) , die sich mit verändern.
  4. Jede einzelne biologische Struktur ist zudem Teil einer übergreifenden biologischen Population POP, die einen ähnlich kodierten Wissensspeicher G teilt, also POP = {Menge aller STRi für die gilt, dass ihr kodiertes Wissen Gi zur einer Ähnlichkeitsklasse Gi gehört}.
  5. Hier deuten sich komplexe Vernetzungsstrukturen in der Zeit an, die in dem bisherigen Komplexitätskonzept nicht befriedigend repräsentiert sind.
  6. Mit diesen ungelösten Fragen im Hinterkopf stellt sich die weitere Frage, welche der nachfolgenden Ereignisse in der biologischen Evolution eine weitere Steigerung der Komplexität manifestieren?

 

GEHIRN – BEWUSSTSEIN – GEIST

 

  1. Man kann beobachten, wie biologische Zellen sich in nahezu alle Lebensbereiche der Erde ausbreiten: im Meer, im Sediment, auf Land, in der Luft, in heißen und kalten Umgebungen, ohne und mit Sauerstoff, in immer komplexeren Verbänden von Zellen, mit immer komplexeren Strukturen innerhalb der Verbände, mit komplexer werdenden Kooperationen aufgrund von Kommunikation, als Pflanzen und Tiere, als Einzelgänger arbeitend, in Gruppen, Schwärmen, ganzen ‚Staaten‘, mit immer komplexeren Sprachen, mit Schriftsystemen, mit immer komplexeren Werkzeugen, …
  2. … die äußerlich beobachtbaren immer komplexer werdenden Verhaltensweisen korrelieren mit einer zunehmenden Verdichtung der internen Informationsverarbeitung mittels spezialisierter Zellverbände (Nervensystem, Gehirn). Die aktuelle Wahrnehmung der eigenen Körperzustände wie Eigenschaften der Umgebung wurde immer differenzierter. Die Informationsverarbeitung kann Wahrnehmungsereignisse abstrahieren, speichern und erinnern... Im Erinnerbaren lassen sich Unterschiede und Veränderungen erkennen, darin Beziehungen, zugleich kann Gegenwärtiges, Erinnertes neu kombiniert (Denken, Planen) werden. Dazu entwickelt sich die Fähigkeit, aktuell Wahrgenommenes symbolisch zu benennen, es mit anderen zu kommunizieren. Dies erschließt neue Dimensionen der Orientierung in der Gegenwart und über die Gegenwart hinaus.
  3. Wichtig ist, dass man diese neuen Fähigkeiten und Leistungen nicht direkt am Nervensystem ablesen kann (obgleich dies immer größer und dichter wird), sondern nur über das beobachtbare Verhalten, über die Wechselwirkungen mit anderen Systemen und der Umgebung. So ist das Gehirn von Säugetieren strukturell systemisch nicht wirklich verschieden, aber die Verhaltensweisen der jeweiligen Systeme im Verbund sind markant anders.
  4. Dies deutet auf eine neue Form von Dualität (oder wie andere vielleicht sagen würden), von Dialektik hin: die zunehmende Komplexität des Verhaltens korrespondiert mit einer entsprechend anwachsenden komplexen Umgebung, die ihre empirische Fundierung im Körper, im Gehirn zu haben scheint, aber andererseits kann sich diese Komplexität nur entfalten, nur zeigen, nur manifestieren, in dem Maße, wie diese äußere Komplexität empirisch verfügbar ist. Von daher ist es möglicherweise fruchtlos, zu fragen, was hier Ursache für was ist: das Gehirn für die Umgebung oder die Umgebung für das Gehirn. Manche sprechen hier ja auch von Ko-Evolution. Entscheidend ist offensichtlich der Prozess, durch den sich diese Wechselbeziehungen entfalten und wirken können. Dies impliziert, dass die beteiligten Strukturen plastisch, veränderlich sind.
  5. In der klassischen Philosophie nannte man ein komplexes Verhalten dieser Art ‚geistig‘, da man es im Organismus auf das Prinzip des Pneumas, der Psyche, des Geistes zurückführte (ohne letztlich zu wissen, was das jeweils ‚an sich‘ sein sollte). In diesem Verständnis könnte man formulieren, dass Lebensformen entstanden, deren Verhalten eine Komplexität zeigén, die man als geistig bezeichnen könnte.
  6. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS; nicht entscheidend alleine, dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  7. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.
  8. Für die Frage, wann ungefähr zeitlich solche Lebensformen auf der Erde auftreten, gibt es möglicherweise nicht den einen Zeitpunkt, sondern eher ein Zeitkorridor, innerhalb dessen sich unterschiedliche Phänomene angesammelt haben, die zusammen dann solch einen neuen Komplexitätshöhepunkt anzeigen. (Beginn Hominisation ca. -7 bis -5 Mio ; Migrationswellen ausgehend von Afrika (-130.000 bis -115.000 und -100.000 bis -50.000) ; Entstehung der Schrift  ca. -4000 im Gebiet des fruchtbaren Halbmonds)

 

KOEXISTENZ VON GEIST UND GESELLSCHAFT

  1. Da alle Handlungen des Menschen, die über den Augenblick hinausgehen, an seine Erinnerungs- und Denkfähigkeit gebunden sind, durch die der Augenblick in real erfahrene oder virtuell vorstellbare Zusammenhänge nach hinten und vorne eingebettet werden kann, wird man die gesamte Entwicklung komplexer Gesellschaften immer nur unter Voraussetzung einer entsprechenden Kommunikation und entsprechender Wissensmodelle verstehen können. Das verfügbare Wissen kann stabilisieren, konservieren und – im negativen Fall – blockieren, und im positiven Fall Alternativen aufzeigen, neue Möglichkeiten, Ursache-Wirkung Zusammenhänge deutlich machen.
  2. Daraus legt sich nahe, dass eine Theorie der Gesellschaft die handelnden semiotischen Akteure als Grundelemente umfassen sollte.
  3. Während eine biologische Population von Systemen durch den gemeinsamen biologischen Bauplan (realisiert im DNA-Molekül samt zugehöriger Dekodierungsstruktur) charakterisiert ist, definiert sich eine Gesellschaft von Systemen über gemeinsamen Wissensmodelle mit den zugehörigen semiotischen Prozessen (die Redeweise von den Memen, die Dawkins 1976 eingeführt hat, ist hier möglicherweise zu schwach) sowie den zugehörigen empirischen Umweltkontexten. Zu sagen, dass es eine Ko-Evolution zwischen Umgebung und Gesellschaft gibt ist zu schwach: entscheidend ist die Mikrostruktur des Prozesses und der hier wirkenden Faktoren in einem Multi-Agenten-Prozess mit Wissensanteilen und Bedeutung.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Wie alles anfing

Die Überlegungen im vorausgehenden Kapitel beziehen sich auf das, was heute ist, auf die Gegenwart. Wie können z.B. Philosophen die Innensicht ihres Bewusstseins beschreiben; wie können Psychologen das beobachtbare Verhalten untersuchen. Was können die Gehirnforscher über die Struktur und die Funktionen des Gehirns feststellen. Diese Aufgabe ist groß genug, dass man damit mehr als ein Leben ausfüllen kann. Hätte man diese Beschreibungsaufgaben vollständig erfüllt — bislang fehlt da noch einiges –, würden dennoch wichtige Teile am Bild fehlen, vielleicht sogar die wichtigsten, ohne die das Ganze nicht verständlich ist: der reale Entstehungsprozess; wie es zum heutigen Zustand kommen konnte? Wie ist es möglich, dass sich solch komplexen Strukturen im Universum, als Leben auf der Erde herausbilden konnten, ohne dass man eine ‚äußere‘ Einwirkung erkennen kann? Was soll das Ganze? Wohin wird dies führen? Wohin kann dies führen? Welche Rolle spielen wir Menschen dabei? Sind wir nur eines von vielen vorübergehenden Phänomenen des Lebens, das wieder vergehen wird, bevor es bemerkt wurde?

Zeichen der Veränderung

Beginnend mit dem 19.Jahrhundert kam es in Westeuropa zu grundlegenden Änderungen im bis dahin vorwiegend christlich-biblisch geprägten Menschen- und Weltbild. Immer mehr Phänomene in der Veränderung von Lebensformen im Kontext unterschiedlicher Ablagerungsschichten im Gestein und Erdreich wurden entdeckt (Anmerkung: Aus meiner Sicht ein sehr hilfreiches Buch für diese Zeit ist u.a. Peter J.Bowler, „Evolution. The History of an Idea“, Berkeley, Los Angeles (CA): University of California Press, 1983, rev.ed. 1989).

Im Falle der Fossilien waren es berühmte Naturforscher wie z.B. Cuvier (1769 — 1832) , Étienne Geoffroy Saint-Hilaire (1772 – 1844) und Charles Robert Darwin (1809 — 1882), die neben der Vielfalt auch die Veränderungen in den unterschiedlichsten geologischen Schichten erkannten. Im Fall der geologischen Schichten waren es Männer wie William Smith (1769 — 1839), Roderick Impey Murchison (1792 — 1871), Adam Sedgwick (1785 — 1873), John Phillips (1800 – 1874) und Charles Lyell (1797 — 1875), die es schafften, erste Klassifikation von Erdschichten und deren chronologischer Abfolge mit Korrelation zu Fossilien aufzustellen. Insgesamt entstanden durch viele verschiedene, z.T. kontrovers diskutierte, Untersuchungen die ersten Umrisse eines Bildes, in dem die aktuelle Gestalt der Erde und der Lebensformen eine Folge von Veränderungen, eine Geschichte, beinhalten. Die Details dieser Geschichte (Vulkanismus, Klimaänderungen, Plattentecktonik, Baupläne,…) waren in ihren genauen Wirkungen lange Zeit zwar nicht eindeutig entscheidbar, ‚dass‘ die Erde und das Leben auf der Erde aber Veränderungen durchlaufen hatten und immer noch durchlaufen, das erschien jedoch immer mehr unabweislich.

Wie lange zurück reichte diese Geschichte? Neue thermodynamische Überlegungen von William Thomson, besser bekannt als Lord Kelvin (1824 – 1907), schränkten den zur Verfügung stehenden absoluten Zeitraum für die Entwicklung der Erde und des gesamten Universums im Laufe seines Lebens immer mehr ein, schließlich bis auf eine zweistellige Millionenzahl. Wie viele seiner Zeitgenossen ging er davon aus, dass die Erde und die Sonne sich kontinuierlich abkühlen, ohne dass neue Energie zur Verfügung steht, die dieser Abkühlung entgegen wirken könnte. Es brauchte die ersten Jahrzehnte des 20.Jh. um mit Hilfe der neuen Erkenntnisse aus der (Nuklear-)Physik bzw. aus dem Spezialgebiet der Teilchenphysik verstehen zu können, dass Sterne und Planeten eigene Energievorräte besitzen und über Prozesse verfügen, durch die diese Energie in Form von beobachtbaren Veränderungen (Sonnenstrahlen, Klima, Vulkanismus, Erdbeben, …) wirksam werden können.

Immer kleiner

1905 hatte Albert Einstein ganz allgemein u.a. die Äquivalenz von Masse und Energie mit seiner bekannten Formel $latex E=mc^{2}$ aufgezeigt, es brauchte aber noch weiterer gehöriger Anstrengungen, bis im Februar 1939 Lise Meitner (1878 – 1968) eine theoretische Beschreibung des ersten Kernspaltungs-Experiments veröffentlichen konnte, das Otto Hahn Ende Dezember 1938 zusammen mit seinem Assistent Fritz Straßman durchgeführt hatte. Im gleichen Jahr konnte Hans Albrecht Bethe (1906 – 2005) sein theoretisches Modell der Kernfusionsprozesse in der Sonne veröffentlichen (für die er 1967 den Nobelpreis bekam). Damit war die Tür zur Erkenntnis der verborgenen Energie in der Materie, in den Sternen, im Universum soweit geöffnet, dass dem Forscher ein glutheißer Atem entgegen schlug.

Es folgten stürmische Jahre der vertiefenden Erforschung der nuklearen Zusammenhänge, stark geprägt von den militärisch motivierten Forschungen zum Bau von Nuklearwaffen. Immer mehr Teilchen wurden im Umfeld des Atoms entdeckt, bis es dann ab den 70iger Jahren des 20.Jh zum sogenannten Standardmodell kam.

Obwohl sich dieses Standardmodell bislang in vielen grundlegenden Fragen sehr bewährt hat, gibt es zahlreiche fundamentale Phänomene (z.B. die Gravitation, die Expansion des Universums, dunkle Materie), für die das Modell noch keine erschöpfende Erklärung bietet.

Big Bang – Zeitpunkt Null

Ausgestattet mit den Erkenntnissen der modernen Physik lassen sich die Hypothesen aus dem 19.Jahrhundert zur Welt als Prozess ausdehnen auf das ganze Universum. Fasst man alle heutigen Erkenntnisse zusammen, wie dies in der sogenannten
Big Bang Theorie geschieht, nach 1990 gefasst als Lambda-CDM-Modell, führt dies auf ein Ereignis vor jeder physikalisch messbaren Zeit zurück. Ein solches Ereignis gilt den Physikern als eine Singularität. Da es im Universum auch andere Formen von Singularitäten gibt, nenne ich jene Singularität, mit der das bekannte Universum begann, hier die erste Singularität.

Durch die Weiterentwicklung der Relativitätstheorie von Albert Einstein konnten Stephen William Hawking (geb.1942),
George Francis Rayner Ellis (geb.1939) und Roger Penrose (geb.1931) aufzeigen, dass die Größen Raum und Zeit mit der ersten Singularität beginnen.

Von heute aus gesehen trat die erste Singularität vor 13.8 Mrd Jahren auf. Beginnend mit einer unendlich extremen Dichte und Hitze begann aus dem Ereignis heraus eine Ausdehnung (Raum und Zeit), die begleitet war von einer zunehmenden Abkühlung. Gleichzeitig kam es zur Herausbildung von subatomaren Teilchen, aus denen sich einfache Atome formten (Anmerkung: Die Entstehung der ersten Atome wird in der Zeitspanne 10 Sek – 20 Min verortet.). Gigantische Ansammlungen dieser ersten Elemente führten dann aufgrund der Gravitation zu Verdichtungen, aus denen Sterne und Galaxien hervorgingen (Anmerkung: Erste Sterne, die das dunkle Weltall erleuchteten werden nach ca. 100 Mio Jahren angenommen. Erste Galaxien etwa 1 Mrd Jahre später.). In den Sternen fanden Kernfusionsprozesse statt, die im Gefolge davon zur Bildung von immer schwereren Atomen führten. Ferner wird seit etwa 6.5 Mrd Jahren eine Beschleunigung bei der Ausdehnung des Universums beobachtet. Man vermutet, dass dies mit der ‚dunklen Energie‘ zu tun hat. Viele Fragen sind offen. Nach letzten Messungen geh man davon aus, dass das bekannte Universums zu 73% aus dunkler Energie besteht, zu 23% aus dunkler Materie, zu 4.6% aus ’normaler‘ Materie und zu weniger als 1% aus Neutrinos (Anmerkung: Jarosik, N. et al. (WMAP Collaboration) (2011). „Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Sky Maps, Systematic Errors, and Basic Results“. NASA/GSFC. p. 39, Table 8. Retrieved 4 December 2010).

Fortsetzung mit Kapitel 5

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

ENDSPIEL, ENDKAMPF, ODER NEUER EVOLUTIONSSCHUB?

(Letzte Änderungen: 23.Nov.2014, 14:46h)

1. Während der Begriff ‚Endspiel‘ durch seine sportliche Konnotationen noch keinen letzten Schrecken verbreiten muss, klingt ‚Endkampf‘ biblisch-apokalyptisch: Endzeitstimmung; das Böse kämpft gegen das Gute; alles steht auf dem Spiel. ‚Evolutionsschub‘ deutet die Perspektive der Naturwissenschaften an, eine methodische Objektivität eines ‚Strukturwandels‘, der sich ’natürlich‘ aus der ‚Vorgeschichte‘ ergibt. Obwohl ich grundsätzlich der naturwissenschaftlichen Sicht zuneige als Grundlage aller Argumentationen über unsere empirisch erfahrbare Welt und damit bei weitreichenden Veränderungen eher einen ’natürlichen Strukturwandel‘ unterstelle, haben wir es bei dem aktuellen Strukturwandel mit Phänomenen zu tun, in die ’subjektive Anteile‘ von beteiligten Menschen, Gruppierungen, Parteien, Firmen usw. mit eingehen. Die ‚Natur‘ hat zwar aufgrund der Gesamtheit aller beteiligten physikalischen Eigenschaften ‚von sich aus‘ eine — möglicherweise ’spezifische‘ — ‚Tendenz‘ sich zu verändern, aber der weltweite Einfluss biologischer Systeme auf den weiteren Gang mit der ‚biologischen Eigendynamik, die – wir wir wissen – gegen grundlegende physikalische Gesetze (z.B. 2.Hauptsatz der Thermodynamik) gerichtet zu sein scheint, erscheint mittlerweile so stark, dass der biologische Faktor neben den physikalischen Prinzipien ein Gewicht gewonnen hat, welches es verbietet, rein ‚technisch‘ von einem Evolutionsschub als ‚ausrechenbarem Strukturwandel‘ zu sprechen.

2. In diesem globalen Kontext erscheint ein Thema wie Informatik & Gesellschaft auf den ersten Blick eher speziell; auf den zweiten Blick zeigt sich aber gerade in diesem Thema eine der globalen Verwerfungslinien zwischen dem ‚Zustand bisher‘ und dem ‚Zustand, der neu beginnt‘. Das Thema ‚Informatik‘ bzw. ‚Computertechnologie‘ galt eher als Teil der Technologie, die nicht eigentlich der ‚Natur‘ zugeordnet wurde. Wie überhaupt seit Aufkommen der ‚Maschinen‘ die Maschinen als Leitmuster der Technologie immer als Gegensatz zur ‚chemischen und biologischen Evolution‘ gesehen wurden. Neben vielen kulturellen Denkmustern, die solch eine ‚Trennung‘ begünstigten, war es sicher auch die mindestens von der antiken Philosophie herrührenden Trennung von ‚unbelebt‘ (die ‚Stoffe‘, ‚Subtsanzen‘, die ‚Materie‘ als solche sind ‚unbelebt‘) und ‚belebt‘ (‚atmend‘ (pneo), Atem als universelles Lebensprinzip (pneuma)), das seinen Ausdruck im ‚Geist‘ (pneuma‘) findet. Da dieser Gegensatz von ‚unbelebt‘ und ‚belebt‘ mehr als 2000 Jahre nicht wirklich aufgelöst werden konnte, konnte sich eine Art ‚Dualismus‘ ausbilden und durchhalten, der wie eine unsichtbare Trennlinie durch die gesamte Wirklichkeit verlief: alles, was nicht ‚atmete‘ war unbelebt, materiell, un-geistig; alles was atmete, belebt war, befand sich in einer Nähe zum universellen Geistigen, ohne dass man eigentlich näher beschreiben konnte, was ‚Geist‘ denn nun genau war. Nicht verwunderlich, dass sich alle großen Religionen wie ‚Hinduismus‘, ‚Judentum‘, ‚Buddhismus‘, ‚Christentum‘, ‚Islam‘ (trotz z.T. erheblicher Differenzen in den Details), diesem Dualismus ’nachbarschaftlich verbunden fühlten‘. Der intellektuell-begriffliche ‚Ringkampf‘ der christlichen Theologie und Philosophie (und streckenweise des Islam, Avicenna und andere!) mit diesem dualistischen Erbe hat jedenfalls tiefe Spuren in allen theologischen Systemen hinterlassen, ohne allerdings dieses ‚Rätsel des Geistes‘ auch nur ansatzweise aufzulösen.

3. Diesen historischen Kontext muss man sich bewusst machen, um zu verstehen, warum für viele (die meisten? Alle?) die plötzliche ‚Nähe‘ der Technologie im alltäglichen Leben, eine sich immer mehr ‚anschmiegende‘ und zugleich ‚verdrängende‘ Technologie an diesem im Alltagsdenken ‚historisch eingebrannten‘ Dualismus‘ zu kratzen beginnt, zu wachsenden Irritationen führt (andere Technologien wie Nanotechnologie und Gentechnik gehören auch in diesen Kontext, wenn auch anders).

4. Im Ankündigungstext zur erwähnten Veranstaltung Informatik & Gesellschaft (siehe auch den Kurzbericht) wurde bewusst herausgestellt, dass seit den ersten Computern eines Konrad Zuse und dem Eniac-Computer von John Presper Eckert und John William Mauchly (1946) die Computertechnologie mittlerweile nahezu alle Bereiche der Gesellschaft in einer Weise durchdrungen hat, wie wohl bislang keine andere Technologie; dass diese Technologie realer Teil unseres Alltags geworden ist, sowohl im Arbeitsleben wie auch in der Freizeit. Man kann sogar sagen, dass diese Technologie die menschliche Lebensweise schon jetzt (nach ca. 60 Jahren) real und nachhaltig verändert hat. Neue Formen der Kommunikation wurden ermöglicht, Veränderungen der Mobilität, automatisierte flexible Produktion, Computermusik, computergenerierte Bildwelten…

5. Aber diese Durchdringung von nahezu allem – was heißt das? Die neue historische Qualität dieser Technologie besteht darin, dass diese Technologie – bislang immer noch klar erkennbar als ‚Maschinen‘, bislang nicht als ‚biologische‘ Strukturen – ‚Verhaltensweisen‘ zeigt, die denen der Menschen als Prototypen von ‚geistigen‘ Wesen ähneln. Aufgrund dieser ‚Ähnlichkeit‘ werden sie Teil von ‚typisch menschlichen‘ Handlungsabläufen (Kommunizieren, Wissen verwalten, Sport und Kunst machen, Spielen, komplexe Modelle und Prozesse entwerfen und simulieren, dann auch steuern, usw.). Seit den 80iger Jahren des 20.Jahrhunderts – also nach nicht mal ca. 30-40 Jahren — hat sich diese Technologie so mit dem menschlichen Alltag verwoben, dass eine moderne industrielle Gesellschaft komplett zusammenbrechen würde, würde man diese Technologie von jetzt auf gleich abschalten.

6. Befürworter eines noch intensiveren Einsatz dieser neuen Computertechnologien z.B. im Bereich der Industrie unter dem Schlagwort ‚Industrie 4.0‘ (so z.B. Prof. Schocke in seinem Beitrag auf der Veranstaltung Informatik & Gesellschaft – Kurzbericht oder die Autoren Thomas Klein und Daniel Schleidt in der gleichnamigen FAZ Beilage vom 18.Nov.2014 auf den Seiten V2 (Klein) und V6 (Schleidt)) sehen vor allem das Potential zu noch mehr Produktionssteigerungen bei gleichzeitiger Verbesserung der Qualität und besserer Ressourcennutzung. Gleichzeitig betonen die drei Autoren die Notwendigkeit von mehr Computertechnologie in der Industrie wegen des internationalen Wettbewerbs. Von den drei genannten Autoren spricht einzig Thomas Klein auch die Kehrseite des vermehrt ‚menschenähnlichen‘ Einsatzes dieser Maschinen im Kontext von Industrie 4.0 an: das damit möglicherweise auch viele Arbeitsplätze wegfallen werden, die bislang für Menschen Arbeitsmöglichkeiten geboten haben. Klein zitiert Untersuchungen, nach denen 47% der bisherigen Arbeitsplätze in den USA in den nächsten 10 Jahren Kandidaten für eine Substitution durch Computergestützte Technologien sind. Dies sind massive Zahlen. Dalia Marin, Professorin für Volkswirtschaft, versucht diese kommende Arbeitsmarktproblematik weiter zu differenzieren. Ausgehend von der Annahme, dass mehr Automatisierung kommen wird, sieht sie neben dem Rückzug von Hochtechnologieproduktionen in die angestammten Industrieländer dort aber die grundsätzliche Entwicklung zur Vergrößerung der Kapitalquote und zur Verringerung der Lohnquote. Diese Verringerung soll vor allem den Akademikersektor treffen; teure menschliche Arbeitskräfte werden bevorzugt von billigen computerbasierten Technologien ersetzt (FAZ 21.Nov.2014, S.16). Sowohl Klein wie auch Marin betonen aber auch, dass solche Zukunftseinschätzungen problematisch sind; der Prozess ist zu komplex, als dass man ihn einfach hochrechnen könnte.

7. Was bei allen vier genannten Autoren auffällt – auch bei den Autoren der Beilage ‚Innovation‘ (FAZ 20.Nov.2014) – ist, dass sie die ‚intelligente‘ und ’smarte‘ Technologie überwiegend aus einer ‚Außensicht‘ behandeln. Sie lassen die Wirkmechanismen dieser neuen Technologien, ihre maschinelle Logik, das, was sie so leistungsfähig macht, mehr oder weniger im Dunkeln. Smarte, intelligente Technologie erscheint dadurch – ich pointiere jetzt ein wenig — wie ein Naturereignis, das geradezu mystisch über uns hereinbricht, das einfach passiert, das so ist wie es ist, das man einfach hinnehmen muss. Auch fehlt eine historische Einordnung dieser Prozesse in das große Ganze einer Evolution des Lebens im Universum. Die sehr differenzierten Sichten von Daniel Schleidt enthalten zwar ein eigenes Schaubild zur industriellen Entwicklung, aber dieses greift – nach meiner Einschätzung – zu kurz. Es zementiert nur eher den opaken Blick auf das Phänomen, macht es begrifflich unzugänglich, schottet es für die Reflexion ab. Auch die volkswirtschaftliche Ausweitung des Blicks durch Marin geht – nach meiner Einschätzung – nicht weit genug. Sie betrachtet das Problem einer möglichen und wahrscheinlichen Substitution von menschlicher Arbeit durch computerbasierte Technologien in gegebenen historischen Kontexten und hier auch nur in einer kurzen Zeitspanne. Sie thematisiert aber nicht die gesellschaftlichen Rahmenbedingungen als solche. Sehr wohl kann man die Frage nach dem aktuellen Gesellschaftsmodell stellen. Sehr wohl kann man die Frage aufwerfen, ob es ein gutes Modell ist, wenn einige wenige GFinanz- und Machteliten mit dem Rest der Menschheit nach Belieben spielen. In der Frankfurter Rundschau wird seit vielen Wochen das Thema ‚Gerechtigkeit‘ diskutiert (siehe zuletzt z.B. Mohssen Massarat, Prof. für Wirtschaft und Politik mit seiner Übersicht verschiedener Gerechtigkeitsmodelle, FR 15./16.Nov.2014, S.9) und die Lektüre eines Buches wie ‚Die Abwicklung‘ von George Packer zeigt, dass eine reflexionsfreie oligopolistische Gesellschaft wie die US-Amerikanische mehr Fragen aufwirft als sie befriedigende Antworten liefert.

8. Sieht man nur die bisherigen Diskussionsbeiträge, dann kann einen schon die klamme Frage beschleichen, warum so viele Autoren in den Spiegeln der Gegenwart immer nur noch ‚das Andere‘ sehen, die ‚Maschine‘, während der ‚Mensch‘, die ‚Menschheit‘ als Hervorbringer dieser Technologien in diesem Sichtfeld gar nicht mehr vorkommt. Es ist wie ein intellektueller blinder Fleck, der die leisesten Zuckungen von Maschinen wie eine Neugeburt feiert während das ungeheuerliche Wunder der Entstehung komplexer Lebensstrukturen auf der Erde (das bis heute in keiner Weise wirklich verstanden ist!) nicht einmal eine Randnotiz wert ist. Fokussierung auf spezifische Fragestellung hat seinen Sinn und ist und war ein Erfolgsrezept, aber in einer Zeit, in der disziplinenübergreifend komplexe Phänomene alles mit allem verzahnen, in einer solchen Zeit erscheint diese selbstgenügsame Tugend nicht mehr nur nicht angebracht, sondern geradezu kontraproduktiv zu sein. Eine falsche Fokussierung führt bei komplexen Phänomenen notwendigerweise zu Verzerrungen, zu Verfälschungen, zu falschen Bildern von der Gegenwart und einer sich daraus ergebenden Zukunft (es sei auch an die lange Diskussion in der FAZ erinnert zu den Schwachstellen moderner Betriebs- und Volkswirtschaftstheorien, die nicht nur die letzten Finanzkatastrophen nicht vorhergesehen haben, sondern auch mit ihrem Paradigma des ‚homo oeconomicus‘ empirisch weitgehend gescheitert sind.)

9. Wenn nun also Menschen selbst das Andere ihrer selbst anpreisen und sich selbst dabei ‚wegschweigen‘, ist damit die Geschichte des biologischen Lebens im Universum automatisch zu Ende oder unterliegen wir als menschlich Denkende hier nicht wieder einmal einem grundlegenden Denkfehler über die Wirklichkeit, wie andere Generationen vor uns auch schon in anderen Fragen?

10. Die Verabschiedung der UN-Menschenrechtskonvention von 1948, damals als ein Lichtblick angesichts der systematischen Greueltaten gegen die Juden (aber aber nicht nur dieser!) und der Beginn vieler anderer daran anknüpfenden Erklärungen und Initiativen erscheint vor den aktuellen gesellschaftlichen Prozessen weltweit fast schon seltsam. Dass ein totalitäres Regime wie das chinesische die Menschenrechte grundsätzlich nicht anerkennt (wohl aber chinesische Bürger, siehe die Charta 2008) ist offiziell gewollt, dass aber selbst demokratische Länder – allen voran die USA – mit den Menschenrechten scheinbar ’nach Belieben‘ umgehen, sozusagen, wie es ihnen gerade passt, dass wirkt wenig ermutigend und gibt Nahrung für Spekulationen, ob die Menschenrechte und die Mitgliedschaft in der UN nur davon ablenken sollen, was die Finanz- und Machteliten tatsächlich wollen. Die Zerstörung ganzer Gesellschaftsbereiche, die Marginalisierung großer Teile der Bevölkerung, die unbeschränkte Aufhebung der Privatsphäre ohne alle Kontrollen, die globale Ausbeutung der Schwachen durch Handelsabkommen … nur wenige Beispiele die eine andere Sprache sprechen, als jene, die in den Menschenrechten vorgezeichnet ist.

11. Noch einmal, was auffällt, ist die ‚Oberflächlichkeit‘ all dieser Bilder im wahrsten Sinn des Wortes: die schier unfassbare Geschichte der Evolution des Lebens im Universum existiert eigentlich nicht; das Wunder des Geistes inmitten materiell erscheinender Strukturen ist weitgehend unsichtbar oder ist eingesperrt in eine gesellschaftliche Enklave genannt ‚Kultur‘, die nahezu kontaktlos ist mit dem Rest des Wirtschaftens, Produzierens und Denkens; eine ‚Kultur der Sonntagsreden‘ und der ‚Belustigungen‘, ein Medium für die Eitelkeit der Reichen und der Unterhaltungsindustrie.

12. Innovation entsteht nie nur aus der Wiederholung des Alten, sondern immer auch aus der Veränderung des Alten, entsteht aus dem gezielt herbeigeführten ‚Risiko‘ von etwas ‚tatsächlich Neuem‘, dessen Eigenschaften und Wirkungen per se nicht vollständig vorher bekannt sein können.

13. Die, die aktuell neue Technologien hervorbringen und einsetzen wollen, erscheinen ‚innovativ‘ darin, dass sie diese hervorbringen, aber in der Art und Weise, wie sie das biologische Leben – speziell die Menschen – damit ‚arrangieren‘, wirken die meisten sehr ‚alt‘, ‚rückwärtsgewandt‘, …. Innovationen für das Menschliche stehen ersichtlich auf keiner Tagesordnung. Das Menschliche wird offiziell ‚konserviert‘ oder schlicht wegrationalisiert, weggeworfen, ‚entsorgt‘; hier manifestiert sich ein seltsamer Zug dazu, sich selbst zu entsorgen, sich selbst zu vernichten. Die Quelle aller Innovationen, das biologische Leben, hat in Gestalt der Menschheit einen ‚blinden Fleck‘: sie selbst als Quelle.

14. Der Mangel an Wissen war zu allen Zeiten ein Riesenproblem und Quelle vieler Notlagen und Gräueltaten. Dennoch hat die Menschheit trotz massiver Beschränkungen im Wissen neues Wissen und neue Strukturen entwickelt, die mehr Teilhabe ermöglichen, mehr Einsichten vermitteln, mehr Technologie hervorgebracht haben, ohne dass ein ‚externer Lehrer‘ gesagt hat, was zu tun ist… wie ja auch alle Kinder nicht lernen, weil wir auf sie einreden, sondern weil sie durch den bisherigen Gang der Evolution für ein kontinuierliches Lernen ausgestattet sind. … Der Geist geht dem Denken voraus, die Logik der Entwicklung liegt ‚in‘ der Materie-Energie.

15. So großartig Innovationen sein können, das größte Mirakel bleibt die Quelle selbst. Wunderbar und unheimlich zugleich.

QUELLEN

George Packer (3.Aufl. 2014), Die Abwicklung. Eine innere Geschichte des neuen Amerika. Frankfurt am Main: S.Fischer Verlag GmbH (die engl. Originalausgabe erschien 2013 unter dem Titel ‚The Unwinding. An Inner History of the New America‘. New York: Farrar, Strauss and Giroux).

Einen Überblic über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.